ChatGPT может создавать атаки, основанные на уязвимостях чипа — модель GPT-4 протестирована учеными-компьютерщиками UIUC

Апр 17, 2024 | Железо и Программы | Нет комментариев

0
(0)
Время чтения 2 минуты

Модель OpenAI GPT-4 успешно использует уязвимости кибербезопасности — неизменно лучше и быстрее, чем профессионалы. Академики утверждают, что этот навык является недавним дополнением к рулевой рубке модели ИИ, но со временем он станет только лучше.

Исследователи из Университета Иллинойса в Урбане-Шампейне (UIUC) недавно опубликовали статью об этом варианте использования, в которой они противопоставили друг другу несколько больших языковых моделей (LLM) на арене атаки на уязвимости безопасности . GPT-4 смог успешно атаковать 87% протестированных уязвимостей, если получить описание эксплойта из CVE, общедоступной базы данных распространенных проблем безопасности. Все остальные протестированные языковые модели (GPT-3.5, OpenHermes-2.5-Mistral-7B, Llama-2 Chat (70B) и т. д.), а также специально созданные сканеры уязвимостей ни разу не смогли успешно эксплуатировать предоставленные уязвимости.

LLM были предоставлены «однодневные» уязвимости (названные так потому, что они достаточно опасны, чтобы потребовать исправления на следующий день после обнаружения) для тестирования. Эксперты по кибербезопасности и охотники за эксплойтами построили всю свою карьеру на поиске (и исправлении) однодневных уязвимостей; так называемые «белые хакеры» нанимаются компаниями в качестве тестеров на проникновение с целью обогнать вредоносных агентов, охотящихся за уязвимостями для использования.  

К счастью для человечества, GPT-4 был способен атаковать только известные уязвимости — которым было дано описание CVE — LLM имел только 7% успеха, когда дело доходило до выявления и последующего использования ошибки. Другими словами, ключ к хакерскому судному дню (пока) недоступен никому, кто может написать хорошую подсказку для ChatGPT. Тем не менее, GPT-4 по-прежнему вызывает особое беспокойство из-за его способности не только понимать уязвимости в теории, но и фактически выполнять шаги для реализации эксплойтов автономно, через систему автоматизации. 

И, к несчастью для человечества, GPT-4 уже лучше людей в гонке эксплуатации. Предполагая, что эксперту по кибербезопасности платят 50 долларов в час, в документе утверждается, что «использование агента LLM [для эксплуатации уязвимостей безопасности] уже в 2,8 раза дешевле человеческого труда. Агенты LLM также тривиально масштабируемы, в отличие от человеческого труда». В документе также предполагается, что будущие программы LLM, такие как предстоящий GPT-5, будут только укрепляться в этих способностях, а, возможно, и в навыках открытия. Учитывая, что огромные последствия прошлых уязвимостей, таких как Spectre и Meltdown, все еще маячат в сознании технологического мира, это отрезвляющая мысль.

Поскольку с ИИ продолжают играть, мир будет продолжать безвозвратно меняться. OpenAI специально попросила авторов статьи не публиковать подсказки, которые они использовали для этого эксперимента — авторы согласились и заявили, что будут предоставлять подсказки только «по запросу». 

Будьте внимательны, пытаясь воспроизвести это (или что-то еще) в ChatGPT для себя, поскольку запросы ИИ очень вредны для окружающей среды: один запрос ChatGPT стоит почти в 10 раз дороже, чем действующий поиск в Google . Если вас устраивает такая разница в энергопотреблении и вы хотите самостоятельно работать с LLM, вот как энтузиасты запускали чат-ботов с искусственным интеллектом на своих NAS .

Насколько публикация полезна?

Нажмите на звезду, чтобы оценить!

Средняя оценка 0 / 5. Количество оценок: 0

Оценок пока нет. Поставьте оценку первым.

SiteAnalyzer, технический и SEO-анализ сайтов

Подпишитесь на нашу рассылку

0 Комментариев

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

 

Не копируйте текст!