ChatGPT и другие чат-боты "могут быть использованы для организации кибератак

ОПУБЛИКОВАНО

Как ChatGPT используют для кибер атак?

Предупреждение появилось в преддверии саммита по безопасности искусственного интеллекта в Великобритании.

Правительство пригласило мировых лидеров и гигантов индустрии собраться вместе, чтобы обсудить возможности и опасности искусственного интеллекта.

Обман chatGPT

hatGPT можно обманом заставить создавать вредоносный код, который может быть использован для кибератак, говорится в исследовании. Инструмент OpenAI и аналогичные чат-боты могут создавать письменный контент на основе команд пользователя, будучи обученными на огромном количестве текстовых данных со всего интернета.

Они разработаны с учетом защиты от неправомерного использования, а также для решения таких проблем, как предвзятость. В связи с этим злоумышленники обратились к альтернативам, специально созданным для помощи киберпреступникам, например, к инструменту из темной паутины под названием WormGPT, который, как предупреждают эксперты, может помочь в разработке крупномасштабных атак.

Но исследователи из Шеффилдского университета предупредили, что уязвимости существуют и в обычных вариантах, которые позволяют обманом уничтожить базы данных, украсть личную информацию и вывести из строя сервисы. К ним относятся ChatGPT и аналогичная платформа, созданная китайской компанией Baidu.

Аспирант Ксутан Пенг (Xutan Peng), соавтор исследования, сказал: "Опасность таких ИИ, как ChatGPT, заключается в том, что все больше людей используют их в качестве инструментов для повышения производительности, а не как разговорных ботов".

Все самые новые модели искусственного интеллекта и чат GPT, вы можете опробовать на нашем сайте полностью бесплатно:

Попробовать чат GPT сейчас

Сгенерированный ИИ код "может быть вредным"

Подобно тому, как эти генеративные инструменты ИИ могут случайно ошибиться в фактах при ответе на вопросы, они также могут создавать потенциально вредный компьютерный код, не осознавая этого. Господин Пенг предположил, что медсестра может использовать ChatGPT для написания кода для навигации по базе данных с записями пациентов.

Код, созданный с помощью ChatGPT, во многих случаях может нанести вред базе данных", - сказал он. В этом случае медсестра может вызвать серьезные сбои в управлении данными, даже не получив предупреждения.

В ходе исследования ученые сами смогли создать вредоносный код с помощью чат-бота Baidu. Компания признала результаты исследования и приступила к устранению обнаруженных уязвимостей.

Подобные опасения привели к призывам повысить прозрачность обучения моделей искусственного интеллекта, чтобы пользователи лучше понимали и воспринимали потенциальные проблемы с ответами, которые они предоставляют.

Компания Check Point, занимающаяся исследованиями в области кибербезопасности, также призвала компании повысить уровень защиты, поскольку ИИ грозит сделать атаки более изощренными.

50 МИН. ЧТЕНИЕ