Темная сторона ChatGPT: мошенничество, вирусы, дипфейки и другие способы вредного использования нейросети

Интересное
А вы думали искусственный интеллект работает только во благо?

Все мы стали свидетелями новой замечательной тенденции – гонки нейросетей на базе искусственного интеллекта, в центре которой находится великий главный герой: ChatGPT. Однако несмотря на многочисленные достоинства подобных программ, их применение возможно не только во благо, но и во вред. Именно «темной стороне» нейронок посвящены исследования многих аналитических агентств в последние месяцы.

По словам аналитиков, злоумышленников уже освоили комплексный подход к использованию API OpenAI (алгоритм, лежащий в основе ChatGPT и других подобных программ) в своих целях.

Нейросеть привлекают для преобразования вредоносного кода с одного языка программирования на другой, способствуя межплатформенному распространения вирусов. Основная проблема заключается в том, что код, сгенерированный ИИ, потенциально имеет очень негативное влияние на кибербезопасность, поскольку защитного программного обеспечения, написанного людьми, может быть недостаточно для его подавления.

«Пока что это довольно простой код, но уже сейчас его можно использовать», — объясняют эксперты Check Point Software. «Одна из вещей, для которых ИИ хорош, — это автоматизация. Если хакеры смогут натаскать чат-бота обходить защиту, он продолжит учиться, и станет самосовершенствующимся инструментом для взлома» — добавляют они.

Темная сторона ChatGPT: мошенничество, вирусы, дипфейки и другие способы вредного использования нейросети

Также чат-боты активно используются для написания фишинговых электронных писем. В последнем отчете исследователи Recorded Future пишут: «Способность ChatGPT убедительно имитировать человеческий язык позволяет ему стать мощным инструментом фишинга и социальной инженерии». Эксперты протестировали чат-бота на данный вид атаки и предупредили об отсутствии грамматических ошибок, что в таких случаях является отличным показателем мошеннических писем.

«Отсутствие подобных индикаторов серьезно повышает вероятность того, что пользователи станут жертвами фишинговых рассылок, составленных чат-ботами, которые заставят их предоставить личную информацию» — объясняют в Recorded Future.

С другой стороны, еще одна угроза, которую мы постепенно наблюдаем, — это дезинформация. Киберпреступники в своих целях активно занимаются распространением ложных сведений прямолинейным и обманным путем. Они играют на таких темах, как стихийные бедствия, национальная безопасность, спекуляции, связанные с пандемией, чтобы подтолкнуть людей к переводу денег или выдаче своих личных данных.

Темная сторона ChatGPT: мошенничество, вирусы, дипфейки и другие способы вредного использования нейросети

Как можно решить эту проблему с ChatGPT?

Учитывая все это, возникает вопрос: можно ли переделать ChatGPT или другие инструменты ИИ так, чтобы предотвратить их использование в целях злоумышленников? К сожалению, ответ здесь будет не таким простым, как может показаться.

ChatGPT и подобные инструменты просто не могут определить, хорошее или плохое намерение имеет человек, который им пользуется. И это большая проблема. Для таких случаев OpenAI работает над методом нанесения «водяных знаков» на результаты трудов GPT, которые впоследствии можно будет использовать как доказательство того, что они были созданы ИИ, а не людьми. Но этот метод применим, например к дипфейкам. А как быть со сгенерированным текстом или вредоносным кодом?

Пока что такое решение кажется явно недостаточным. Давайте не будем слишком тревожиться, поскольку, хотя ChatGPT прост в использовании на базовом уровне, вмешательство, чтобы он мог генерировать вредоносное ПО, требует технических навыков, недоступных многим хакерам. Следует относиться ко всему этому с некоторой озабоченностью, но без драматизма, и надеяться, что такие компании, как OpenAI, решат эти проблемы вовремя.

Оцените статью
Добавить комментарий