ИИ взяли на вооружение мошенники и пытаются применять для создания вредоносных программ

Злоумышленники пробуют применить возможности искусственного интеллекта для разработки фишинговых сайтов. Обнадеживающий факт — данных об эффективности внедрения пока нет.

Об этом «Русской Весне» сообщили в пресс-службе депутата Госдумы РФ Антона Немкина.

Security Intelligence в ответ на данные, говорящие о росте заинтересованности в технологиях искусственного интеллекта со стороны злоумышленников, провели эксперимент, нацеленный на сравнение эффективности человека и ИИ-технологий в части осуществления мошеннической деятельности.

Так, исследователи сравнили эффективность фишинговых писем, созданных нейросетью ChatGPT и человеком.

В результате эксперимента было определенно, что эффективность вирусных писем, созданных человеком гораздо выше, чем ИИ — чаще всего участники эксперимента считали сгенерированный фишинг ИИ подозрительным.

Так, частота кликабельности на 14% выше у вируса, разработанного человеком, у ChatGPT показатель составил только 3%.

Интеграция ИИ-технологий в деятельность злоумышленников — вопрос времени, считает член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.

«Как в России, так и на мировом рынке уже виднеются подобные тенденции. Напомню, что в этом году ChatGPT уже оказался под угрозой: злоумышленники взломали сервис и изменили код так, чтобы он смог генерировать вредоносный контент — те же фишинговые письма.

Активизация киберпреступников связана с возможностями, которые предоставляет искусственный интеллект — прежде всего, скорость обработки данных. Представьте, если раньше злоумышленнику требовалось несколько часов, чтобы создать фишинговую страницу, а потом время на то, чтобы осуществить рассылку, то с помощью ИИ это можно сделать за считанные секунды», — пояснил Антон Немкин.

В настоящий момент и в России, и в мире технологии искусственного интеллекта только формируются, в том числе с точки зрения правового регулирования, напомнил депутат. «Поэтому уже на начальном этапе следует уделить особое внимание информационной безопасности ИИ-технологий. Отмечу, что такие разработки требуют значительного инвестирования и времени на создание качественных моделей.

Поэтому злоумышленники скорее будут ориентироваться не на создание собственных решений, а на атаку существующих.

Россия активно внедряет ИИ, как в государственном, так и в частном секторах, в том числе на основе технологии GPT, поэтому данный вопрос должен стоить в повестке», — заключил Антон Немкин.

Читайте также: «Цифровая Россия» запускает проект переподготовки ветеранов СВО