Как искусственный интеллект повлияет на киберпреступления будущего

Как искусственный интеллект повлияет на киберпреступления будущего

Межрегиональный научно-исследовательский институт ООН по вопросам преступности и правосудия, Интерпол и компания Trend Micro, специализирующаяся на кибербезопасности, подготовили доклад под названием «Злонамеренное использование и злоупотребление искусственным интеллектом». Под этими терминами участники доклада подразумевают ботов, дипфейки и прочие инструменты с признаками искусственного интеллекта, использующиеся для взлома и манипуляций.

«Процесс» пересказывает суть доклада.

Дипфейки лиц, голоса и текста

Сейчас искусственный интеллект позволяет создавать дипфейки лиц и голоса. Голос позволяет манипулировать и вымогать деньги, а дипфейки фото — мошенничать как на документах, так и на общественном мнении и распространении фейковых новостей.

Иногда хакеры используют искусственный интеллект для повышения эффективности вредоносных программ. Комбинация алгоритмов ИИ с malware позволяет последнему ловчее обходить спам-фильтры и прочую защиту. Сейчас хакеры разрабатывают вредоносные программы на основе ИИ, которые будут мешать работе антивирусов и технологии распознавания лиц.

ИИ несет угрозу и для безопасности паролей. Алгоритмы дают возможность эффективнее их взломать, а капча уже не столь неуязвима от «роботов». Искусственный интеллект также применяют для улучшения качества шифрования. В аналогичном прошлогоднем докладе упоминалось 34 приложения для шифрования или взлома.

Еще один вариант создания фейка — генератор текста GPT-3. Он анализирует пример текста конкретного человека и имитирует его. Такие подделки можно использовать для написания текстовых «дипфейков» —  писем с вымогательствами или дезинформацией.

Игра в имитацию

По докладу кажется, что нет технологичной сферы, куда бы не смог проникнуть искусственный интеллект. Алгоритмы способны проанализировать большие массивы данных и вычленить из них номера карт и телефонов. Эту информацию ИИ сможет извлечь даже из изображений.

Способность имитировать поведение человека поможет ботам втираться в доверие к доверчивым людям (это можно отнести к социальной инженерии) и «разводить» их. Нынешние боты в соцсетях видны невооруженным глазом, боты будущего будут мало отличаться от живого активного пользователя соцсетей. Искусственный интеллект даже будут использовать в играх для «читов» ради выигрыша.

Для телефонного мошенничества можно не нанимать колл-центры — их работу будут выполнять голосовые боты для автообзвонов. Еще один вариант использования ИИ — обман систем распознавания изображений будущей техники. Чтобы угнать беспилотные автомобили или дроны, хакеры будут взламывать виртуальную разметку их движения.

И главное — финансовые преступления. Мошенники смогут использовать искусственный интеллект для незаконной торговли криптовалютами, взломов систем алгоритмического трейдинга и для маскировки инсайдерской торговли. То есть для атак на высокотехнологичные финансовые операции.

Авторы доклада подчеркнули, что изученные ими способы применения искусственного интеллекта для мошенничества пока находятся в разработке, и использование их — дело ближайшего будущего.