Искусственный интеллект стал орудием мошенников: как нейросеть помогает аферистам

Коллаж: Дарья Давиденко Аферисты научились пользоваться искусственным интеллектом, чтобы манипулировать людьми
Коллаж: Дарья Давиденко
Размер текста
А А А
Поделиться share
Рассказываем, как нейросеть превратилась в новое оружие киберпреступников и начала стимулировать аферистов

Дипфейковые фото и видео, виртуальное похищение, имитация голоса, написание фишинговых текстов, шантаж с использованием поддельной эротики – все это распространилось со "быстротой света", как только искусственный интеллект по недостижимой технологии превратился в массовый инструмент. Сегодня мошеннические схемы стали более совершенными и действенными благодаря использованию нейросети, способной вывести проблему киберпреступности на новый уровень.

Сайт Новини Pro рассказывает, как искусственный интеллект помогает аферистам совершать свои преступные намерения.

Содержание
1
Похищение людей, выкуп и имитация голоса
2
В качестве мошенников используют высококачественные дипфейки
3
Нейросеть провоцирует производство порнографии
4
Борьба мира против мошенничества с использованием ИИ
closearr

Похищение людей, выкуп и имитация голоса


Если раньше злоумышленникам приходилось писать сообщения от имени родственников или друзей потенциальной жертвы, чтобы попросить деньги, теперь можно гораздо быстрее убедить человека в разговоре со знакомым. Нейросеть умеет клонировать голос реального лица, воспроизводя подлинный тембр и интонацию.

Очень трудно определить имитацию, поскольку перед применением технологии аферисты проводят исследования, используя имеющуюся в Интернете информацию. Они изучают социальные сети и на основе видеороликов (например, разговорные стори в Instagram) создают аудиодипфейки. Затем звонят родственникам и пытаются убедить в похищении, требуя деньги за увольнение.

"Аферисты создают мнимый сценарий, пытаясь сделать его как можно страшнее для жертвы, которой они собираются позвонить. Чем больше жертва напугана, тем меньше вероятность в принятии рациональных решений, на что и рассчитывают злоумышленники", рассказали эксперты ESET, разработчика антивирусного ПО.

Так же аферисты могут позвонить по телефону с просьбой одолжить деньги. Услышав знакомый голос, пострадавшие не будут думать об обмане. Они согласятся отправить нужную сумму на банковскую карту, и только потом поймут свою ошибку.

В качестве мошенников используют высококачественные дипфейки


Дипфейк – это современная методика создания изображения или видео с участием живого человека, когда одну картинку накладывают на другую для имитации. Основываясь на искусственном интеллекте, дипфейки несут серьезную угрозу обществу, поскольку используются не только в мошенничестве. Фальшивые кадры могут стать инструментом пропаганды, политических игр, крупных финансовых махинаций.

Один из путей применения дипфейковых фото и видео – обход системы аутентификации. Многие сервисы нуждаются в верификации личности, чтобы допустить пользователя в систему. Но так называемые "живые проверки" не помогут избежать вмешательства злоумышленников, действующих с поддержкой генеративного ИИ. Это делает банковские счета лакомым кусочком для мошенников.

"В будущем, чем больше фото детей или родственников мы выложим в интернет, тем больше у искусственного интеллекта будет возможностей на этих фото научиться и генерировать дипфейк, которым потом атакуют человека", констатировал в эфире Radio NV соучредитель компании Cyber ​​Unit Technologies Егор Аушев.

Показательна история, что произошло с сотрудником транснациональной фирмы в Гонконге. Он получил от руководителя из Великобритании электронное письмо о видеоконференции. Во время соединения присутствовали другие коллеги, так что ничто не свидетельствовало о подозрительности ситуации.

Как результат – мужчина совершил более 15 транзакций на сумму 25 млн долларов, отправив средства на пять банковских счетов по указанию руководителя И только после встречи работник узнал, что никакая конференция не была запланирована. Из всех присутствующих живым человеком был только он, а остальные – генерация искусственного интеллекта.

Также в Управлении по обучению и работе с клиентами CFTC предупредили, что инвестиционная отрасль массово страдает мошенничеством. Инвесторы все чаще сталкиваются с преступниками, которые обещают большие прибыли благодаря внедрению нейросети. К примеру, торговых ботов, специальных алгоритмов и арбитража по ИИ.

Нейросеть провоцирует производство порнографии


Еще одна прибыльная схема, где ИИ использует лица людей для замены – это производство контента эротического и порнографического содержания. Технология неизменна: злоумышленники создают фальшивые ролики, которыми потом шантажируют своих жертв. Или просто выкладывают видео в интернет, зарабатывая деньги на публикации.

При этом аферисты не обходят стороной никого. Подобная проблема может затронуть мировые знаменитости и даже детей. Издание The Washington Post обнародовало такую ​​информацию о дипфейках, созданных искусственным интеллектом:

  • по состоянию на 2019 год доля порнографических дипфейков достигла 96% и с тех пор растет, а реакции на злоупотребление почти нет;
  • программы для замены лица легко скачать в магазинах Apple и Google, для этого не требуется дорогостоящее ПО;
  • модели ИИ непрестанно учатся на изображениях и видео, опубликованных в интернете, поэтому могут сексуализировать образы женщин по умолчанию;
  • очень часто выявить авторов дипфейков не возможно, а потому и привлечение преступников к ответственности под большим вопросом;
  • после публикации фальшивого контента жертвы сталкиваются с осуждением общества, а доказать подлог и свою невиновность не могут.

Приложений, заменяющих лицо, существует множество. Весной 2023 года в социальных сетях Facebook и Instagram даже распространяли видео с актрисами Скарлетт Йоганссон и Эммой Уотсон, которые якобы имитировали начало полового акта. Оказалось, что таким способом рекламировали приложение для создания дипфейков.

Борьба мира против мошенничества с использованием ИИ


В конце 2023 г. ряд крупных мировых государств представили первое международное соглашение о защите искусственного интеллекта от мошенников. За информацией Reuters, это обычный 20-страничный документ, согласованный представителями 18 стран, в котором технологические компании призвали к созданию безопасных умных машин.

Другими словами, разработчиков нейросети просто попросили внедрять инструменты таким образом, чтобы общественность была защищена от злоупотреблений. В то же время это соглашение не имеет обязательной силы, а содержит только перечень общих рекомендаций. К примеру, о защите персональных данных и проверке поставщиков ПО.

Украинцы, которые не хотят стать жертвами аферистов, должны понимать: защититься от ИИ возможно, но только при развитии своей медиаграмотности. Мошенничество с использованием искусственного интеллекта обойдет стороной тех людей, которые будут сохранять конфиденциальность в сети, не распространять личные данные, укрепят защиту аккаунтов и счетов и т.д.

Раньше мы писали, что такое скимминг-мошенничество и чем грозит украинцам, а также как аферисты пытаются заработать на криптовалюте.

Продолжая просмотр сайта, вы соглашаетесь с тем, что ознакомились с политикой конфиденциальности и использованием файлов cookie.