Искусственный интеллект стал орудием мошенников: как нейросеть помогает аферистам

Коллаж: Дарья Давиденко Аферисты научились пользоваться искусственным интеллектом, чтобы манипулировать людьми
Коллаж: Дарья Давиденко
Размер текста
А А А
Поделиться share
Рассказываем, как нейросеть превратилась в новое оружие киберпреступников и начала стимулировать аферистов

Дипфейковые фото и видео, виртуальное похищение, имитация голоса, написание фишинговых текстов, шантаж с использованием поддельной эротики – все это распространилось со скоростью света, как только искусственный интеллект из недостижимой технологии превратился в массовый инструмент. Сегодня мошеннические схемы стали более совершенными и действенными благодаря использованию нейросети, способной вывести проблему киберпреступности на новый уровень.

Сайт Новини Pro рассказывает, как искусственный интеллект помогает аферистам совершать свои преступные намерения.

Содержание
1
Похищение людей, выкуп и имитация голоса
2
Как мошенники используют высококачественные дипфейки
3
Нейросеть провоцирует производство порнографии
4
Борьба мира против мошенничества с использованием ИИ
closearr

Похищение людей, выкуп и имитация голоса


Если раньше злоумышленникам приходилось писать сообщения от имени родственников или друзей потенциальной жертвы, чтобы попросить деньги, то теперь можно гораздо быстрее убедить человека в разговоре со знакомым. Нейросеть умеет клонировать реальный голос, воспроизводя подлинный тембр и интонацию.

Очень трудно определить имитацию, поскольку перед применением технологии аферисты проводят исследования, используя имеющуюся в интернете информацию. Они изучают социальные сети и на основе видеороликов (например, разговорных стори в Instagram) создают аудиодипфейки. Затем звонят родственникам и пытаются убедить в похищении, требуя деньги за освобождение.

"Аферисты создают мнимый сценарий, пытаясь сделать его как можно страшнее для жертвы, которой они собираются позвонить. Чем больше жертва напугана, тем меньше вероятность в принятии рациональных решений, на что и рассчитывают злоумышленники", рассказали эксперты ESET, разработчика антивирусного программного обеспечения.

Так же аферисты могут позвонить с просьбой одолжить деньги. Услышав знакомый голос, пострадавшие не будут думать об обмане. Они согласятся отправить нужную сумму на банковскую карту, и только потом поймут свою ошибку.

Как мошенники используют высококачественные дипфейки


Дипфейк – это современная методика создания изображения или видео с участием живого человека, когда одну картинку накладывают на другую для имитации. Основываясь на искусственном интеллекте, дипфейки несут серьезную угрозу обществу, поскольку используются не только в мошенничестве. Фальшивые кадры могут стать инструментом пропаганды, политических игр, крупных финансовых махинаций и тому подобное.

Один из путей применения дипфейковых фото и видео – обход системы аутентификации. Многие сервисы нуждаются в верификации личности, чтобы допустить пользователя в систему. Но так называемые "живые проверки" не помогут избежать вмешательства злоумышленников, действующих с поддержкой генеративного ИИ. Это делает банковские счета лакомым кусочком для мошенников.

"В будущем, чем больше фото детей или родственников мы выложим в интернет, тем больше в искусственного интеллекта будет возможностей на этих фото научиться и генерировать дипфейк, которым потом атакуют человека", констатировал в эфире Radio NV соучредитель компании Cyber ​​Unit Technologies Егор Аушев.

Показательна история, произошедшая с сотрудником транснациональной фирмы в Гонконге. Он получил от руководителя из Великобритании электронное письмо о видеоконференции. Во время соединения присутствовали другие коллеги, так что ничто не свидетельствовало о подозрительности ситуации.

Как результат – мужчина совершил более 15 транзакций на сумму 25 млн долларов, отправив средства на пять банковских счетов по указанию руководителя. И только после встречи работник узнал, что никакая конференция не была запланирована. Из всех присутствующих живым человеком был только он, а остальные – генерация искусственного интеллекта.

Также в Управлении по обучению и работе с клиентами CFTC предупредили, что инвестиционная отрасль массово страдает от мошенничества. Инвесторы все чаще сталкиваются с преступниками, которые обещают большие прибыли благодаря внедрению нейросети. К примеру, торговых ботов, специальных алгоритмов и арбитража с ИИ.

Нейросеть провоцирует производство порнографии


Еще одна прибыльная схема, где ИИ использует лица людей для замены – это производство контента эротического и порнографического содержания. Технология неизменна: злоумышленники создают фальшивые ролики, которыми потом шантажируют своих жертв. Или просто выкладывают видео в интернет, зарабатывая деньги на публикации.

При этом аферисты не обходят стороной никого. Подобная проблема может затронуть мировых знаменитостей и даже детей. Издание The Washington Post обнародовало такую ​​информацию о дипфейках, созданных искусственным интеллектом:

  • по состоянию на 2019 год доля порнографических дипфейков достигла 96% и с тех пор растет, а реакции на злоупотребления почти нет;
  • программы для замены лица легко скачать в магазинах Apple и Google, для этого не требуется дорогостоящее ПО;
  • модели ИИ непрестанно учатся на изображениях и видео, опубликованных в интернете, поэтому могут сексуализировать образы женщин по умолчанию;
  • очень часто выявить авторов дипфейков невозможно, а потому и привлечение преступников к ответственности под большим вопросом;
  • после публикации фальшивого контента жертвы сталкиваются с осуждением общества, а доказать подлог и свою невиновность не могут.

Приложений, заменяющих лицо, существует множество. Весной 2023 года в социальных сетях Facebook и Instagram даже распространяли видео с актрисами Скарлетт Йоганссон и Эммой Уотсон, которые якобы имитировали начало полового акта. Оказалось, что таким способом рекламировали приложение для создания дипфейков.

Борьба мира против мошенничества с использованием ИИ


В конце 2023 года ряд крупных мировых государств представили первое международное соглашение о защите искусственного интеллекта от мошенников. По информации Reuters, это обычный 20-страничный документ, согласованный представителями 18 стран, в котором технологические компании призвали к созданию безопасных умных машин.

Другими словами, разработчиков нейросети просто попросили внедрять инструменты таким образом, чтобы общественность была защищена от злоупотреблений. В то же время, это соглашение не имеет обязательной силы, а содержит только перечень общих рекомендаций. К примеру, о защите персональных данных и проверке поставщиков ПО.

Украинцы, которые не хотят стать жертвами аферистов, должны понимать: защититься от ИИ возможно, но только при развитии своей медиаграмотности. Мошенничество с использованием искусственного интеллекта обойдет стороной тех людей, которые будут сохранять конфиденциальность в сети, не распространяя личные данные, укрепят защиту аккаунтов/счетов и т.д.

Продолжая просмотр сайта, вы соглашаетесь с тем, что ознакомились с политикой конфиденциальности и использованием файлов cookie.