Аналитика Искусственный интеллект стал орудием мошенников: как нейросеть помогает аферистам
Аферисты научились пользоваться искусственным интеллектом, чтобы манипулировать людьми
Коллаж: Дарья Давиденко
Дипфейковые фото и видео, виртуальное похищение, имитация голоса, написание фишинговых текстов, шантаж с использованием поддельной эротики – все это распространилось со "быстротой света", как только искусственный интеллект по недостижимой технологии превратился в массовый инструмент. Сегодня мошеннические схемы стали более совершенными и действенными благодаря использованию нейросети, способной вывести проблему киберпреступности на новый уровень.
Сайт Новини Pro рассказывает, как искусственный интеллект помогает аферистам совершать свои преступные намерения.
Похищение людей, выкуп и имитация голоса
Если раньше злоумышленникам приходилось писать сообщения от имени родственников или друзей потенциальной жертвы, чтобы попросить деньги, теперь можно гораздо быстрее убедить человека в разговоре со знакомым. Нейросеть умеет клонировать голос реального лица, воспроизводя подлинный тембр и интонацию.
Похороны креативности: почему искусственный интеллект в iPhone 16 – это действительно грустно
БлогиХитрое мошенничество с цифровым искусством: как распознать NFT-афериста
ФинансыОчень трудно определить имитацию, поскольку перед применением технологии аферисты проводят исследования, используя имеющуюся в Интернете информацию. Они изучают социальные сети и на основе видеороликов (например, разговорные стори в Instagram) создают аудиодипфейки. Затем звонят родственникам и пытаются убедить в похищении, требуя деньги за увольнение.
"Аферисты создают мнимый сценарий, пытаясь сделать его как можно страшнее для жертвы, которой они собираются позвонить. Чем больше жертва напугана, тем меньше вероятность в принятии рациональных решений, на что и рассчитывают злоумышленники", – рассказали эксперты ESET, разработчика антивирусного ПО.
Так же аферисты могут позвонить по телефону с просьбой одолжить деньги. Услышав знакомый голос, пострадавшие не будут думать об обмане. Они согласятся отправить нужную сумму на банковскую карту, и только потом поймут свою ошибку.
В качестве мошенников используют высококачественные дипфейки
Дипфейк – это современная методика создания изображения или видео с участием живого человека, когда одну картинку накладывают на другую для имитации. Основываясь на искусственном интеллекте, дипфейки несут серьезную угрозу обществу, поскольку используются не только в мошенничестве. Фальшивые кадры могут стать инструментом пропаганды, политических игр, крупных финансовых махинаций.
Один из путей применения дипфейковых фото и видео – обход системы аутентификации. Многие сервисы нуждаются в верификации личности, чтобы допустить пользователя в систему. Но так называемые "живые проверки" не помогут избежать вмешательства злоумышленников, действующих с поддержкой генеративного ИИ. Это делает банковские счета лакомым кусочком для мошенников.
"В будущем, чем больше фото детей или родственников мы выложим в интернет, тем больше у искусственного интеллекта будет возможностей на этих фото научиться и генерировать дипфейк, которым потом атакуют человека", – констатировал в эфире Radio NV соучредитель компании Cyber Unit Technologies Егор Аушев.
Показательна история, что произошло с сотрудником транснациональной фирмы в Гонконге. Он получил от руководителя из Великобритании электронное письмо о видеоконференции. Во время соединения присутствовали другие коллеги, так что ничто не свидетельствовало о подозрительности ситуации.
Как результат – мужчина совершил более 15 транзакций на сумму 25 млн долларов, отправив средства на пять банковских счетов по указанию руководителя И только после встречи работник узнал, что никакая конференция не была запланирована. Из всех присутствующих живым человеком был только он, а остальные – генерация искусственного интеллекта.
Также в Управлении по обучению и работе с клиентами CFTC предупредили, что инвестиционная отрасль массово страдает мошенничеством. Инвесторы все чаще сталкиваются с преступниками, которые обещают большие прибыли благодаря внедрению нейросети. К примеру, торговых ботов, специальных алгоритмов и арбитража по ИИ.
Нейросеть провоцирует производство порнографии
Еще одна прибыльная схема, где ИИ использует лица людей для замены – это производство контента эротического и порнографического содержания. Технология неизменна: злоумышленники создают фальшивые ролики, которыми потом шантажируют своих жертв. Или просто выкладывают видео в интернет, зарабатывая деньги на публикации.
При этом аферисты не обходят стороной никого. Подобная проблема может затронуть мировые знаменитости и даже детей. Издание The Washington Post обнародовало такую информацию о дипфейках, созданных искусственным интеллектом:
- по состоянию на 2019 год доля порнографических дипфейков достигла 96% и с тех пор растет, а реакции на злоупотребление почти нет;
- программы для замены лица легко скачать в магазинах Apple и Google, для этого не требуется дорогостоящее ПО;
- модели ИИ непрестанно учатся на изображениях и видео, опубликованных в интернете, поэтому могут сексуализировать образы женщин по умолчанию;
- очень часто выявить авторов дипфейков не возможно, а потому и привлечение преступников к ответственности под большим вопросом;
- после публикации фальшивого контента жертвы сталкиваются с осуждением общества, а доказать подлог и свою невиновность не могут.
Приложений, заменяющих лицо, существует множество. Весной 2023 года в социальных сетях Facebook и Instagram даже распространяли видео с актрисами Скарлетт Йоганссон и Эммой Уотсон, которые якобы имитировали начало полового акта. Оказалось, что таким способом рекламировали приложение для создания дипфейков.
Борьба мира против мошенничества с использованием ИИ
В конце 2023 г. ряд крупных мировых государств представили первое международное соглашение о защите искусственного интеллекта от мошенников. За информацией Reuters, это обычный 20-страничный документ, согласованный представителями 18 стран, в котором технологические компании призвали к созданию безопасных умных машин.
Другими словами, разработчиков нейросети просто попросили внедрять инструменты таким образом, чтобы общественность была защищена от злоупотреблений. В то же время это соглашение не имеет обязательной силы, а содержит только перечень общих рекомендаций. К примеру, о защите персональных данных и проверке поставщиков ПО.
Украинцы, которые не хотят стать жертвами аферистов, должны понимать: защититься от ИИ возможно, но только при развитии своей медиаграмотности. Мошенничество с использованием искусственного интеллекта обойдет стороной тех людей, которые будут сохранять конфиденциальность в сети, не распространять личные данные, укрепят защиту аккаунтов и счетов и т.д.
Раньше мы писали, что такое скимминг-мошенничество и чем грозит украинцам, а также как аферисты пытаются заработать на криптовалюте.