Штучний інтелект став знаряддям шахраїв: як нейромережа допомагає аферистам

Колаж: Дар'я Давиденко Аферисти навчилися користуватися штучним інтелектом, щоб маніпулювати людьми
Колаж: Дар'я Давиденко
Розмір тексту
А А А
Поділитися share
Розповідаємо, як нейромережа перетворилася на нову зброю кіберзлочинців і почала стимулювати аферистів

Діпфейкові фото і відео, віртуальне викрадення, імітація голосу, написання фішингових текстів, шантаж із використанням підробленої еротики – все це розповсюдилося зі "швидкістю світла", як тільки штучний інтелект із недосяжної технології перетворився на масовий інструмент. Сьогодні шахрайські схеми стали більш досконалими та дієвими завдяки використанню нейромережі, яка здатна вивести проблему кіберзлочинності на новий рівень.

Сайт Новини Pro розповідає, як штучний інтелект допомагає аферистам здійснювати свої злочинні наміри.

Зміст
1
Викрадення людей, викуп та імітація голосу
2
Як шахраї використовують високоякісні діпфейки
3
Нейромережа провокує виробництво порнографії
4
Боротьба світу проти шахрайства з використанням ШІ
closearr

Викрадення людей, викуп та імітація голосу


Якщо раніше зловмисникам доводилося писати повідомлення від імені родичів або друзів потенційної жертви, аби попросити гроші, то тепер можна набагато швидше переконати людину в розмові зі знайомим. Нейромережа вміє клонувати голос реальної особи, відтворюючи справжній тембр та інтонацію.

Дуже важко визначити імітацію, оскільки перед застосуванням технології аферисти проводять дослідження, використовуючи наявну в інтернеті інформацію. Вони вивчають соціальні мережі та на основі відеороликів (наприклад, розмовних сторі в Instagram) створюють аудіодіпфейки. Потім телефонують родичам і намагаються переконати у викраденні, вимагаючи гроші за звільнення.

"Аферисти створюють уявний сценарій, намагаючись зробити його якомога страшнішим для жертви, якій вони збираються зателефонувати. Чим більше жертва налякана, тим менша ймовірність у прийнятті раціональних рішень, на що й розраховують зловмисники",розповіли експерти ESET, розробника антивірусного програмного забезпечення.

Так само аферисти можуть зателефонувати з проханням позичити гроші. Почувши знайомий голос, постраждалі не думатимуть про обман. Вони погодяться відправити потрібну суму на банківську картку, і тільки згодом зрозуміють свою помилку.

Як шахраї використовують високоякісні діпфейки


Діпфейк – це сучасна методика створення зображення чи відео за участі живої людини, коли одну картинку накладають на іншу задля імітації. Базуючись на штучному інтелекті, діпфейки несуть серйозну загрозу суспільству, оскільки використовуються не лише у шахрайстві. Фальшиві кадри можуть стати інструментом пропаганди, політичних ігор, великих фінансових махінацій тощо.

Один зі шляхів застосування діпфейкових фото і відео – обхід системи автентифікації. Чимало сервісів потребують верифікації особи, щоб допустити користувача до системи. Але так звані "живі перевірки" не допоможуть уникнути втручання зловмисників, які діють з підтримкою генеративного ШІ. Це робить банківські рахунки ласим шматочком для шахраїв.

"В майбутньому, чим більше фото дітей чи родичів ми викладемо в інтернет, тим більше у штучного інтелекту буде можливостей на цих фото навчитися і генерувати діпфейк, яким потім атакують людину", констатував в ефірі Radio NV співзасновник компанії Cyber Unit Technologies Єгор Аушев.

Показовою є історія, що сталася зі співробітником транснаціональної фірми у Гонконзі. Він отримав від керівника з Великої Британії електронний лист про відеоконференцію. Під час з’єднання були присутні інші колеги, тож ніщо не свідчило про підозрілість ситуації.

Як результат – чоловік здійснив понад 15 транзакцій на суму 25 млн доларів, відправивши кошти на п’ять банківських рахунків за вказівкою керівника. І лише після зустрічі працівник дізнався, що ніякої конференції не було заплановано. З усіх присутніх живою людиною був тільки він, а решта осіб – генерація штучного інтелекту.

Також в Управлінні з навчання та роботи з клієнтами CFTC попередили, що інвестиційна галузь масово страждає від шахрайства. Інвестори все частіше наштовхуються на злочинців, які обіцяють великі прибутки завдяки впровадженню нейромережі. Наприклад, торговельних ботів, спеціальних алгоритмів та арбітражу з ШІ.

Нейромережа провокує виробництво порнографії


Ще одна прибуткова схема, де ШІ використовує обличчя людей для заміни, – це виробництво контенту еротичного і порнографічного змісту. Технологія незмінна: зловмисники створюють фальшиві ролики, якими потім шантажують своїх жертв. Чи просто викладають відео в інтернет, заробляючи гроші на публікації.

При цьому аферисти не обходять стороною нікого. Подібна проблема може торкнутися світових знаменитостей і навіть дітей. Видання The Washington Post оприлюднило таку інформацію про діпфейки, створені штучним інтелектом:

  • станом на 2019 рік частка порнографічних діпфейків сягнула 96% і відтоді зростає, а реакції на зловживання майже немає;
  • програми для заміни обличчя легко завантажити в магазинах Apple і Google, для цього не потрібне дороге ПЗ;
  • моделі ШІ безперестанно навчаються на зображеннях і відео, опублікованих в інтернеті, тож можуть сексуалізувати образи жінок за замовчуванням;
  • дуже часто виявити авторів діпфейків неможливо, тож і притягнення злочинців до відповідальності під великим питанням;
  • після публікації фальшивого контенту жерти стикаються з осудом суспільства, а довести підробку і свою невинуватість не можуть.

Додатків, які замінюють обличчя, снує безліч. Весною 2023 року в соціальних мережах Facebook та Instagram навіть поширювали відео з акторками Скарлетт Йоганссон та Еммою Вотсон, які ніби-то імітували початок статевого акту. Виявилося, що таким способом рекламували застосунок для створення діпфейків.

Боротьба світу проти шахрайства з використанням ШІ


Наприкінці 2023 року низка великих світових держав представили першу міжнародну угоду про захист штучного інтелекту від шахраїв. За інформацією Reuters, це звичайний 20-сторінковий документ, погоджений представниками 18-ти країн, в якому технологічні компанії закликали до створення безпечних розумних машин.

Іншими словами, розробників нейромережі просто попросили впроваджувати інструменти таким чином, аби громадськість була убезпечена від зловживань. Водночас ця угода не має обов'язкової сили, а містить лише перелік загальних рекомендацій. Наприклад, про захист персональних даних і перевірку постачальників ПЗ.

Українці, які не хочуть стати жертвами аферистів, повинні розуміти: захиститися від ШІ можливо, але тільки за умови розвитку своєї медіаграмотності. Шахрайство з використанням штучного інтелекту омине стороною тих людей, які зберігатимуть приватність в мережі, не розповсюджуватимуть особисті дані, зміцнять захист акаунтів і рахунків тощо.

Продовжуючи перегляд сайту, ви погоджуєтесь з тим, що ознайомилися з політикою конфіденційності, та використанням файлів cookie.