Боротьба зі штучним інтелектом за допомогою моніторингу шахрайства ШІ для програм Deepfake - KDnuggets

Боротьба зі штучним інтелектом за допомогою моніторингу шахрайства ШІ для програм Deepfake – KDnuggets

Вихідний вузол: 2667255
Боротьба зі штучним інтелектом за допомогою моніторингу шахрайства ШІ для програм Deepfake
Фото Тіма Мірошніченко
 

Deepfakes вже кілька років є великою темою розмов у спільноті науки про дані. Ще в 2020 році MIT Technology Review стверджував, що глибокі фейки досягли своєї «переломної точки для основного використання».

Дані, безумовно, це підтверджують. The Wall Street Journal повідомили, що у 10,000 році в Інтернеті було знайдено менше 2018 XNUMX глибоких фейків. Зараз ці цифри сягають мільйонів, і є багато реальних прикладів глибоких фейків, які використовуються як для введення в оману, так і для дезінформації та увічнення фінансового шахрайства. 

Технології Deepfake загалом надають кіберзлочинцям багато складних можливостей.

Вони виходять далеко за рамки можливості вставити зображення знаменитості в рекламні матеріали для «неможливої» пропозиції біткойн, що, звісно, ​​виявляється шахрайством. Відео Deepfake, зокрема, потрапляють на радари шахраїв. Вони надають їм спосіб пройти автоматизовану перевірку ідентифікації та KYC і виявилися надзвичайно ефективними.

У травні 2022 Грань повідомив, що "тести на живучість», який використовується банками та іншими установами для перевірки особи користувачів, можна легко обдурити глибокими фейками. Пов’язане дослідження показало, що 90% протестованих систем перевірки ідентифікації були вразливими.

Отже, яка відповідь? Чи вступаємо ми в епоху, коли кіберзлочинці можуть легко використовувати технології глибокої підробки, щоб перехитрити заходи безпеки, які використовують фінансові установи? Чи доведеться таким підприємствам відмовитися від своїх автоматизованих систем і повернутися до ручних перевірок людьми?

Проста відповідь: «Напевно, ні». Так само, як злочинці можуть скористатися сплеском Удосконалення ШІ, а також компанії, на які вони націлені. Давайте тепер подивимося, як уразливі підприємства можуть боротися зі ШІ за допомогою ШІ.

Дипфейки створюються за допомогою ряду методів штучного інтелекту, таких як:

  • генеративні змагальні мережі (GAN) 
  • пари кодер/декодер
  • моделі руху першого порядку

На перший погляд ці методи можуть звучати як ексклюзивний оберіг спільноти машинного навчання з високими бар’єрами для входу та потребою в експертних технічних знаннях. Однак, як і інші елементи штучного інтелекту, з часом вони стали значно доступнішими.

Недорогі готові інструменти тепер дозволяють нетехнічним користувачам створювати глибокі фейки, так само як будь-хто може зареєструватися в OpenAI і перевірити можливості ChatGPT.

Нещодавно у 2020 році Всесвітній економічний форум повідомив, що вартість виробництва «витвір мистецтва” deepfake коштує менше 30,000 2023 доларів. Але в XNUMX році професор Вартонської школи Ітан Моллік опублікував вірусний пост у Twitter, що створив глибоке фейкове відео про те, як він читає лекцію менш ніж за шість хвилин.

Загальні витрати Молліка склали 10.99 доларів США. Він скористався сервісом під назвою ElevenLabs, щоб майже ідеально імітувати його голос, за ціною 5 доларів. Інша служба під назвою D-ID за 5.99 доларів на місяць створювала відео лише на основі сценарію та однієї фотографії. Він навіть використав ChatGPT для створення самого сценарію.

Коли вперше почали з’являтися дипфейки, основна увага була зосереджена на фейкових політичних відео (та фейковій порнографії). Відтоді світ бачив:

  • BuzzFeedVideos створює глибоке фейкове публічне оголошення «за участю» Барака Обами, якого втілює актор Джордон Піл.
  • Глибоке фейкове відео YouTube, яке нібито показує, як Дональд Трамп розповідає історію про північного оленя.
  • Глибоке фальшиве відео Гіларі Клінтон, показане в Saturday Night Live, коли її фактично видавав акторський склад.

Незважаючи на те, що ці приклади демонструють «веселу» ​​сторону дипфейків і, можливо, надають реальний поштовх щодо можливостей цієї технології, шахраї не витрачали час на використання їх у підлих цілях. 

Прикладів реального життя шахрайства, увічненого за допомогою методів deepfake, багато.

Збитки через глибоке фейкове шахрайство коливаються від сотень тисяч до багатьох мільйонів. У 2021 році шахрайство з клонуванням голосу ШІ було використано для організації шахрайських банківських переказів на суму 35 мільйонів доларів. Це була величезна фінансова винагорода, яка навіть не була вимагати використання відео.

Якість виведення ШІ, особливо відео, може сильно відрізнятися. Деякі відео явно підроблені для людей. Але, як зазначалося вище, автоматизовані системи, такі як ті, що використовуються банками та фінтехами, у минулому виявилися легко обдуреними.

Баланс, ймовірно, зміниться ще більше, оскільки можливості ШІ продовжуватимуть вдосконалюватися. Недавньою розробкою є включення «контркриміналістики», де «цільовий невидимий «шум» додається до глибоких фейків, щоб спробувати обдурити механізми виявлення.

Так що ж можна зробити?

Подібно до того, як шахраї прагнуть використовувати новітні технології штучного інтелекту для отримання фінансової вигоди, такі підприємства, як технологічні фірми, наполегливо працюють, знаходячи способи використовувати технології для злому злочинців.

Ось кілька прикладів компаній, які використовують ШІ для боротьби з ШІ:

Наприкінці 2022 року Intel запустила інструмент на основі ШІ під назвою “FakeCatcher”. Зі звітним показником надійності Intel 96%, він використовує технологію, відому як фотоплетизмографія (PPG).

Технологія використовує те, чого немає в штучно згенерованих відео: кровотік. Його алгоритм глибокого навчання, навчений на законних відео, вимірює світло, яке поглинається або відбивається кровоносними судинами, які змінюють колір, коли кров рухається по тілу.

FakeCatcher, частина ініціативи Intel Responsible AI, описується як «перший у світі глибокий детектор підробок у реальному часі, який повертає результати за мілісекунди». Це інноваційна технологія, яка шукає ознаки того, що людина, зображена на відео, справді людина. Він шукає щось «правильне», а не аналізує дані, щоб виділити щось «неправильне». Це свідчить про ймовірність підробки.

Тим часом вчені з Університету Буффало (UB) працюють над власною технологією виявлення глибоких фейків. Він використовує те, що завзяті комп’ютерні ігри знають, що потребує величезної обчислювальної потужності для емуляції: світло.

Інструмент штучного інтелекту, який, як стверджує UB, на 94% ефективний на підроблених фотографіях, перевіряє, як світло відбивається в очах об’єкта зйомки. Поверхня рогівки діє як дзеркало і створює «відбиваючі візерунки».

Дослідження вчених під назвою «Викриття облич, створених GAN за допомогою непостійних дзеркальних відблисків рогівки», вказує на те, що «синтезовані GAN обличчя можуть бути відображені з невідповідними дзеркальними відблисками рогівки між двома очима».

Це свідчить про те, що для систем ШІ було б «нетривіально» імітувати справжні відблиски. Комп’ютерні геймери, які часто інвестують у найновіші відеокарти з трасуванням променів, щоб відчути реалістичні світлові ефекти, інстинктивно розпізнають проблеми тут.

Можливо, найбільшою проблемою виявлення шахрайства є нескінченна гра в «кішки-мишки» між шахраями та тими, хто намагається їм завадити. Цілком ймовірно, що після таких оголошень, як ті, що наведені вище, люди вже працюють над розробкою технологій, які можуть обійти й перемогти такі механізми виявлення.

Також одна справа, що такі механізми існують, а інша – бачити їх регулярно інтегрованими в рішення, які використовує бізнес. Раніше ми посилалися на статистику, згідно з якою 90% рішень можна «легко обдурити». Ймовірно, принаймні деякі фінансові установи все ще використовують такі системи.

Мудрий моніторинг шахрайства Стратегія вимагає від компаній не тільки виявлення глибоких підробок. Багато чого можна зробити перед тим шахрай достатньо проникає в систему, щоб взяти участь у відеоперевірці ідентифікатора або процесі KYC. Запобіжні заходи, які знаходять місце на ранніх етапах процесу, також можуть включати елементи ШІ та машинного навчання.

Наприклад, машинне навчання можна використовувати як для моніторингу шахрайства в реальному часі, так і для створення наборів правил. Вони можуть переглядати історичні події шахрайства, виявляючи закономірності, які людина може легко пропустити. Транзакції, які вважаються високоризиковими, можуть бути відхилені або передані на перевірку вручну навіть не досягнувши стадія, на якій може відбутися перевірка ідентифікатора – і, отже, можливість для шахраїв використати технологію deepfake.

Чим раніше система виявить кіберзлочинця, тим краще. Там менше шансів, що вони зможуть увічнити злочин, і для бізнесу менше витрат на подальші перевірки. Перевірка ідентифікаторів на основі відео коштує дорого, навіть без використання технології штучного інтелекту для виявлення глибоких фейків.

Якщо шахраїв вдасться виявити до того, як вони зайдуть так далеко, за допомогою таких методів, як цифровий відбиток, залишиться більше ресурсів для оптимізації перевірок більшої кількості прикордонних випадків.

Сама природа машинного навчання має вимагати, щоб з часом воно ставало кращим у виявленні аномалій і боротьбі з шахрайством. Системи на основі штучного інтелекту можуть вивчати нові шаблони та потенційно фільтрувати шахрайські транзакції на ранній стадії процесу.

Коли справа доходить конкретно до дипфейків, наведений вище приклад дає особливий привід для надії. Вчені знайшли спосіб виявити переважну більшість дипфейків за допомогою відблисків світла. Подібні події є значним кроком вперед у запобіганні шахрайству та значною перешкодою для кіберзлочинців.

Теоретично, набагато легше розгорнути таку технологію виявлення, ніж шахраям знайти спосіб її обійти – відтворити поведінку світла, наприклад, на швидкості та в масштабі. Здається, що гра в «кішки-мишки» триватиме вічно, але великі технології та великі фінанси мають ресурси та глибокі кишені, щоб – принаймні теоретично – залишатися на маленький крок попереду.
 
 
Джиммі Фонг є CCO компанії SEON і використовує свій глибокий досвід у боротьбі з шахрайством, щоб допомагати групам шахраїв у будь-якому місці.
 

Часова мітка:

Більше від KDnuggets