Борьба с ИИ с помощью ИИ-мониторинга мошенничества для приложений Deepfake - KDnuggets

Борьба с ИИ с помощью ИИ-мониторинга мошенничества для приложений Deepfake — KDnuggets

Исходный узел: 2667255
Борьба с ИИ с помощью ИИ-мониторинга мошенничества для приложений Deepfake
Фото Тима Мирошниченко
 

Дипфейки уже несколько лет являются большой темой для обсуждения в сообществе специалистов по данным. Еще в 2020 году MIT Technology Review постулируется, что глубокие подделки достигли своего «переломного момента для массового использования».

Данные, безусловно, подтверждают это. Wall Street Journal сообщили, что в 10,000 году в Интернете было обнаружено менее 2018 XNUMX дипфейков. Сейчас эти цифры исчисляются миллионами, и есть много реальных примеров дипфейков, которые используются как для запутывания и дезинформации, так и для увековечения финансового мошенничества. 

Технологии дипфейков предоставляют киберпреступникам множество изощренных возможностей.

Они выходят далеко за рамки возможности вставить изображение знаменитости в рекламные материалы для предложения биткойнов, которое нельзя пропустить, что, конечно же, оказывается мошенничеством. Видео Deepfake, в частности, находятся на радаре мошенников. Они предоставляют им способ пройти автоматизированные проверки личности и KYC и оказались пугающе эффективными.

В мае 2022, Грань Сообщалось, что "тесты живучести”, используемые банками и другими учреждениями для проверки личности пользователей, могут быть легко обмануты дипфейками. Соответствующее исследование показало, что 90% протестированных систем проверки личности были уязвимы.

Так какой ответ? Вступаем ли мы в эпоху, когда киберпреступники могут легко использовать технологию глубокого подделки, чтобы перехитрить меры безопасности, используемые финансовыми учреждениями? Придется ли таким предприятиям отказаться от своих автоматизированных систем и вернуться к ручным проверкам?

Простой ответ: «Вероятно, нет». Точно так же, как преступники могут использовать всплеск Достижения ИИ, то же самое можно сказать и о компаниях, на которые они нацелены. Давайте теперь посмотрим, как уязвимые предприятия могут бороться с ИИ с помощью ИИ.

Дипфейки создаются с использованием ряда методов искусственного интеллекта, таких как:

  • генеративные состязательные сети (GAN) 
  • пары кодировщик/декодер
  • модели движения первого порядка

Эти методы могут, на первый взгляд, показаться исключительной прерогативой сообщества машинного обучения, с высокими входными барьерами и потребностью в экспертных технических знаниях. Однако, как и другие элементы ИИ, со временем они стали значительно доступнее.

Недорогие готовые инструменты теперь позволяют нетехническим пользователям создавать глубокие подделки, так же как любой может зарегистрироваться в OpenAI и протестировать возможности ChatGPT.

Еще в 2020 году Всемирный экономический форум сообщил, что стоимость производства «уровень развития«Дипфейк стоит меньше 30,000 2023 долларов. Но в XNUMX году профессор Уортонской школы Итан Моллик сообщил в вирусном посте в Твиттере, что он подготовил глубокое фейковое видео о себе, читающем лекцию менее чем за шесть минут.

Общие расходы Моллика составили 10.99 долларов. Он воспользовался сервисом под названием ElevenLabs, чтобы почти идеально имитировать свой голос за 5 долларов. Другой сервис под названием D-ID за 5.99 долларов в месяц генерировал видео, основанное только на сценарии и одной фотографии. Он даже использовал ChatGPT для создания самого скрипта.

Когда дипфейки только начали появляться, основное внимание уделялось поддельным политическим видео (и поддельной порнографии). С тех пор мир видел:

  • BuzzFeedVideos создает дипфейковое публичное объявление «с участием» Барака Обамы, выдающего себя за актера Джордона Пила.
  • Глубокий фейк на YouTube, в котором якобы показано, как Дональд Трамп рассказывает историю об северном олене.
  • Глубоко фальшивое видео Хилари Клинтон, показанное в программе «Субботним вечером в прямом эфире», когда на самом деле ее изображал актер.

Хотя эти примеры показывают «забавную» сторону дипфейков и, возможно, дают представление о возможностях технологии, мошенники не теряют времени зря, используя их в гнусных целях. 

Реальных примеров мошенничества, увековеченного с использованием техники дипфейка, множество.

Потери из-за глубокого фейкового мошенничества составляют от сотен тысяч до многих миллионов. В 2021 году мошенничество с клонированием голоса ИИ было использовано для организации мошеннических банковских переводов на сумму 35 миллионов долларов. Это была огромная финансовая отдача, которая даже не требовать использование видео.

Качество вывода ИИ, особенно видео, может сильно различаться. Некоторые видео явно фальшивые для людей. Но, как уже говорилось выше, автоматизированные системы, например, используемые банками и финтех-компаниями, в прошлом легко обмануть.

Баланс, вероятно, сместится еще больше, поскольку возможности ИИ продолжают улучшаться. Недавняя разработка — это включение «контркриминалистики», когда к дипфейкам добавляется «целевой невидимый «шум» в попытке обмануть механизмы обнаружения.

Так что же можно сделать?

Точно так же, как мошенники стремятся использовать новейшие технологии искусственного интеллекта для получения финансовой выгоды, такие компании, как технологические фирмы, усердно работают над поиском способов использования технологий для поимки преступников.

Вот несколько примеров компаний, использующих ИИ для борьбы с ИИ:

В конце 2022 года Intel запустила инструмент на основе ИИ под названием «ФейкКэтчер». При заявленном Intel уровне надежности 96% используется технология, известная как фотоплетизмография (PPG).

Технология использует то, чего нет в искусственно созданных видео: кровоток. Алгоритм глубокого обучения, обученный на реальных видеороликах, измеряет свет, поглощаемый или отражаемый кровеносными сосудами, которые меняют цвет по мере движения крови по телу.

FakeCatcher, часть инициативы Intel Responsible AI, описывается как «первый в мире детектор глубоких подделок в реальном времени, который возвращает результаты за миллисекунды». Это инновационная технология, которая ищет признаки того, что человек, изображенный на видео, действительно человек. Он ищет что-то «правильное», а не анализирует данные, чтобы выделить что-то «неправильное». Так он указывает на вероятность подделки.

Тем временем ученые из Университета Буффало (UB) работают над собственной технологией обнаружения дипфейков. Он использует то, что, как знают заядлые компьютерные геймеры, требует огромной вычислительной мощности для эмуляции: свет.

Утверждается, что UB эффективен на поддельных фотографиях в 94% случаев. Инструмент ИИ смотрит на то, как свет отражается в глазах объекта. Поверхность роговицы действует как зеркало и создает «отражающие узоры».

Исследование ученых, озаглавленное «Отображение лиц, сгенерированных с помощью GAN, с использованием непоследовательных бликов роговицы», показывает, что «лица, синтезированные с помощью GAN, могут быть экспонированы с непостоянными зеркальными бликами роговицы между двумя глазами».

Это предполагает, что для систем ИИ было бы «нетривиально» подражать подлинным основным моментам. ПК-геймеры, которые часто вкладывают средства в новейшие графические карты с трассировкой лучей, чтобы испытать реалистичные световые эффекты, инстинктивно распознают здесь проблемы.

Возможно, самой большой проблемой обнаружения мошенничества является бесконечная игра в кошки-мышки между мошенниками и теми, кто пытается им помешать. Весьма вероятно, что после таких объявлений, как те, что приведены выше, люди уже работают над созданием технологий, которые могут обойти и обойти такие механизмы обнаружения.

Одно дело, что такие механизмы существуют, и совсем другое — видеть, как они регулярно интегрируются в решения, используемые предприятиями. Ранее мы ссылались на статистику, согласно которой 90% решений можно «легко обмануть». Вероятно, что по крайней мере некоторые финансовые учреждения все еще используют такие системы.

Мудрый мониторинг мошенничества Стратегия требует, чтобы компании не ограничивались обнаружением самих дипфейков. Многое можно сделать до мошенник проникает достаточно далеко в систему, чтобы участвовать в видео-проверке личности или процессе KYC. Меры предосторожности, которые находят свое место в начале процесса, также могут включать элементы ИИ и машинного обучения.

Например, машинное обучение можно использовать как для мониторинга мошенничества в реальном времени, так и для создания наборов правил. Они могут просматривать исторические события мошенничества, обнаруживая закономерности, которые человек может легко пропустить. Транзакции, которые считаются высокорисковыми, могут быть полностью отклонены или переданы на проверку вручную. даже не достигнув этап, на котором может быть проверка личности — и, следовательно, возможность для мошенника использовать технологию дипфейка.

Чем раньше система обнаружит киберпреступника, тем лучше. Там меньше шансов, что они могут увековечить преступление, и у бизнеса меньше затрат на дальнейшие проверки. Видеопроверки личности обходятся дорого, даже без использования технологии искусственного интеллекта для обнаружения дипфейков.

Если мошенников можно будет идентифицировать до того, как они зайдут так далеко, с помощью таких методов, как цифровой след, останется больше доступных ресурсов для оптимизации проверок большего количества пограничных случаев.

Сама природа машинного обучения должна диктовать, что со временем оно станет лучше обнаруживать аномалии и бороться с мошенничеством. Системы на основе ИИ могут учиться на новых шаблонах и потенциально отфильтровывать мошеннические транзакции на ранней стадии процесса.

Когда дело доходит до дипфейков, приведенный выше пример дает особую надежду. Ученые нашли способ обнаружить подавляющее большинство дипфейков с помощью отражения света. Подобные разработки представляют собой значительный шаг вперед в предотвращении мошенничества и серьезное препятствие для киберпреступников.

Теоретически развернуть такую ​​технологию обнаружения гораздо проще, чем мошенникам найти способ обойти ее — воспроизведя поведение света, например, на скорости и в масштабе. Похоже, что игра в кошки-мышки будет продолжаться вечно, но крупные технологические и финансовые компании имеют ресурсы и глубокие карманы, чтобы — по крайней мере теоретически — оставаться на один маленький шаг впереди.
 
 
Джимми Фонг является коммерческим директором SEON и делится своим обширным опытом борьбы с мошенничеством, помогая командам по борьбе с мошенничеством во всем мире.
 

Отметка времени:

Больше от КДнаггетс