Zwalczanie sztucznej inteligencji dzięki monitorowaniu oszustw AI w aplikacjach typu deepfake — KDnuggets

Zwalczanie sztucznej inteligencji za pomocą monitorowania oszustw sztucznej inteligencji w aplikacjach typu deepfake – KDnuggets

Węzeł źródłowy: 2667255
Zwalczanie sztucznej inteligencji za pomocą monitorowania oszustw AI w aplikacjach typu deepfake
Photo by Tima Miroshnichenko
 

Deepfake są od kilku lat głównym tematem rozmów w społeczności data science. W 2020 r. Przegląd technologii MIT stwierdził, że głębokie podróbki osiągnęły „punkt krytyczny dla głównego nurtu”.

Dane z pewnością to potwierdzają. The Wall Street Journal poinformowało, że w 10,000 r. znaleziono w Internecie mniej niż 2018 XNUMX deepfake'ów. Liczby te sięgają obecnie milionów i istnieje wiele rzeczywistych przykładów deep fake'ów wykorzystywanych zarówno do dezinformacji, dezinformacji, jak i do utrwalania oszustw finansowych. 

Techniki deepfake zapewniają cyberprzestępcom wiele wyrafinowanych opcji.

Wykraczają daleko poza możliwość wstawienia wizerunku celebryty do materiałów promocyjnych „nie do przegapienia” oferty Bitcoin, która – oczywiście – okazuje się oszustwem. W szczególności filmy typu deepfake są na celowniku oszustów. Zapewniają im sposób na przejście przez automatyczne kontrole tożsamości i KYC i okazały się przerażająco skuteczne.

W maju 2022, Poboczy zgłoszono, że "testy żywotności” wykorzystywane przez banki i inne instytucje do weryfikacji tożsamości użytkowników można łatwo oszukać za pomocą głębokich podróbek. Powiązane badanie wykazało, że 90% testowanych systemów weryfikacji tożsamości było podatnych na ataki.

Więc jaka jest odpowiedź? Czy wkraczamy w erę, w której cyberprzestępcy mogą z łatwością wykorzystywać technologię deep fake, aby przechytrzyć środki bezpieczeństwa stosowane przez instytucje finansowe? Czy takie firmy będą musiały porzucić swoje zautomatyzowane systemy i powrócić do ręcznych, ludzkich kontroli?

Prosta odpowiedź brzmi „raczej nie”. Tak jak przestępcy mogą wykorzystać ten wzrost Postępy AI, podobnie jak firmy, na które są kierowane. Przyjrzyjmy się teraz, jak wrażliwe firmy mogą walczyć ze sztuczną inteligencją za pomocą sztucznej inteligencji.

Deepfake są tworzone przy użyciu szeregu technik sztucznej inteligencji, takich jak:

  • generatywne sieci kontradyktoryjne (GAN) 
  • pary koder/dekoder
  • Modele ruchu pierwszego rzędu

Techniki te mogą na pierwszy rzut oka wydawać się wyłączną domeną społeczności uczenia maszynowego, wraz z wysokimi barierami wejścia i potrzebą specjalistycznej wiedzy technicznej. Jednak, podobnie jak inne elementy sztucznej inteligencji, z czasem stały się one znacznie bardziej dostępne.

Niedrogie, gotowe narzędzia umożliwiają teraz użytkownikom nietechnicznym tworzenie głębokich podróbek, tak jak każdy może zarejestrować się w OpenAI i przetestować możliwości ChatGPT.

Jeszcze w 2020 roku Światowe Forum Ekonomiczne poinformowało, że koszt wyprodukowania „najnowocześniejszy” deepfake kosztuje mniej niż 30,000 2023 USD. Ale w XNUMX roku profesor Wharton School, Ethan Mollick, ujawnił w wirusowym poście na Twitterze, że stworzył głęboko fałszywe wideo siebie wygłaszającego wykład w mniej niż sześć minut.

Całkowite wydatki Mollicka wyniosły 10.99 USD. Użył usługi o nazwie ElevenLabs, aby niemal idealnie naśladować swój głos, za cenę 5 USD. Inna usługa o nazwie D-ID, za 5.99 USD miesięcznie, wygenerowała wideo na podstawie tylko scenariusza i pojedynczego zdjęcia. Użył nawet ChatGPT do stworzenia samego skryptu.

Kiedy po raz pierwszy zaczęły pojawiać się deepfake, główny nacisk położono na fałszywe filmy polityczne (i fałszywą pornografię). Od tego czasu świat widział:

  • BuzzFeedVideos tworzy fałszywe ogłoszenie o usłudze publicznej „z udziałem” Baracka Obamy, w którego wciela się aktor Jordon Peele.
  • Fałszywy film na YouTube, który rzekomo przedstawia Donalda Trumpa opowiadającego historię o reniferze.
  • Głęboko fałszywe wideo Hilary Clinton pokazane w programie Saturday Night Live, podczas gdy w rzeczywistości podszywała się pod nią członek obsady.

Chociaż te przykłady pokazują „zabawną” stronę deepfake’ów i być może stanowią wstrząs rzeczywistości co do możliwości tej technologii, oszuści nie marnowali czasu na wykorzystywanie ich do nikczemnych celów. 

Istnieje wiele przykładów oszustw z życia wziętych, utrwalanych przy użyciu technik deepfake.

Straty spowodowane fałszywymi oszustwami wahają się od setek tysięcy do wielu milionów. W 2021 r. oszustwo związane z klonowaniem głosu AI zostało wykorzystane do zorganizowania oszukańczych przelewów bankowych na kwotę 35 mln USD. To była ogromna wypłata finansowa, która nawet się nie pojawiła wymagać wykorzystanie wideo.

Jakość danych wyjściowych AI, zwłaszcza wideo, może się znacznie różnić. Niektóre filmy są oczywiście fałszywe dla ludzi. Ale, jak wspomniano powyżej, zautomatyzowane systemy, takie jak te używane przez banki i fintech, w przeszłości łatwo można było oszukać.

Równowaga prawdopodobnie ulegnie dalszemu przesunięciu w miarę poprawy możliwości sztucznej inteligencji. Niedawnym osiągnięciem jest włączenie „kontrkryminalistyki”, w której „ukierunkowany niewidzialny„ szum ”dodawany jest do głębokich podróbek, próbując oszukać mechanizmy wykrywania.

Więc co można zrobić?

Tak jak oszuści starają się wykorzystać najnowszą technologię sztucznej inteligencji w celu uzyskania korzyści finansowych, tak firmy, takie jak firmy technologiczne, ciężko pracują nad znalezieniem sposobów wykorzystania technologii do łapania przestępców.

Oto kilka przykładów firm wykorzystujących sztuczną inteligencję do walki z sztuczną inteligencją:

Pod koniec 2022 roku Intel uruchomił narzędzie oparte na sztucznej inteligencji o nazwie „Fałszywy łapacz”. Z raportowanym przez firmę Intel wskaźnikiem niezawodności wynoszącym 96%, wykorzystuje technologię znaną jako fotopletyzmografia (PPG).

Technologia wykorzystuje coś, czego nie ma w sztucznie generowanych filmach: przepływ krwi. Przeszkolony na legalnych filmach, jego algorytm głębokiego uczenia mierzy światło, które jest pochłaniane lub odbijane przez naczynia krwionośne, które zmieniają kolor, gdy krew krąży po ciele.

FakeCatcher, będący częścią inicjatywy Intela odpowiedzialnej sztucznej inteligencji, jest opisywany jako „pierwszy na świecie wykrywacz głębokich fałszywych danych w czasie rzeczywistym, który zwraca wyniki w ciągu milisekund”. To innowacyjna technologia, która szuka znaków świadczących o tym, że osoba pokazana na filmie jest naprawdę człowiekiem. Szuka czegoś, co jest „właściwe”, zamiast analizować dane w celu podkreślenia czegoś, co jest „złe”. W ten sposób wskazuje prawdopodobieństwo podróbki.

W międzyczasie informatycy z University of Buffalo (UB) pracowali nad własną technologią wykrywania deepfake. Wykorzystuje coś, co zapaleni gracze na PC wiedzą, że emulacja wymaga ogromnej mocy obliczeniowej: światło.

Narzędzie AI, które twierdzi UB, że jest skuteczne w przypadku fałszywych zdjęć w 94%, sprawdza, jak światło odbija się w oczach fotografowanej osoby. Powierzchnia rogówki działa jak lustro i generuje „odblaskowe wzory”.

Badanie naukowców zatytułowane „Odsłanianie twarzy generowanych przez GAN za pomocą niespójnych odblasków rogówki” wskazuje, że „twarze zsyntetyzowane GAN można eksponować z niespójnymi odblaskami rogówki między dwojgiem oczu”.

Sugeruje to, że naśladowanie prawdziwych atrakcji byłoby „nietrywialne” dla systemów AI. Gracze pecetowi, którzy często inwestują w najnowsze karty graficzne obsługujące ray tracing, aby doświadczyć realistycznych efektów świetlnych, instynktownie rozpoznają tu wyzwania.

Być może największym wyzwaniem w wykrywaniu oszustw jest niekończąca się gra „w kotka i myszkę” między oszustami a tymi, którzy starają się im udaremnić. Jest wysoce prawdopodobne, że w następstwie zapowiedzi takich jak powyższe, ludzie już pracują nad budowaniem technologii, które mogą ominąć i pokonać takie mechanizmy wykrywania.

Czym innym jest istnienie takich mechanizmów, a czym innym rutynowe integrowanie ich z rozwiązaniami używanymi przez firmy. Wcześniej wspomnieliśmy o statystykach, które sugerowały, że 90% rozwiązań można „łatwo oszukać”. Istnieje prawdopodobieństwo, że przynajmniej część instytucji finansowych nadal korzysta z takich systemów.

mądry monitorowanie oszustw strategia wymaga od firm, aby wykraczały poza samo wykrywanie głębokich podróbek. Wiele można zrobić zanim oszust dostaje się wystarczająco głęboko do systemu, aby wziąć udział w weryfikacji tożsamości opartej na wideo lub procesie KYC. Środki ostrożności, które znajdują miejsce na wcześniejszym etapie procesu, mogą również obejmować element sztucznej inteligencji i uczenia maszynowego.

Na przykład uczenie maszynowe może być wykorzystywane zarówno do monitorowania oszustw w czasie rzeczywistym, jak i do tworzenia zestawów reguł. Mogą one przyglądać się historycznym oszustwom, wykrywając wzorce, które człowiek mógłby łatwo przeoczyć. Transakcje uznane za obarczone wysokim ryzykiem mogą zostać od razu odrzucone lub przekazane do ręcznego sprawdzenia jeszcze przed dotarciem etap, na którym może nastąpić kontrola tożsamości – a zatem okazja dla oszusta do skorzystania z technologii deepfake.

Im wcześniej system wykryje cyberprzestępcę, tym lepiej. Jest mniejsze prawdopodobieństwo, że mogą utrwalić przestępstwo, i mniejsze wydatki firmy na dalsze kontrole. Kontrole tożsamości oparte na wideo są kosztowne, nawet bez włączenia technologii sztucznej inteligencji do wykrywania głębokich podróbek.

Jeśli uda się zidentyfikować oszustów, zanim zajdą tak daleko, za pomocą technik takich jak śledzenie śladów cyfrowych, dostępnych będzie więcej zasobów na optymalizację kontroli bardziej granicznych przypadków.

Sama natura uczenia maszynowego powinna dyktować, że z czasem staje się ono coraz lepsze w wykrywaniu anomalii i zwalczaniu oszustw. Systemy oparte na sztucznej inteligencji mogą uczyć się na podstawie nowych wzorców i potencjalnie odfiltrowywać oszukańcze transakcje na wczesnym etapie procesu.

Jeśli chodzi konkretnie o deepfake, powyższy przykład daje szczególny powód do nadziei. Naukowcy znaleźli sposób na wykrycie ogromnej większości deepfake'ów za pomocą odbić światła. Takie zmiany stanowią znaczny krok naprzód w zapobieganiu oszustwom i znaczną przeszkodę dla cyberprzestępców.

Teoretycznie znacznie łatwiej jest wdrożyć taką technologię wykrywania, niż oszustom znaleźć sposób na jej obejście – na przykład replikację zachowania światła z dużą prędkością i na dużą skalę. Wydaje się, że zabawa w kotka i myszkę będzie trwała wiecznie, ale wielkie technologie i duże finanse mają zasoby i głębokie kieszenie, aby – przynajmniej w teorii – być o mały krok do przodu.
 
 
Jimmy'ego Fonga jest CCO w SEON i wnosi swoje dogłębne doświadczenie w walce z oszustwami, aby pomagać zespołom zajmującym się oszustwami na całym świecie.
 

Znak czasu:

Więcej z Knuggety