Boj proti umetni inteligenci z nadzorom goljufij z umetno inteligenco za aplikacije Deepfake – KDnuggets

Boj proti AI z nadzorom goljufij z AI za aplikacije Deepfake – KDnuggets

Izvorno vozlišče: 2667255
Boj proti AI z AI Fraud Monitoring za aplikacije Deepfake
Foto: Tima Mirošničenko
 

Deepfakes so že nekaj let velika tema pogovorov v skupnosti podatkovnih znanosti. Leta 2020 je MIT Technology Review trdil, da so globoki ponaredki dosegli svojo "točko preloma za splošno uporabo".

Podatki to zagotovo potrjujejo. The Wall Street Journal je poročal, da je bilo v letu 10,000 na spletu najdenih manj kot 2018 globokih ponaredkov. Te številke se zdaj merijo v milijonih in obstaja veliko resničnih primerov globokih ponaredkov, ki se uporabljajo za zmedo in dezinformiranje ter za ohranjanje finančnih goljufij. 

Tehnike Deepfake kibernetskim kriminalcem v celoti ponujajo številne sofisticirane možnosti.

Gredo daleč dlje od zmožnosti vstavljanja podobe slavne osebe v promocijsko gradivo za "nezgrešljivo" ponudbo Bitcoin, kar se seveda izkaže za prevaro. Na radarju goljufov so zlasti videoposnetki Deepfake. Zagotavljajo jim način, da se prebijejo skozi avtomatizirana preverjanja ID-ja in KYC, in so se izkazali za strašljivo učinkovite.

Maja 2022, Preobrat poročal, da "testi živahnosti”, ki ga uporabljajo banke in druge institucije za pomoč pri preverjanju identitete uporabnikov, je mogoče zlahka preslepiti z globokimi ponaredki. Povezana študija je pokazala, da je bilo 90 % testiranih sistemov za preverjanje osebne izkaznice ranljivih.

Kaj je torej odgovor? Ali vstopamo v dobo, ko lahko kibernetski kriminalci zlahka uporabijo globoko lažno tehnologijo, da prelisičijo varnostne ukrepe, ki jih uporabljajo finančne institucije? Bodo morala takšna podjetja opustiti svoje avtomatizirane sisteme in se vrniti k ročnim človeškim pregledom?

Preprost odgovor je "verjetno ne". Tako kot lahko kriminalci izkoristijo val Napredek AI, prav tako lahko tudi podjetja, na katera ciljajo. Poglejmo zdaj, kako se lahko ranljiva podjetja borijo proti AI z AI.

Deepfake se proizvajajo z uporabo različnih tehnik umetne inteligence, kot so:

  • generativna kontradiktorna omrežja (GAN) 
  • pari kodirnik/dekoder
  • modeli gibanja prvega reda

Te tehnike se lahko na prvi pogled slišijo kot izključna last skupnosti strojnega učenja, skupaj z visokimi ovirami za vstop in potrebo po strokovnem tehničnem znanju. Vendar so tako kot drugi elementi umetne inteligence sčasoma postali precej bolj dostopni.

Poceni že pripravljena orodja zdaj omogočajo netehničnim uporabnikom ustvarjanje globokih ponaredkov, prav tako kot se lahko kdorkoli prijavi v OpenAI in preizkusi zmogljivosti ChatGPT.

Nedavno leta 2020 je Svetovni gospodarski forum poročal, da so stroški proizvodnje "stanje tehnike” deepfake je pod 30,000 $. Toda leta 2023 je profesor na šoli Wharton Ethan Mollick v viralni objavi na Twitterju razkril, da je izdelal globok lažni video sam predava v manj kot šestih minutah.

Mollickova skupna poraba je bila 10.99 USD. Uporabil je storitev, imenovano ElevenLabs, za skoraj popolno posnemanje njegovega glasu, za ceno 5 dolarjev. Druga storitev, imenovana D-ID, je za 5.99 USD na mesec ustvarila videoposnetek, ki temelji samo na scenariju in eni sami fotografiji. Uporabil je celo ChatGPT za ustvarjanje samega skripta.

Ko so se globoke ponaredke prvič začele pojavljati, je bil glavni poudarek na lažnih političnih videoposnetkih (in lažni pornografiji). Od takrat je svet videl:

  • BuzzFeedVideos ustvari globoko ponarejeno javno obvestilo, v katerem "predstavlja" Baracka Obamo, ki ga je posnemal igralec Jordon Peele.
  • Globoko ponarejen YouTube videoposnetek, ki naj bi prikazoval Donalda Trumpa, kako pripoveduje zgodbo o severnem jelenu.
  • Globoko ponarejen videoposnetek Hilary Clinton, prikazan v Saturday Night Live, ko jo je v resnici posnemal član zasedbe.

Medtem ko ti primeri prikazujejo »zabavno« plat globokih ponaredkov in morda dajejo pravi sunek resničnosti glede zmogljivosti tehnologije, goljufi niso izgubljali časa z njihovo uporabo v nečedne namene. 

Primerov goljufij iz resničnega življenja, ki se ohranjajo s tehnikami deepfake, je veliko.

Izgube zaradi globokih lažnih prevar se gibljejo od sto tisoč do več milijonov. Leta 2021 je bila prevara s kloniranjem glasu z umetno inteligenco uporabljena za organizacijo goljufivih bančnih nakazil v višini 35 milijonov dolarjev. To je bil velik finančni izkupiček, ki niti ne zahteva uporaba videa.

Kakovost izhoda AI, zlasti videa, se lahko zelo razlikuje. Nekateri videoposnetki so očitno lažni za ljudi. Toda, kot je navedeno zgoraj, se je izkazalo, da je avtomatizirane sisteme, kot so tisti, ki jih uporabljajo banke in fintech, v preteklosti zlahka preslepiti.

Ravnovesje se bo verjetno še premaknilo, ko se zmogljivosti AI še naprej izboljšujejo. Nedavni razvoj je vključitev »protiforenzike«, kjer se globokim ponaredkom doda »ciljani nevidni »šum«, da bi preslepili mehanizme odkrivanja.

Kaj je torej mogoče storiti?

Tako kot si goljufi prizadevajo uporabiti najnovejšo tehnologijo umetne inteligence za finančni dobiček, podjetja, kot so tehnološka podjetja, trdo delajo in iščejo načine, kako uporabiti tehnologijo za ulov kriminalcev.

Tukaj je nekaj primerov podjetij, ki uporabljajo AI za boj proti AI:

Konec leta 2022 je Intel lansiral orodje, ki temelji na AI, imenovano “FakeCatcher”. Z Intelovo poročano stopnjo zanesljivosti 96 % uporablja tehnologijo, znano kot fotopletizmografija (PPG).

Tehnologija uporablja nekaj, česar ni v umetno ustvarjenih videih: pretok krvi. Njegov algoritem globokega učenja, ki temelji na zakonitih videoposnetkih, meri svetlobo, ki jo absorbirajo ali odbijajo krvne žile, ki spreminjajo barvo, ko se kri premika po telesu.

FakeCatcher, del Intelove pobude za odgovorno umetno inteligenco, je opisan kot "prvi detektor ponaredkov v realnem času na svetu, ki vrne rezultate v milisekundah." To je inovativna tehnologija, ki išče znake, da je oseba, prikazana v videu, resnično človek. Išče nekaj, kar je »prav«, namesto da bi analiziral podatke, da bi poudaril nekaj, kar je »narobe«. Tako kaže na verjetnost ponaredka.

Medtem so računalniški znanstveniki Univerze v Buffalu (UB) delali na lastni tehnologiji za odkrivanje globokih ponaredkov. Uporablja nekaj, za kar navdušeni igralci računalniških iger vedo, da zahteva izjemno procesorsko moč za posnemanje: svetlobo.

UB trdi, da je 94-odstotno učinkovito pri ponarejenih fotografijah, orodje AI ugotavlja, kako se svetloba odbija v očeh osebe. Površina roženice deluje kot ogledalo in ustvarja "odsevne vzorce".

Študija znanstvenikov z naslovom »Izpostavljanje obrazov, ki jih ustvari GAN z uporabo nedoslednih zrcalnih poudarkov roženice«, kaže, da je mogoče »obraze, sintetizirane z GAN, izpostaviti z neskladnimi zrcalnimi poudarki na roženici med dvema očesoma«.

Nakazuje, da bi bilo "netrivialno" za sisteme AI posnemati pristne poudarke. Igralci računalniških iger, ki pogosto vlagajo v najnovejše grafične kartice s sledenjem žarkom, da bi izkusili realistične svetlobne učinke, bodo instinktivno prepoznali izzive tukaj.

Morda je največji izziv pri odkrivanju goljufij neskončna igra "mačke z mišjo" med goljufi in tistimi, ki jim poskušajo preprečiti. Po objavah, kot so tiste zgoraj, je zelo verjetno, da ljudje že delajo na izdelavi tehnologij, ki se lahko izognejo in premagajo takšne mehanizme zaznavanja.

Eno je tudi, da takšni mehanizmi obstajajo, drugo pa je videti, da so rutinsko integrirani v rešitve, ki jih uporabljajo podjetja. Prej smo se sklicevali na statistiko, ki kaže, da je 90 % rešitev mogoče "zlahka preslepiti". Verjetnost je, da vsaj nekatere finančne institucije še vedno uporabljajo takšne sisteme.

Moder spremljanje goljufij strategija od podjetij zahteva, da pogledajo dlje od samega odkrivanja globokih ponaredkov. Veliko se da narediti pred goljuf pride dovolj daleč v sistem, da lahko sodeluje v video preverjanju osebne izkaznice ali postopku KYC. Previdnostni ukrepi, ki najdejo mesto prej v procesu, lahko vključujejo tudi element umetne inteligence in strojnega učenja.

Na primer, strojno učenje se lahko uporablja tako za spremljanje goljufij v realnem času kot za ustvarjanje naborov pravil. Ti lahko pregledajo zgodovinske dogodke goljufij in zaznajo vzorce, ki bi jih človek zlahka spregledal. Transakcije, za katere velja, da so visoko tvegane, se lahko v celoti zavrnejo ali posredujejo v ročni pregled preden sploh doseže faza, kjer lahko pride do preverjanja osebne izkaznice – in s tem priložnost za goljufa, da uporabi tehnologijo deepfake.

Prej ko sistem zazna kiberkriminalca, tem bolje. Manj je možnosti, da bi lahko ohranili kaznivo dejanje, in manj, da bi podjetje porabilo za nadaljnje preglede. Preverjanje osebnih dokumentov na podlagi videa je drago, tudi brez vključitve tehnologije umetne inteligence za odkrivanje globokih ponaredkov.

Če bo goljufe mogoče prepoznati, preden pridejo tako daleč, s tehnikami, kot je digitalni odtis, bo na voljo več sredstev za optimizacijo pregledov bolj mejnih primerov.

Sama narava strojnega učenja bi morala narekovati, da sčasoma postane boljše pri odkrivanju nepravilnosti in boju proti goljufijam. Sistemi, ki jih poganja AI, se lahko učijo iz novih vzorcev in potencialno filtrirajo goljufive transakcije v zgodnji fazi procesa.

Ko gre posebej za deepfake, daje zgornji primer poseben razlog za upanje. Znanstveniki so našli način, kako zaznati veliko večino globokih ponaredkov z odboji svetlobe. Takšna dogajanja predstavljajo pomemben korak naprej pri preprečevanju goljufij in veliko oviro za kibernetske kriminalce.

Teoretično je veliko lažje uvesti takšno tehnologijo zaznavanja, kot pa goljufom, da najdejo način, kako jo zaobiti – posnemajo vedenje svetlobe, na primer pri hitrosti in v obsegu. Zdi se, da se bo igra "mačke in miši" verjetno nadaljevala večno, vendar imata velika tehnologija in velike finance sredstva in globoke žepe, da - vsaj v teoriji - ostanejo majhen korak naprej.
 
 
Jimmy Fong je CCO pri SEON in s svojimi poglobljenimi izkušnjami na področju boja proti goljufijam pomaga ekipam za goljufije povsod.
 

Časovni žig:

Več od KDnuggets