Combaterea AI cu monitorizarea fraudei AI pentru aplicații Deepfake - KDnuggets

Combaterea AI cu monitorizarea fraudei AI pentru aplicații Deepfake – KDnuggets

Nodul sursă: 2667255
Combaterea AI cu monitorizarea fraudei AI pentru aplicațiile Deepfake
Fotografie de Tima Miroșnichenko
 

Deepfake-urile sunt un subiect important de conversație în comunitatea științei datelor de câțiva ani. În 2020, MIT Technology Review a postulat că falsurile profunde ajunseseră la „punctul de vârf pentru uzul general”.

Cu siguranță datele susțin asta. The Wall Street Journal a raportat că mai puțin de 10,000 de deepfake au fost găsite online în 2018. Aceste cifre se ridică acum la milioane și există multe exemple din viața reală de deepfake-uri folosite atât pentru a deruta și dezinforma și pentru a perpetua frauda financiară. 

Tehnicile deepfake oferă în totalitate infractorilor cibernetici multe opțiuni sofisticate.

Ele trec cu mult dincolo de capacitatea de a introduce imaginea unei celebrități în material promoțional pentru o ofertă Bitcoin „de neratat”, care – desigur – se dovedește a fi o înșelătorie. Videoclipurile deepfake, în special, sunt pe radarul fraudătorilor. Le oferă o modalitate de a trece prin verificări automate de identificare și KYC și s-au dovedit înfricoșător de eficiente.

În mai 2022, Acostament a raportat că "teste de viață” folosit de bănci și alte instituții pentru a ajuta la verificarea identității utilizatorilor poate fi păcălit cu ușurință de falsuri profunde. Studiul aferent a constatat că 90% dintre sistemele de verificare a ID-ului testate au fost vulnerabile.

Deci, care este răspunsul? Intrăm într-o eră în care infractorii cibernetici pot folosi cu ușurință tehnologia falsă profundă pentru a depăși măsurile de securitate folosite de instituțiile financiare? Vor trebui astfel de companii să renunțe la sistemele lor automate și să revină la verificări manuale, umane?

Răspunsul simplu este „probabil că nu”. Așa cum infractorii pot folosi explozia Progrese ale AI, la fel și companiile pe care le vizează. Să ne uităm acum la modul în care companiile vulnerabile pot lupta împotriva inteligenței artificiale cu inteligența artificială.

Deepfake-urile sunt produse folosind o serie de tehnici de inteligență artificială, cum ar fi:

  • rețele adverse generative (GAN) 
  • perechi codificator/decodor
  • modele de mișcare de ordinul întâi

Aceste tehnici pot, la prima vedere, să sune ca rezervarea exclusivă a comunității de învățare automată, cu bariere mari la intrare și o nevoie de cunoștințe tehnice experte. Cu toate acestea, ca și alte elemente ale AI, acestea au devenit considerabil mai accesibile în timp.

Instrumentele ieftine, disponibile acum, permit utilizatorilor non-tehnici să creeze falsuri profunde, la fel cum oricine se poate înscrie la OpenAI și poate testa capabilitățile ChatGPT.

În 2020, Forumul Economic Mondial a raportat că costul producerii unui „de ultimă oră” Deepfake este sub 30,000 USD. Dar în 2023, profesorul de la Wharton School Ethan Mollick a dezvăluit, printr-o postare virală pe Twitter, că a produs un video fals profund de el însuși susținând o prelegere în mai puțin de șase minute.

Cheltuielile totale ale lui Mollick au fost de 10.99 USD. A folosit un serviciu numit ElevenLabs pentru a-și imita vocea aproape perfect, pentru un cost de 5 USD. Un alt serviciu numit D-ID, la 5.99 USD pe lună, a generat un videoclip bazat doar pe un scenariu și o singură fotografie. A folosit chiar și ChatGPT pentru a crea scriptul în sine.

Când au început să apară deepfake-urile, un accent principal a fost pe videoclipurile politice false (și pornografia falsă). De atunci, lumea a văzut:

  • BuzzFeedVideos creează un anunț de serviciu public deepfake „prezentând” Barack Obama, interpretat de actorul Jordon Peele.
  • Un videoclip fals de pe YouTube care pretinde să-l arate pe Donald Trump spunând o poveste despre un ren.
  • Un videoclip fals profund cu Hilary Clinton, afișat la Saturday Night Live, când ea era de fapt uzurată de un membru al distribuției.

În timp ce aceste exemple arată latura „distractivă” a deepfake-urilor și poate oferă o zguduire a realității cu privire la capacitățile tehnologiei, fraudatorii nu au pierdut timp folosindu-le în scopuri nefaste. 

Exemplele reale de fraudă, perpetuate folosind tehnici de deepfake, sunt multe.

Pierderile din cauza înșelătoriilor false profunde variază de la sute de mii la multe milioane. În 2021, a fost folosită o înșelătorie de clonare a vocii AI pentru a aranja transferuri bancare frauduloase de 35 de milioane de dolari. Aceasta a fost o răsplată financiară uriașă care nici măcar nu a făcut-o necesita utilizarea video-ului.

Calitatea ieșirii AI, în special video, poate varia foarte mult. Unele videoclipuri sunt în mod evident false pentru oameni. Dar, așa cum am menționat mai sus, sistemele automate, precum cele utilizate de bănci și fintech, s-au dovedit ușor păcălite în trecut.

Echilibrul se va schimba probabil pe măsură ce capacitățile AI continuă să se îmbunătățească. O dezvoltare recentă este o încorporare a „contra criminalisticii”, în care „zgomotul invizibil” vizat este adăugat falsurilor profunde, în încercarea de a păcăli mecanismele de detectare.

Deci, ce se poate face?

Așa cum fraudatorii caută să folosească cea mai recentă tehnologie AI pentru câștiguri financiare, companiile, cum ar fi firmele de tehnologie, lucrează din greu pentru a găsi modalități de a utiliza tehnologia pentru a prinde criminali.

Iată câteva exemple de companii care folosesc AI pentru a lupta împotriva AI:

La sfârșitul anului 2022, Intel a lansat un instrument bazat pe inteligență artificială numit „FakeCatcher”. Cu o rată de fiabilitate raportată de Intel de 96%, acesta utilizează o tehnologie cunoscută sub numele de fotopletismografie (PPG).

Tehnologia folosește ceva care nu este prezent în videoclipurile generate artificial: fluxul de sânge. Antrenat pe videoclipuri legitime, algoritmul său de învățare profundă măsoară lumina care este absorbită sau reflectată de vasele de sânge, care își schimbă culoarea pe măsură ce sângele se mișcă în jurul corpului.

FakeCatcher, parte a inițiativei Intel Responsible AI, este descrisă ca fiind „primul detector de falsuri profunde în timp real din lume care returnează rezultate în milisecunde”. Este o tehnologie inovatoare care caută semne că persoana prezentată într-un videoclip este cu adevărat umană. Caută ceva care este „corect”, mai degrabă decât să analizeze datele pentru a evidenția ceva care este „greșit”. Acesta este modul în care indică probabilitatea unui fals.

Între timp, oamenii de știință de la Universitatea din Buffalo (UB) au lucrat la o tehnologie proprie de detectare a falsurilor. Folosește ceva despre care jucătorii pasionați de computere știu că necesită o putere de procesare imensă pentru a le imita: lumina.

Pretins de UB ca fiind 94% eficient pe fotografiile false, instrumentul AI analizează modul în care lumina se reflectă în ochii subiectului. Suprafața corneei acționează ca o oglindă și generează „modele reflectorizante”.

Studiul oamenilor de știință, intitulat „Expunerea fețelor generate de GAN utilizând lumini speculare corneene inconsistente”, indică faptul că „fețele sintetizate GAN pot fi expuse cu lumini speculare corneene inconsistente între doi ochi”.

Sugerează că ar fi „netrivial” ca sistemele AI să emuleze aspectele reale. Jucătorii de PC, care investesc adesea în cele mai recente plăci grafice cu ray-tracing pentru a experimenta efecte de iluminare realiste, vor recunoaște instinctiv provocările de aici.

Poate cea mai mare provocare de detectare a fraudelor este jocul fără sfârșit „pisica și șoarecele” dintre fraudatori și cei care lucrează pentru a-i dejuca. Este foarte probabil, în urma unor anunțuri precum cele de mai sus, că oamenii lucrează deja la construirea de tehnologii care pot ocoli și învinge astfel de mecanisme de detectare.

Un lucru este și faptul că există astfel de mecanisme, dar alta este să le vezi integrate în mod obișnuit în soluțiile pe care le folosesc afacerile. Mai devreme, ne-am referit la o statistică care sugera că 90% dintre soluții pot fi „pășite ușor”. Probabilitatea este ca cel puțin unele instituții financiare să mai folosească astfel de sisteme.

Un intelept monitorizarea fraudei strategia impune companiilor să privească dincolo de a detecta ele însele falsurile profunde. Se pot face multe înainte un fraudator ajunge suficient de departe într-un sistem pentru a participa la un proces de verificare a ID-ului sau KYC bazat pe video. Precauțiile care își găsesc un loc mai devreme în proces pot implica, de asemenea, un element de inteligență artificială și învățare automată.

De exemplu, învățarea automată poate fi utilizată atât pentru monitorizarea fraudelor în timp real, cât și pentru crearea de seturi de reguli. Acestea pot analiza evenimentele istorice de fraudă, detectând tipare care ar putea fi ușor ratate de un om. Tranzacțiile considerate a fi cu risc ridicat pot fi respinse definitiv sau trecute pentru revizuire manuală chiar înainte de a ajunge o etapă în care poate exista o verificare de identitate – și, prin urmare, o oportunitate pentru un fraudator de a utiliza tehnologia deepfake.

Cu cât un sistem detectează mai devreme un criminal cibernetic, cu atât mai bine. Există mai puține șanse ca aceștia să perpetueze o crimă și mai puține ca afacerea să cheltuiască pentru controale suplimentare. Verificările de identificare bazate pe video sunt costisitoare, chiar și fără încorporarea tehnologiei AI pentru a detecta falsurile profunde.

Dacă fraudatorii pot fi identificați înainte de a ajunge atât de departe, cu tehnici precum amprenta digitală, vor rămâne mai multe resurse disponibile pentru a optimiza verificările mai multor cazuri limită.

Însăși natura învățării automate ar trebui să impună ca, în timp, să devină mai bun în detectarea anomaliilor și combaterea fraudei. Sistemele bazate pe inteligență artificială pot învăța din modele noi și pot filtra tranzacțiile frauduloase într-un stadiu incipient al procesului.

Când vine vorba în special de deepfakes, exemplul de mai sus oferă un motiv special de speranță. Oamenii de știință au găsit o modalitate de a detecta marea majoritate a deepfake-urilor folosind reflexiile luminii. Evoluții ca aceasta reprezintă un pas considerabil înainte în prevenirea fraudei și un obstacol considerabil pentru infractorii cibernetici.

În teorie, este mult mai ușor să implementezi o astfel de tehnologie de detectare decât pentru fraudatori să găsească o modalitate de a o ocoli – reproducând comportamentul luminii, de exemplu, la viteză și la scară. Jocul „pisica și șoarecele” pare să continue veșnic, dar tehnologia mare și finanțele mari au resursele și buzunarele adânci pentru a – cel puțin teoretic – să rămână cu un mic pas înainte.
 
 
Jimmy Fong este CCO al SEON și aduce experiența sa aprofundată în combaterea fraudei pentru a ajuta echipele de fraudă de pretutindeni.
 

Timestamp-ul:

Mai mult de la KDnuggets