Võitlus tehisintellektiga süvavõltsitud rakenduste tehisintellektipettuste jälgimise abil – KDnuggets

Tehisintellektiga võitlemine süvavõltsitud rakenduste tehisintellektipettuste jälgimisega – KDnuggets

Allikasõlm: 2667255
Võitlus tehisintellektiga süvavõltsitud rakenduste tehisintellektipettuste jälgimise abil
Foto: Tima Mirošnitšenko
 

Deepfake'id on andmeteaduse kogukonnas juba mõnda aastat olnud suur kõneaine. Aastal 2020, MIT Technology Review väitis, et sügavad võltsingud olid saavutanud oma "tavalise kasutamise pöördepunkti".

Andmed kinnitavad seda kindlasti. The Wall Street Journal teatas, et 10,000. aastal leiti veebist vähem kui 2018 XNUMX sügavat võltsimist. Need arvud ulatuvad praegu miljoniteni ja on palju tegelikke näiteid sügavate võltsingute kohta, mida kasutatakse nii segadusse ajamiseks ja desinformatsiooniks kui ka finantspettuste jätkamiseks. 

Deepfake tehnikad pakuvad küberkurjategijatele palju keerukamaid võimalusi.

Need ulatuvad palju kaugemale võimalusest sisestada kuulsuse kujutist reklaammaterjali, et saada "kaasamatut" Bitcoini pakkumist, mis muidugi osutub pettuseks. Petturite radaril on eelkõige süvavõltsitud videod. Need pakuvad neile automaatset ID- ja KYC-kontrolli ning on osutunud hirmutavalt tõhusaks.

Mai 2022 Verge teatas, et "elulisuse testid", mida pangad ja muud asutused kasutajate identiteedi kontrollimiseks kasutavad, saab sügavate võltsingute abil kergesti petta. Seotud uuring näitas, et 90% testitud ID-kontrollisüsteemidest olid haavatavad.

Niisiis, mis on vastus? Kas oleme jõudmas ajastusse, kus küberkurjategijad saavad hõlpsasti kasutada sügavat võltstehnoloogiat, et finantsasutuste kasutatavaid turvameetmeid üle kavaldada? Kas sellised ettevõtted peavad loobuma oma automatiseeritud süsteemidest ja naasma käsitsi, inimliku kontrolli juurde?

Lihtne vastus on "tõenäoliselt mitte". Nii nagu kurjategijad saavad sissevoolu ära kasutada AI edusammud, nii saavad ka ettevõtted, mida nad sihivad. Vaatame nüüd, kuidas haavatavad ettevõtted saavad tehisintellektiga võidelda.

Deep võltsinguid toodetakse mitmesuguste tehisintellekti tehnikate abil, näiteks:

  • generatiivsed võistlevad võrgud (GAN-id) 
  • kodeerija/dekoodri paarid
  • esimese järgu liikumismudelid

Pealtnäha võivad need tehnikad tunduda masinõppekogukonna ainuõigusena, millel on kõrged sisenemisbarjäärid ja vajadus eksperttehniliste teadmiste järele. Kuid nagu teised AI elemendid, on need aja jooksul muutunud tunduvalt kättesaadavamaks.

Odavad valmistööriistad võimaldavad nüüd mittetehnilistel kasutajatel luua sügavaid võltsinguid, täpselt nagu igaüks saab registreeruda OpenAI-ga ja testida ChatGPT võimalusi.

Veel 2020. aastal teatas Maailma Majandusfoorum, ettehnika taset”deepfake on alla 30,000 2023 dollari. Kuid XNUMX. aastal paljastas Whartoni kooli professor Ethan Mollick viirusliku Twitteri postituse kaudu, et oli koostanud sügav võltsvideo endast loengut pidamas vähem kui kuue minutiga.

Mollicki kogukulu oli 10.99 dollarit. Ta kasutas oma hääle peaaegu täiuslikuks jäljendamiseks teenust nimega ElevenLabs hinnaga 5 dollarit. Teine teenus nimega D-ID, mille hind oli 5.99 dollarit kuus, genereeris video, mis põhines ainult stsenaariumil ja ühel fotol. Ta kasutas isegi skripti enda loomiseks ChatGPT-d.

Kui süvavõltsingud hakkasid esile kerkima, keskenduti peamiselt võltspoliitilistele videotele (ja võltspornograafiale). Sellest ajast peale on maailm näinud:

  • BuzzFeedVideos loob võltsitud avaliku teenuse teadaande, mis sisaldab Barack Obamat, keda kehastab näitleja Jordon Peele.
  • Sügav võlts YouTube'i video, mis väidetavalt näitab Donald Trumpi lugu põhjapõdrast.
  • Sügav võltsvideo Hilary Clintonist, mida näidati Saturday Night Live'is, kui näitlejanna kehastas teda.

Kuigi need näited näitavad süvavõltsingute "lõbusat" külge ja pakuvad võib-olla tehnoloogia võimaluste kohta reaalsust, pole petturid raisanud aega, et neid pahatahtlikel eesmärkidel kasutada. 

Tõsielu näiteid pettusest, mis on põlistanud sügavvõltsimistehnikate abil, on palju.

Sügavatest võltspettustest tulenevad kahjud ulatuvad sadadest tuhandetest paljude miljoniteni. 2021. aastal kasutati tehisintellekti hääle kloonimise pettust, et korraldada 35 miljoni dollari suuruseid pangaülekandeid. See oli tohutu rahaline tasu, mida isegi ei tehtud nõudma video kasutamine.

AI väljundi kvaliteet, eriti video, võib olla väga erinev. Mõned videod on inimeste jaoks ilmselgelt võltsitud. Kuid nagu eespool öeldud, on automatiseeritud süsteemid, nagu näiteks pangad ja fintech, osutunud minevikus kergesti lollitavaks.

Tasakaal nihkub tõenäoliselt veelgi, kuna tehisintellekti võimalused paranevad. Hiljutine areng on "vastukohtuekspertiisi" kasutuselevõtt, kus sügavatele võltsingutele lisatakse "sihitud nähtamatu "müra", püüdes petta tuvastamismehhanisme.

Mida siis teha saab?

Nii nagu petturid püüavad kasutada uusimat tehisintellekti tehnoloogiat rahalise kasu saamiseks, näevad ettevõtted, näiteks tehnoloogiaettevõtted, kõvasti tööd, leidmaks võimalusi, kuidas kurjategijate tabamiseks kasutada tehnikat.

Siin on paar näidet ettevõtetest, kes kasutavad tehisintellekti vastu võitlemiseks:

2022. aasta lõpus tõi Intel turule AI-põhise tööriista nimega "FakeCatcher”. Inteli teatatud töökindluse määr on 96%, kasutab see tehnoloogiat, mida nimetatakse fotopletüsmograafiaks (PPG).

Tehnika kasutab midagi, mida kunstlikult loodud videotes pole: verevoolu. Õiguspäraste videote jaoks koolitatud selle süvaõppe algoritm mõõdab valgust, mis neeldub või peegeldub veresoontest, mis muudavad värvi, kui veri kehas liigub.

FakeCatcherit, mis on osa Inteli vastutustundliku AI algatusest, kirjeldatakse kui "maailma esimest reaalajas sügavat võltsingudetektorit, mis tagastab tulemused millisekunditega". See on uuenduslik tehnoloogia, mis otsib märke selle kohta, et videos näidatud inimene on tõesti inimene. See otsib midagi, mis on "õige", selle asemel, et analüüsida andmeid, et tuua esile midagi, mis on "vale". Nii näitab see võltsimise tõenäosust.

Samal ajal on Buffalo ülikooli (UB) arvutiteadlased töötanud oma süvavõltsingute tuvastamise tehnoloogia kallal. See kasutab midagi, mille innukad arvutimängurid teavad, et selle jäljendamiseks on vaja tohutut töötlemisvõimsust: kerget.

UB väitel on võltsfotode puhul 94% efektiivne, AI tööriist vaatab, kuidas valgus peegeldub objekti silmades. Sarvkesta pind toimib peeglina ja tekitab "peegeldavaid mustreid".

Teadlaste uuring pealkirjaga "GAN-i loodud nägude paljastamine sarvkesta ebaühtlaste spekulaarsete esiletõstmiste abil" näitab, et "GAN-i sünteesitud nägusid saab paljastada kahe silma vahel olevate sarvkesta ebaühtlaste spekulaarsete esiletõstetega".

See viitab sellele, et tehisintellektisüsteemidel oleks „mittetriviaalne” jäljendada ehtsaid esiletõstmisi. Arvutimängijad, kes investeerivad sageli uusimatesse kiirjälgimisega graafikakaartidesse, et kogeda realistlikke valgusefekte, tunnevad instinktiivselt ära siinsed väljakutsed.

Võimalik, et suurim väljakutse pettuste tuvastamisel on lõputu "kassi ja hiire" mäng petturite ja nende vahel, kes töötavad nende takistamiseks. On väga tõenäoline, et inimesed, nagu ülaltoodud teadaanded, juba töötavad tehnoloogiate loomisel, mis suudavad selliseid tuvastamismehhanisme kõrvale hiilida ja neid ületada.

Üks asi on ka see, et sellised mehhanismid on olemas, kuid teine ​​asi on näha neid rutiinselt integreerituna ettevõtete kasutatavatesse lahendustesse. Varem viitasime statistikale, mis viitas sellele, et 90% lahendustest saab "kergesti petta". On tõenäoline, et vähemalt mõned finantsasutused kasutavad selliseid süsteeme endiselt.

Tark pettuste jälgimine strateegia nõuab, et ettevõtted vaataksid kaugemale sügavate võltsingute tuvastamisest. Palju saab ära teha enne pettur jõuab süsteemi piisavalt kaugele, et osaleda videopõhises ID-kontrollis või KYC-protsessis. Ettevaatusabinõud, mis leiavad koha protsessis varem, võivad hõlmata ka tehisintellekti ja masinõppe elementi.

Näiteks saab masinõpet kasutada nii reaalajas pettuste jälgimiseks kui ka reeglistiku loomiseks. Need võivad vaadelda ajaloolisi pettusesündmusi, tuvastades mustreid, millest inimene võib kergesti mööda vaadata. Kõrge riskiga tehingud võidakse otse tagasi lükata või suunata käsitsi ülevaatamiseks enne isegi jõudmist etapp, kus võib toimuda ID-kontroll – ja seega võimalus petturil kasutada sügavvõltstehnikat.

Mida varem süsteem küberkurjategija tuvastab, seda parem. On väiksem võimalus, et nad suudavad kuriteo põlistada, ja vähem on ettevõttel kulutada täiendavatele kontrollidele. Videopõhine ID-kontroll on kulukas, isegi ilma tehisintellekti tehnoloogiata sügavate võltsingute tuvastamiseks.

Kui petturid suudetakse tuvastada enne, kui nad nii kaugele jõuavad, kasutades selliseid tehnikaid nagu digitaalne jalajälg, jääb rohkem ressursse, et optimeerida piiripealsete juhtumite kontrolli.

Masinõppe olemus peaks dikteerima, et aja jooksul muutub see paremini anomaaliate tuvastamiseks ja pettuste vastu võitlemiseks. AI-toega süsteemid saavad õppida uutest mustritest ja potentsiaalselt filtreerida välja petturlikud tehingud protsessi varases etapis.

Mis puudutab konkreetselt süvavõltsinguid, siis ülaltoodud näide annab erilist põhjust loota. Teadlased on leidnud viisi, kuidas valguse peegelduste abil tuvastada valdav enamus süvavõltsinguid. Sellised arengud kujutavad endast märkimisväärset edusamme pettuste ärahoidmisel ja märkimisväärset takistust küberkurjategijatele.

Teoreetiliselt on sellist tuvastustehnoloogiat palju lihtsam kasutusele võtta, kui petturitel leida viis, kuidas sellest mööda hiilida – korrates valguse käitumist näiteks kiirusel ja mastaabis. Näib, et "kassi ja hiire" mäng jätkub igavesti, kuid suurtel tehnoloogiatel ja suurtel rahandusel on ressursid ja sügavad taskud, et – vähemalt teoreetiliselt – üks väike samm ees püsida.
 
 
Jimmy Fong on SEONi CCO ja toob oma põhjalikud pettustevastase võitluse kogemused pettusemeeskondade abistamiseks kõikjal.
 

Ajatempel:

Veel alates KDnuggets