Bekæmpelse af AI med AI Fraud Monitoring for Deepfake-applikationer - KDnuggets

Bekæmpelse af AI med AI Fraud Monitoring for Deepfake-applikationer – KDnuggets

Kildeknude: 2667255
Bekæmpelse af AI med AI Fraud Monitoring for Deepfake-applikationer
Photo by Tima Miroshnichenko
 

Deepfakes har været et stort samtaleemne i datavidenskabssamfundet i nogle år nu. Tilbage i 2020, MIT Technology Review påstået, at dybe forfalskninger havde ramt deres "tipping point for mainstream use".

Dataene understøtter det bestemt. Det Wall Street Journal rapporterede, at mindre end 10,000 deepfakes var blevet fundet online i 2018. Disse tal løber nu op i millioner, og der er mange virkelige eksempler på dybe forfalskninger, der bliver brugt både til at forvirre og misinformere og til at fastholde økonomisk bedrageri. 

Deepfake-teknikker giver i det hele taget cyberkriminelle mange sofistikerede muligheder.

De går langt ud over evnen til at indsætte billedet af en berømthed i salgsfremmende materiale for et "ikke gå glip af" Bitcoin-tilbud, hvilket - selvfølgelig - viser sig at være et fupnummer. Især dybfalske videoer er på svindlernes radar. De giver dem en måde at komme igennem automatiske ID- og KYC-tjek og har vist sig skræmmende effektive.

I maj 2022, The Verge rapporterede at "livhedstest” brugt af banker og andre institutioner til at hjælpe med at verificere brugernes identiteter, kan let narre af dybe forfalskninger. Den relaterede undersøgelse viste, at 90 % af de testede ID-bekræftelsessystemer var sårbare.

Så hvad er svaret? Er vi på vej ind i en æra, hvor cyberkriminelle nemt kan bruge dyb falsk teknologi til at overliste de sikkerhedsforanstaltninger, der anvendes af finansielle institutioner? Bliver sådanne virksomheder nødt til at droppe deres automatiserede systemer og vende tilbage til manuelle, menneskelige kontroller?

Det enkle svar er "sandsynligvis ikke". Ligesom kriminelle kan gøre brug af stigningen AI fremskridt, det samme kan de virksomheder, de målretter mod. Lad os nu se på, hvordan sårbare virksomheder kan bekæmpe AI med AI.

Deepfakes er produceret ved hjælp af en række kunstig intelligens teknikker, såsom:

  • generative adversarial networks (GAN'er) 
  • encoder/dekoder par
  • førsteordens bevægelsesmodeller

Disse teknikker kan umiddelbart lyde som udelukkende forbeholdt maskinlæringsfællesskabet, komplet med høje adgangsbarrierer og et behov for ekspert teknisk viden. Men ligesom andre elementer af AI er de blevet betydeligt mere tilgængelige med tiden.

Lavpris, hyldevareværktøjer giver nu ikke-tekniske brugere mulighed for at skabe dybe forfalskninger, ligesom enhver kan tilmelde sig OpenAI og teste mulighederne i ChatGPT.

Så sent som i 2020 rapporterede World Economic Forum, at omkostningerne ved at producere en "state of the art” deepfake er under $30,000. Men i 2023 afslørede Wharton School-professor Ethan Mollick via et viralt Twitter-opslag, at han havde produceret en dyb falsk video af ham selv at holde et foredrag på under seks minutter.

Mollicks samlede forbrug var $10.99. Han brugte en tjeneste kaldet ElevenLabs til næsten perfekt at efterligne sin stemme til en pris af $5. En anden tjeneste kaldet D-ID, til $5.99 om måneden, genererede en video baseret på kun et script og et enkelt fotografi. Han brugte endda ChatGPT til at lave selve scriptet.

Da deepfakes først begyndte at dukke op, var et primært fokus på falske politiske videoer (og falsk pornografi). Siden da har verden set:

  • BuzzFeedVideos laver en deepfake public service-meddelelse "med" Barack Obama, efterlignet af skuespilleren Jordon Peele.
  • En dyb falsk YouTube-video, der foregiver at vise Donald Trump fortælle en historie om et rensdyr.
  • En dyb falsk video af Hilary Clinton vist på Saturday Night Live, da hun i virkeligheden blev efterlignet af et rollebesætningsmedlem.

Selvom disse eksempler viser den "sjove" side af deepfakes og måske giver et rystelse af virkeligheden med hensyn til teknologiens muligheder, har svindlere ikke spildt nogen tid på at bruge dem til uhyggelige formål. 

Eksempler fra det virkelige liv på svindel, der er videreført ved hjælp af deepfake-teknikker, er mange.

Tab på grund af dybe falske svindelnumre varierer fra hundredtusindvis til mange millioner. I 2021 blev en AI-stemmekloning-svindel brugt til at arrangere svigagtige bankoverførsler på $35 millioner. Dette var en enorm økonomisk gevinst, som ikke engang gjorde det kræver brugen af ​​video.

Kvaliteten af ​​AI-output, især video, kan variere enormt. Nogle videoer er åbenlyst falske for mennesker. Men som nævnt ovenfor har automatiserede systemer, såsom dem, der bruges af banker og fintech, tidligere vist sig let at narre.

Balancen vil sandsynligvis ændre sig yderligere, efterhånden som AI-kapaciteter fortsætter med at forbedres. En nylig udvikling er en inkorporering af "counter forensics", hvor "målrettet usynlig "støj" føjes til dybe forfalskninger i et forsøg på at narre opdagelsesmekanismer.

Så hvad kan der gøres?

Ligesom svindlere søger at bruge den nyeste AI-teknologi til økonomisk vinding, arbejder virksomheder som teknologivirksomheder hårdt på at finde måder at bruge teknologi til at fange kriminelle.

Her er et par eksempler på virksomheder, der bruger AI til at bekæmpe AI:

I slutningen af ​​2022 lancerede Intel et AI-baseret værktøj kaldet "FakeCatcher”. Med Intels rapporterede pålidelighedsgrad på 96% bruger den en teknologi kendt som fotoplethysmografi (PPG).

Teknikken gør brug af noget, der ikke er til stede i kunstigt genererede videoer: blodgennemstrømning. Trænet på legitime videoer, måler dens dybe indlæringsalgoritme det lys, der absorberes eller reflekteres af blodkar, som ændrer farve, når blodet bevæger sig rundt i kroppen.

FakeCatcher, som er en del af Intels Responsible AI-initiativ, beskrives som "verdens første dybe falske detektor i realtid, der returnerer resultater på millisekunder." Det er en innovativ teknologi, der leder efter tegn på, at den person, der vises i en video, virkelig er menneskelig. Den leder efter noget, der er "rigtigt", i stedet for at analysere data for at fremhæve noget, der er "forkert". Sådan indikerer det sandsynligheden for en falsk.

I mellemtiden har computerforskere fra University of Buffalo (UB) arbejdet på deres egen deepfake-detektionsteknologi. Den bruger noget, som ivrige pc-spillere ved, kræver enorm processorkraft at efterligne: lys.

UB hævder at være 94 % effektiv på falske billeder, AI-værktøjet ser på, hvordan lys reflekteres i motivets øjne. Overfladen af ​​hornhinden fungerer som et spejl og genererer "reflekterende mønstre".

Forskernes undersøgelse, med titlen "Exposing GAN-Generated Faces Using Inconsistent Corneal Specular Highlights", indikerer, at "GAN-syntetiserede ansigter kan eksponeres med de inkonsistente hornhinde-spekulære højdepunkter mellem to øjne".

Det antyder, at det ville være "ikke-trivielt" for AI-systemer at efterligne de ægte højdepunkter. PC-spillere, som ofte investerer i de nyeste ray-tracing-grafikkort for at opleve realistiske lyseffekter, vil instinktivt genkende udfordringerne her.

Den måske største udfordring for opdagelse af svindel er det endeløse "kat og mus"-spil mellem svindlere og dem, der arbejder for at modarbejde dem. Det er højst sandsynligt, i kølvandet på meddelelser som dem ovenfor, at folk allerede arbejder på at bygge teknologier, der kan omgå og slå sådanne detektionsmekanismer.

Det er også én ting, at sådanne mekanismer eksisterer, men noget andet er at se dem rutinemæssigt integreret i de løsninger, som virksomheder bruger. Tidligere henviste vi til en statistik, der antydede, at 90 % af løsningerne "let kan narre". Sandsynligheden er, at i det mindste nogle finansielle institutioner stadig bruger sådanne systemer.

En klog overvågning af svindel strategi kræver, at virksomhederne ser ud over selv at opdage de dybe forfalskninger. Meget kan gøres før en svindler kommer langt nok ind i et system til at deltage i en videobaseret ID-verifikation eller KYC-proces. Forholdsregler, der finder en plads tidligere i processen, kan også involvere et element af AI og maskinlæring.

For eksempel kan maskinlæring bruges til både overvågning af svindel i realtid og til oprettelse af regelsæt. Disse kan se på historiske svindelbegivenheder og opdage mønstre, som let kunne overses af et menneske. Transaktioner, der anses for at være højrisiko, kan afvises direkte eller sendes til manuel gennemgang før man overhovedet når et stadie, hvor der kan være et ID-tjek – og derfor en mulighed for en svindler til at gøre brug af deepfake tech.

Jo tidligere et system opdager en cyberkriminel, jo bedre. Der er mindre chance for, at de kan fortsætte en forbrydelse og mindre for virksomheden at bruge på yderligere kontrol. Videobaserede ID-tjek er dyre, selv uden inkorporering af AI-teknologi til at opdage dybe forfalskninger.

Hvis svindlere kan identificeres, før de når så langt, vil der med teknikker såsom digitalt fodaftryk være flere ressourcer tilbage til at optimere kontrollen af ​​flere grænsetilfælde.

Selve karakteren af ​​maskinlæring burde diktere, at den over tid bliver bedre til at opdage uregelmæssigheder og bekæmpe svindel. AI-drevne systemer kan lære af nye mønstre og potentielt filtrere svigagtige transaktioner fra på et tidligt tidspunkt i processen.

Når det kommer til deepfakes specifikt, giver eksemplet ovenfor en særlig grund til håb. Forskere har fundet en måde at opdage langt de fleste deepfakes ved hjælp af lysrefleksioner. Udviklinger som denne repræsenterer et betydeligt skridt fremad i forebyggelsen af ​​svig og en betydelig vejspærring for cyberkriminelle.

I teorien er det meget nemmere at implementere en sådan detektionsteknologi, end det er for svindlere at finde en måde at omgå den på - ved at replikere lysets adfærd, for eksempel ved hastighed og skala. "Kat og mus"-spillet ser ud til at fortsætte for evigt, men stor teknologi og stor finans har ressourcerne og de dybe lommer til – i hvert fald i teorien – at være et lille skridt foran.
 
 
Jimmy Fong er CCO for SEON og bringer sin dybdegående erfaring med bedrageribekæmpelse for at hjælpe svindelteams overalt.
 

Tidsstempel:

Mere fra KDnuggets