Bekjempe AI med AI Fraud Monitoring for Deepfake-applikasjoner - KDnuggets

Bekjempe AI med AI Fraud Monitoring for Deepfake-applikasjoner – KDnuggets

Kilde node: 2667255
Bekjempe AI med AI Fraud Monitoring for Deepfake-applikasjoner
Photo by Tima Miroshnichenko
 

Deepfakes har vært et stort samtaleemne i datavitenskapsmiljøet i noen år nå. Tilbake i 2020, MIT Technology Review hevdet at dype forfalskninger hadde truffet "vippepunktet for vanlig bruk".

Dataene støtter absolutt det. De Wall Street Journal rapporterte at mindre enn 10,000 2018 dype forfalskninger hadde blitt funnet på nettet i XNUMX. Disse tallene går nå opp i millioner, og det er mange virkelige eksempler på dype forfalskninger som brukes både for å forvirre og feilinformere og for å opprettholde økonomisk svindel. 

Deepfake-teknikker gir totalt sett nettkriminelle mange sofistikerte alternativer.

De går langt utover muligheten til å sette inn bildet av en kjendis i reklamemateriale for et "ikke gå glipp av" Bitcoin-tilbud, som – selvfølgelig – viser seg å være en svindel. Spesielt dypfalske videoer er på radaren til svindlere. De gir dem en måte å komme seg gjennom automatiserte ID- og KYC-kontroller og har vist seg skremmende effektive.

I mai 2022, Randen rapporterte at "livlighetstester” brukt av banker og andre institusjoner for å verifisere brukernes identitet kan lett lures av dype forfalskninger. Den relaterte studien fant at 90 % av ID-verifiseringssystemene som ble testet var sårbare.

Så hva er svaret? Går vi inn i en æra der nettkriminelle enkelt kan bruke dyp falsk teknologi for å overliste sikkerhetstiltakene som brukes av finansinstitusjoner? Vil slike virksomheter måtte droppe sine automatiserte systemer og gå tilbake til manuelle, menneskelige kontroller?

Det enkle svaret er "sannsynligvis ikke". Akkurat som kriminelle kan benytte seg av bølgen inn AI fremskritt, det samme kan selskapene de retter seg mot. La oss nå se på hvordan sårbare virksomheter kan bekjempe AI med AI.

Deepfakes produseres ved hjelp av en rekke kunstig intelligens-teknikker, for eksempel:

  • generative motstandernettverk (GAN) 
  • koder/dekoderpar
  • førsteordens bevegelsesmodeller

Disse teknikkene kan umiddelbart høres ut som det eksklusive forbeholdet maskinlæringsfellesskapet, komplett med høye adgangsbarrierer og et behov for teknisk ekspertkunnskap. I likhet med andre elementer av AI har de imidlertid blitt betydelig mer tilgjengelige over tid.

Rimelige, hyllevareverktøy lar nå ikke-tekniske brukere lage dype forfalskninger, akkurat som hvem som helst kan registrere seg for OpenAI og teste egenskapene til ChatGPT.

Så sent som i 2020 rapporterte World Economic Forum at kostnadene ved å produsere en "topp moderne"deepfake er under $30,000 2023. Men i XNUMX avslørte Wharton School-professor Ethan Mollick, via et viralt Twitter-innlegg, at han hadde produsert en dyp falsk video av seg selv å holde et foredrag på under seks minutter.

Mollicks totale forbruk var $10.99. Han brukte en tjeneste kalt ElevenLabs for nesten perfekt å etterligne stemmen hans, for en kostnad på $5. En annen tjeneste kalt D-ID, til $5.99 per måned, genererte en video basert på kun et manus og et enkelt fotografi. Han brukte til og med ChatGPT for å lage selve manuset.

Da deepfakes først begynte å dukke opp, var et hovedfokus på falske politiske videoer (og falsk pornografi). Siden den gang har verden sett:

  • BuzzFeedVideos lager en dypt falsk offentlig kunngjøring «med» Barack Obama, etterlignet av skuespiller Jordon Peele.
  • En dyp falsk YouTube-video som påstår å vise Donald Trump fortelle en historie om et reinsdyr.
  • En dyp falsk video av Hilary Clinton vist på Saturday Night Live, da hun faktisk ble etterlignet av et rollebesetningsmedlem.

Selv om disse eksemplene viser den "morsomme" siden av dype forfalskninger, og kanskje gir et støt av virkeligheten med hensyn til teknologiens evner, har svindlere ikke kastet bort tid på å bruke dem til uhyggelige formål. 

Eksempler fra det virkelige liv på svindel, videreført ved bruk av dypfalske teknikker, er mange.

Tap på grunn av dyp falsk svindel varierer fra hundretusener til mange millioner. I 2021 ble en AI-stemmekloningssvindel brukt til å arrangere falske bankoverføringer på 35 millioner dollar. Dette var en enorm økonomisk gevinst som ikke engang gjorde det krever bruk av video.

Kvaliteten på AI-utgang, spesielt video, kan variere enormt. Noen videoer er åpenbart falske for mennesker. Men, som nevnt ovenfor, har automatiserte systemer, som de som brukes av banker og fintech, vist seg å være lett å lure tidligere.

Balansen vil sannsynligvis skifte ytterligere etter hvert som AI-evnene fortsetter å forbedres. En nyere utvikling er en inkorporering av "counter forensics", der "målrettet usynlig "støy" legges til dype forfalskninger, i et forsøk på å lure deteksjonsmekanismer.

Så hva kan gjøres?

Akkurat som svindlere søker å bruke den nyeste AI-teknologien for økonomisk gevinst, jobber bedrifter som teknologifirmaer hardt for å finne måter å bruke teknologi for å fange kriminelle.

Her er et par eksempler på selskaper som bruker AI for å bekjempe AI:

På slutten av 2022 lanserte Intel et AI-basert verktøy kalt "FakeCatcher". Med Intels rapporterte pålitelighetsgrad på 96 %, bruker den en teknologi kjent som fotopletysmografi (PPG).

Teknologien bruker noe som ikke er til stede i kunstig genererte videoer: blodstrøm. Dens dyplæringsalgoritme er trent på legitime videoer og måler lyset som absorberes eller reflekteres av blodårene, som endrer farge når blodet beveger seg rundt i kroppen.

FakeCatcher, en del av Intels Responsible AI-initiativ, beskrives som "verdens første sanntids dype falske detektor som returnerer resultater på millisekunder." Det er en innovativ teknologi som ser etter tegn på at personen som vises i en video virkelig er menneskelig. Den ser etter noe som er "riktig", i stedet for å analysere data for å fremheve noe som er "feil". Dette er hvordan det indikerer sannsynligheten for en forfalskning.

I mellomtiden har informatikere fra University of Buffalo (UB) jobbet med en egen deepfake-deteksjonsteknologi. Den bruker noe som ivrige PC-spillere vet krever enorm prosessorkraft for å etterligne: lys.

UB hevdet å være 94 % effektiv på falske bilder, AI-verktøyet ser på hvordan lys reflekteres i øynene til motivet. Overflaten av hornhinnen fungerer som et speil, og genererer "reflekterende mønstre".

Forskernes studie, med tittelen "Exposing GAN-Generated Faces Using Inconsistent Corneal Specular Highlights", indikerer at "GAN-syntetiserte ansikter kan eksponeres med de inkonsekvente hornhinne-spekulære høydepunktene mellom to øyne".

Det antyder at det ville være "ikke-trivielt" for AI-systemer å etterligne de ekte høydepunktene. PC-spillere, som ofte investerer i de nyeste ray-tracing-grafikkortene for å oppleve realistiske lyseffekter, vil instinktivt gjenkjenne utfordringene her.

Den kanskje største svindeloppdagingsutfordringen er det endeløse «katt og mus»-spillet mellom svindlere og de som jobber for å hindre dem. Det er høyst sannsynlig, i kjølvannet av kunngjøringer som de ovenfor, at folk allerede jobber med å bygge teknologier som kan omgå og slå slike deteksjonsmekanismer.

Det er også én ting at slike mekanismer eksisterer, men en annen ting er å se dem rutinemessig integrert i løsningene som bedrifter bruker. Tidligere refererte vi til en statistikk som antydet at 90% av løsningene kan "lett lures". Sannsynligheten er at i det minste noen finansinstitusjoner fortsatt bruker slike systemer.

En vis svindelovervåking strategi krever at selskaper ser lenger enn å oppdage de dype forfalskningene selv. Mye kan gjøres før du en svindler kommer langt nok inn i et system til å delta i en videobasert ID-verifisering eller KYC-prosess. Forholdsregler som finner en plass tidligere i prosessen kan også innebære et element av AI og maskinlæring.

For eksempel kan maskinlæring brukes til både sanntids svindelovervåking og opprettelse av regelsett. Disse kan se på historiske svindelhendelser, oppdage mønstre som lett kan gå glipp av et menneske. Transaksjoner som anses å være høyrisiko kan avvises direkte, eller sendes til manuell vurdering før engang når et stadium hvor det kan være en ID-sjekk – og derfor en mulighet for en svindlere til å benytte seg av deepfake-teknologi.

Jo tidligere et system oppdager en nettkriminell, jo bedre. Det er mindre sjanse for at de kan fortsette en forbrytelse og mindre for bedriften å bruke på ytterligere kontroller. Videobaserte ID-kontroller er kostbare, selv uten inkorporering av AI-teknologi for å oppdage dype forfalskninger.

Hvis svindlere kan identifiseres før de kommer så langt, med teknikker som digital footprinting, vil det være flere ressurser tilgjengelig for å optimalisere kontrollene av flere grensetilfeller.

Selve naturen til maskinlæring burde diktere at den over tid blir bedre til å oppdage anomalier og bekjempe svindel. AI-drevne systemer kan lære av nye mønstre og potensielt filtrere ut uredelige transaksjoner på et tidlig stadium i prosessen.

Når det kommer til deepfakes spesifikt, gir eksemplet ovenfor en spesiell grunn til håp. Forskere har funnet en måte å oppdage det store flertallet av deepfakes ved hjelp av lysrefleksjoner. Utviklinger som dette representerer et betydelig skritt fremover i forebygging av svindel og en betydelig veisperring for nettkriminelle.

I teorien er det mye lettere å implementere slik deteksjonsteknologi enn det er for svindlere å finne en måte å omgå den på – ved å gjenskape lysets oppførsel, for eksempel i hastighet og skala. "Katt og mus"-spillet ser ut til å fortsette evig, men stor teknologi og stor finans har ressursene og de dype lommene til – i hvert fall i teorien – å ligge et lite skritt foran.
 
 
Jimmy Fong er CCO for SEON og bringer sin dyptgående erfaring med svindelbekjempelse for å hjelpe svindelteam overalt.
 

Tidstempel:

Mer fra KDnuggets