Bekämpa AI med AI Fraud Monitoring för Deepfake-applikationer - KDnuggets

Bekämpa AI med AI Fraud Monitoring för Deepfake-applikationer – KDnuggets

Källnod: 2667255
Bekämpa AI med AI Fraud Monitoring för Deepfake-applikationer
Foto: Tima Miroshnichenko
 

Deepfakes har varit ett stort samtalsämne inom datavetenskapsgemenskapen i några år nu. Tillbaka 2020, MIT Technology Review ansåg att djupa förfalskningar hade nått sin "tipping point for mainstream use".

Uppgifterna backar verkligen upp det. De Wall Street Journal rapporterade att mindre än 10,000 2018 djupförfalskningar hade hittats online under XNUMX. Dessa siffror går nu i miljontal, och det finns många verkliga exempel på djupa förfalskningar som används både för att förvirra och desinformera och för att vidmakthålla ekonomiskt bedrägeri. 

Deepfake-tekniker ger totalt sett cyberkriminella många sofistikerade alternativ.

De går långt utöver möjligheten att infoga bilden av en kändis i reklammaterial för ett "omissbart" Bitcoin-erbjudande, vilket – naturligtvis – visar sig vara en bluff. Deepfake videor, i synnerhet, är på radarn av bedragare. De ger dem ett sätt att ta sig igenom automatiska ID- och KYC-kontroller och har visat sig vara skrämmande effektiva.

I maj 2022, Gränsen rapporterade det "livlighetstester” som används av banker och andra institutioner för att verifiera användarnas identiteter kan lätt luras av djupa förfalskningar. Den relaterade studien fann att 90 % av de testade ID-verifieringssystemen var sårbara.

Så vad är svaret? Går vi in ​​i en era där cyberbrottslingar enkelt kan använda djup falsk teknik för att överlista säkerhetsåtgärderna som används av finansiella institutioner? Kommer sådana företag att behöva lämna sina automatiserade system och återgå till manuella, mänskliga kontroller?

Det enkla svaret är "förmodligen inte". Precis som kriminella kan använda sig av uppsvinget AI-framsteg, det kan också företagen de riktar sig mot. Låt oss nu titta på hur sårbara företag kan bekämpa AI med AI.

Deepfakes produceras med en rad artificiell intelligenstekniker, såsom:

  • generativa kontroversiella nätverk (GAN) 
  • kodare/avkodarpar
  • första ordningens rörelsemodeller

Dessa tekniker kan, på ytan, låta som exklusivt förbehållet maskininlärningsgemenskapen, komplett med höga inträdesbarriärer och ett behov av teknisk expertkunskap. Men liksom andra delar av AI har de blivit betydligt mer tillgängliga med tiden.

Lågkostnadsverktyg gör det nu möjligt för icke-tekniska användare att skapa djupa förfalskningar, precis som vem som helst kan registrera sig för OpenAI och testa funktionerna i ChatGPT.

Så sent som 2020 rapporterade World Economic Forum att kostnaden för att producera en "toppmodern” deepfake är under $30,000 2023. Men XNUMX avslöjade Wharton School-professor Ethan Mollick, via ett viralt Twitter-inlägg, att han hade producerat en djup falsk video av sig själv att hålla en föreläsning på mindre än sex minuter.

Mollicks totala utgifter var 10.99 USD. Han använde en tjänst som heter ElevenLabs för att nästan perfekt efterlikna hans röst, för en kostnad av $5. En annan tjänst som heter D-ID, för $5.99 per månad, genererade en video baserad på endast ett manus och ett enda fotografi. Han använde till och med ChatGPT för att skapa själva manuset.

När deepfakes först började dyka upp låg ett primärt fokus på falska politiska videor (och falsk pornografi). Sedan dess har världen sett:

  • BuzzFeedVideos skapar ett djupt falskt public service-meddelande "med" Barack Obama, efterliknad av skådespelaren Jordon Peele.
  • En djupt falsk YouTube-video som utger sig för att visa Donald Trump berätta en historia om en ren.
  • En djup falsk video av Hilary Clinton som visades på Saturday Night Live, när hon i själva verket efterliknas av en skådespelare.

Även om dessa exempel visar den "roliga" sidan av djupförfalskningar och kanske ger ett ryck av verkligheten när det gäller teknikens möjligheter, har bedragare inte slösat bort någon tid på att använda dem för skändliga syften. 

Det finns många verkliga exempel på bedrägerier, som vidmakthålls med deepfake-tekniker.

Förluster på grund av djupa falska bedrägerier varierar från hundratusentals till många miljoner. 2021 användes en bluff med AI-röstkloning för att ordna bedrägliga banköverföringar på 35 miljoner dollar. Detta var en enorm ekonomisk vinst som inte ens gjorde det kräver användningen av video.

Kvaliteten på AI-utdata, särskilt video, kan variera enormt. Vissa videor är uppenbarligen falska för människor. Men som nämnts ovan har automatiserade system, som de som används av banker och fintech, visat sig vara lättlurade tidigare.

Balansen kommer sannolikt att förändras ytterligare när AI-kapaciteten fortsätter att förbättras. En ny utveckling är en inkorporering av "mot forensics", där "riktat osynligt "brus" läggs till djupa förfalskningar, i ett försök att lura upptäcktsmekanismer.

Så vad kan man göra?

Precis som bedragare försöker använda den senaste AI-tekniken för ekonomisk vinning, jobbar företag som teknikföretag hårt på att hitta sätt att använda teknik för att fånga brottslingar.

Här är ett par exempel på företag som använder AI för att bekämpa AI:

I slutet av 2022 lanserade Intel ett AI-baserat verktyg som heter "FakeCatcher”. Med Intels rapporterade tillförlitlighetsgrad på 96 %, använder den en teknik som kallas fotopletysmografi (PPG).

Tekniken använder sig av något som inte finns i artificiellt genererade videor: blodflöde. Utbildad på legitima videor, mäter dess djupinlärningsalgoritm ljuset som absorberas eller reflekteras av blodkärl, som ändrar färg när blodet rör sig runt i kroppen.

FakeCatcher, en del av Intels initiativ för ansvarsfull AI, beskrivs som "världens första djupa falska detektor i realtid som returnerar resultat på millisekunder." Det är en innovativ teknik som letar efter tecken på att personen som visas i en video verkligen är mänsklig. Den letar efter något som är "rätt", snarare än att analysera data för att markera något som är "fel". Så här indikerar det sannolikheten för en förfalskning.

Samtidigt har datavetare vid University of Buffalo (UB) arbetat på en egen teknik för deepfake-detektion. Den använder något som inbitna PC-spelare vet kräver enorm processorkraft att emulera: ljus.

UB hävdar att det är 94 % effektivt på falska bilder, AI-verktyget tittar på hur ljus reflekteras i motivets ögon. Hornhinnans yta fungerar som en spegel och genererar "reflekterande mönster".

Forskarnas studie, med titeln "Exposing GAN-generated Faces Using Inconsistent Corneal Specular Highlights", indikerar att "GAN-syntetiserade ansikten kan exponeras med de inkonsekventa hornhinnans speglande höjdpunkterna mellan två ögon".

Det antyder att det skulle vara "icke trivialt" för AI-system att efterlikna de genuina höjdpunkterna. PC-spelare, som ofta investerar i de senaste ray-tracing-grafikkorten för att uppleva realistiska ljuseffekter, kommer instinktivt att känna igen utmaningarna här.

Den kanske största utmaningen för upptäckt av bedrägerier är det oändliga "katt och råtta"-spelet mellan bedragare och de som arbetar för att omintetgöra dem. Det är högst troligt, i kölvattnet av tillkännagivanden som de ovan, att människor redan arbetar med att bygga tekniker som kan kringgå och slå sådana detektionsmekanismer.

Det är också en sak att sådana mekanismer finns, men en annan att se dem rutinmässigt integrerade i de lösningar som företag använder. Tidigare hänvisade vi till en statistik som tydde på att 90 % av lösningarna kan "lätt luras". Sannolikheten är att åtminstone vissa finansinstitut fortfarande använder sådana system.

En vis bedrägeriövervakning strategin kräver att företag ser bortom att upptäcka de djupa förfalskningarna själva. Mycket kan göras innan en bedragare kommer tillräckligt långt in i ett system för att delta i en videobaserad ID-verifiering eller KYC-process. Försiktighetsåtgärder som hittar en plats tidigare i processen kan också involvera ett inslag av AI och maskininlärning.

Till exempel kan maskininlärning användas för både bedrägeriövervakning i realtid och för att skapa regeluppsättningar. Dessa kan titta på historiska bedrägerihändelser, upptäcka mönster som lätt kan missas av en människa. Transaktioner som anses vara hög risk kan avvisas direkt eller skickas för manuell granskning innan man ens når ett skede där det kan bli en ID-kontroll – och därför en möjlighet för en bedragare att använda sig av deepfake-teknik.

Ju tidigare ett system upptäcker en cyberbrottsling, desto bättre. Det finns mindre chans att de kan fortsätta ett brott och mindre för företaget att spendera på ytterligare kontroller. Videobaserade ID-kontroller är kostsamma, även utan inkorporering av AI-teknik för att upptäcka djupa förfalskningar.

Om bedragare kan identifieras innan de kommer så långt, med tekniker som digitala fotavtryck, kommer det att finnas fler resurser tillgängliga för att optimera kontrollerna av fler gränsfall.

Själva karaktären av maskininlärning borde diktera att den med tiden blir bättre på att upptäcka anomalier och bekämpa bedrägerier. AI-drivna system kan lära av nya mönster och potentiellt filtrera bort bedrägliga transaktioner i ett tidigt skede i processen.

När det kommer till deepfakes specifikt ger exemplet ovan en särskild anledning till hopp. Forskare har hittat ett sätt att upptäcka den stora majoriteten av deepfakes med hjälp av ljusreflektioner. Utveckling som denna utgör ett avsevärt steg framåt för att förebygga bedrägerier och en betydande vägspärr för cyberbrottslingar.

I teorin är det mycket lättare att implementera sådan detekteringsteknik än för bedragare att hitta ett sätt att kringgå den – att replikera ljusets beteende, till exempel i hastighet och i skala. "Katt och råtta"-spelet verkar sannolikt fortsätta för evigt, men stor teknik och stor finans har resurserna och de djupa fickorna för att – i teorin åtminstone – ligga ett litet steg före.
 
 
Jimmy Fong är CCO för SEON och tar med sin djupgående erfarenhet av bedrägeribekämpning för att hjälpa bedrägeriteam överallt.
 

Tidsstämpel:

Mer från KDnuggets