AI bestrijden met AI-fraudebewaking voor deepfake-applicaties - KDnuggets

AI bestrijden met AI-fraudebewaking voor deepfake-applicaties - KDnuggets

Bronknooppunt: 2667255
Bestrijding van AI met AI-fraudemonitoring voor deepfake-applicaties
Foto door Tim Miroshnichenko
 

Deepfakes zijn al enkele jaren een groot gespreksonderwerp in de datawetenschapsgemeenschap. Terug in 2020, de MIT Technology Review stelde dat diepe vervalsingen hadden hun “omslagpunt voor mainstream gebruik” bereikt.

De gegevens ondersteunen dat zeker. De Wall Street Journal meldde dat er in 10,000 minder dan 2018 deepfakes online waren gevonden. Die aantallen lopen nu in de miljoenen, en er zijn veel praktijkvoorbeelden van deepfakes die zowel worden gebruikt om verwarring te zaaien, verkeerd te informeren en om financiële fraude in stand te houden. 

Deepfake-technieken bieden cybercriminelen veel geavanceerde mogelijkheden.

Ze gaan veel verder dan de mogelijkheid om het beeld van een beroemdheid in promotiemateriaal op te nemen voor een ‘onmisbare’ Bitcoin-aanbieding, die – uiteraard – oplichterij blijkt te zijn. Vooral deepfake-video’s staan ​​op de radar van fraudeurs. Ze bieden hen een manier om door geautomatiseerde ID- en KYC-controles te komen en zijn angstaanjagend effectief gebleken.

In mei 2022, The Verge gemeld dat "levendigheid testen' dat door banken en andere instellingen wordt gebruikt om de identiteit van gebruikers te helpen verifiëren, kan gemakkelijk voor de gek worden gehouden door deepfakes. Uit het gerelateerde onderzoek bleek dat 90% van de geteste ID-verificatiesystemen kwetsbaar waren.

Dus wat is het antwoord? Betreden we een tijdperk waarin cybercriminelen gemakkelijk deep-fake-technologie kunnen gebruiken om de beveiligingsmaatregelen van financiële instellingen te slim af te zijn? Zullen dergelijke bedrijven hun geautomatiseerde systemen moeten laten varen en moeten terugkeren naar handmatige, menselijke controles?

Het simpele antwoord is “waarschijnlijk niet”. Net zoals criminelen gebruik kunnen maken van de toestroom AI-vorderingen, dat geldt ook voor de bedrijven waarop zij zich richten. Laten we nu eens kijken hoe kwetsbare bedrijven AI met AI kunnen bestrijden.

Deepfakes worden geproduceerd met behulp van een reeks kunstmatige intelligentietechnieken, zoals:

  • generatieve vijandige netwerken (GAN's) 
  • encoder/decoder-paren
  • bewegingsmodellen van de eerste orde

Deze technieken kunnen op het eerste gezicht klinken als het exclusieve domein van de machine learning-gemeenschap, compleet met hoge toetredingsdrempels en een behoefte aan deskundige technische kennis. Net als andere elementen van AI zijn ze in de loop van de tijd echter aanzienlijk toegankelijker geworden.

Met goedkope, kant-en-klare tools kunnen niet-technische gebruikers nu deep fakes maken, net zoals iedereen zich kan aanmelden bij OpenAI en de mogelijkheden van ChatGPT kan testen.

Nog in 2020 meldde het World Economic Forum dat de kosten van het produceren van een “state of the artDeepfake kost minder dan $30,000. Maar in 2023 onthulde professor Ethan Mollick van de Wharton School via een virale Twitter-post dat hij een diepe nepvideo dat hij in minder dan zes minuten een lezing hield.

De totale uitgaven van Mollick bedroegen $ 10.99. Hij gebruikte een dienst genaamd ElevenLabs om zijn stem bijna perfect na te bootsen, voor een bedrag van $ 5. Een andere dienst genaamd D-ID, die $ 5.99 per maand kost, genereerde een video op basis van slechts een script en een enkele foto. Hij gebruikte zelfs ChatGPT om het script zelf te maken.

Toen deepfakes voor het eerst opdoken, lag de primaire focus op nep-politieke video’s (en nep-pornografie). Sindsdien heeft de wereld gezien:

  • BuzzFeedVideos maakt een deepfake aankondiging van de publieke dienst met “in de hoofdrol” Barack Obama, vertolkt door acteur Jordon Peele.
  • Een deepfake YouTube-video waarin wordt beweerd dat Donald Trump een verhaal vertelt over een rendier.
  • Een deepfake-video van Hilary Clinton, vertoond op Saturday Night Live, terwijl ze in feite werd nagebootst door een castlid.

Hoewel deze voorbeelden de ‘leuke’ kant van deepfakes laten zien, en misschien een vleugje realiteit bieden over de mogelijkheden van de technologie, hebben fraudeurs geen tijd verspild door ze voor snode doeleinden te gebruiken. 

Er zijn talloze voorbeelden uit de praktijk van fraude, die wordt bestendigd met behulp van deepfake-technieken.

De verliezen als gevolg van grootschalige nepfraude variëren van honderdduizenden tot vele miljoenen. In 2021 werd een AI-stemkloneringsfraude gebruikt om frauduleuze bankoverschrijvingen van $ 35 miljoen te regelen. Dit was een enorme financiële uitbetaling die niet eens plaatsvond vereisen het gebruik van video.

De kwaliteit van AI-uitvoer, vooral video, kan enorm variëren. Sommige video's zijn duidelijk nep voor mensen. Maar zoals hierboven vermeld, zijn geautomatiseerde systemen, zoals die worden gebruikt door banken en fintech, in het verleden gemakkelijk voor de gek gebleken.

De balans zal waarschijnlijk verder verschuiven naarmate de AI-capaciteiten blijven verbeteren. Een recente ontwikkeling is de integratie van ‘counter forensics’, waarbij ‘gerichte onzichtbare ‘ruis’ wordt toegevoegd aan deep fakes, in een poging detectiemechanismen voor de gek te houden.

Dus wat kan er gedaan worden?

Net zoals fraudeurs de nieuwste AI-technologie proberen te gebruiken voor financieel gewin, zijn bedrijven zoals technologiebedrijven hard aan het werk om manieren te vinden om technologie te gebruiken om criminelen te vangen.

Hier zijn een paar voorbeelden van bedrijven die AI gebruiken om de AI te bestrijden:

Eind 2022 lanceerde Intel een op AI gebaseerde tool genaamd “nepvanger”. Met Intel's gerapporteerde betrouwbaarheidspercentage van 96% maakt het gebruik van een technologie die bekend staat als fotoplethysmografie (PPG).

De technologie maakt gebruik van iets dat niet aanwezig is in kunstmatig gegenereerde video’s: de bloedstroom. Het deep learning-algoritme is getraind op basis van legitieme video's en meet het licht dat wordt geabsorbeerd of gereflecteerd door bloedvaten, die van kleur veranderen naarmate het bloed door het lichaam beweegt.

FakeCatcher, onderdeel van Intel’s Responsible AI-initiatief, wordt beschreven als “de eerste real-time deep fake-detector ter wereld die resultaten in milliseconden retourneert.” Het is een innovatieve technologie die zoekt naar tekenen dat de persoon in een video echt een mens is. Het zoekt naar iets dat ‘goed’ is, in plaats van gegevens te analyseren om iets te benadrukken dat ‘fout’ is. Dit is hoe het de waarschijnlijkheid van een vervalsing aangeeft.

Ondertussen hebben computerwetenschappers van de Universiteit van Buffalo (UB) gewerkt aan een eigen deepfake-detectietechnologie. Het maakt gebruik van iets waarvan enthousiaste pc-gamers weten dat het een enorme verwerkingskracht vereist om te emuleren: licht.

De AI-tool beweert door UB dat deze 94% effectief is bij nepfoto's en kijkt naar hoe licht reflecteert in de ogen van het onderwerp. Het oppervlak van het hoornvlies fungeert als spiegel en genereert “reflecterende patronen”.

Het onderzoek van de wetenschappers, getiteld ‘Exposed GAN-Generated Faces Using Inconsistent Corneal Specular Highlights’, geeft aan dat ‘GAN-gesynthetiseerde gezichten kunnen worden belicht met de inconsistente cornea-spiegelende hoogtepunten tussen twee ogen’.

Het suggereert dat het “niet triviaal” zou zijn als AI-systemen de echte hoogtepunten zouden nabootsen. PC-gamers, die vaak investeren in de nieuwste ray-tracing grafische kaarten om realistische lichteffecten te ervaren, zullen de uitdagingen hier instinctief herkennen.

Misschien wel de grootste uitdaging bij het opsporen van fraude is het eindeloze ‘kat-en-muisspel’ tussen fraudeurs en degenen die eraan werken om ze te dwarsbomen. Het is zeer waarschijnlijk, in de nasleep van aankondigingen zoals die hierboven, dat mensen al werken aan het bouwen van technologieën die dergelijke detectiemechanismen kunnen omzeilen en verslaan.

Het is ook één ding dat dergelijke mechanismen bestaan, maar iets anders is dat ze routinematig worden geïntegreerd in de oplossingen die bedrijven gebruiken. Eerder verwezen we naar een statistiek die suggereerde dat 90% van de oplossingen “gemakkelijk voor de gek gehouden” kan worden. De kans is groot dat in ieder geval enkele financiële instellingen nog steeds dergelijke systemen gebruiken.

Een wens fraude toezicht Deze strategie vereist dat bedrijven verder kijken dan het zelf opsporen van de deep fakes. Er kan veel gedaan worden vaardigheden een fraudeur dringt ver genoeg in een systeem om deel te nemen aan een op video gebaseerde ID-verificatie of KYC-proces. Voorzorgsmaatregelen die eerder in het proces een plaats krijgen, kunnen ook een element van AI en machine learning inhouden.

Machine learning kan bijvoorbeeld worden gebruikt voor zowel realtime fraudemonitoring als het creëren van regelsets. Deze kunnen kijken naar historische fraudegebeurtenissen en patronen detecteren die gemakkelijk door een mens kunnen worden gemist. Transacties die als een hoog risico worden beschouwd, kunnen direct worden afgewezen of worden doorgegeven voor handmatige beoordeling voordat het zelfs maar bereikt is een fase waarin er mogelijk sprake is van een identiteitscontrole – en dus een kans voor een fraudeur om gebruik te maken van deepfake-technologie.

Hoe eerder een systeem een ​​cybercrimineel detecteert, hoe beter. De kans is kleiner dat ze een misdrijf kunnen bestendigen en het bedrijf hoeft minder geld uit te geven aan verdere controles. Op video gebaseerde identiteitscontroles zijn kostbaar, zelfs zonder de integratie van AI-technologie om deep fakes te detecteren.

Als fraudeurs kunnen worden geïdentificeerd voordat ze zo ver komen, met technieken als digitale footprinting, blijven er meer middelen beschikbaar om de controles van meer grensgevallen te optimaliseren.

De aard van machine learning zou ervoor moeten zorgen dat het na verloop van tijd beter wordt in het opsporen van afwijkingen en het bestrijden van fraude. Door AI aangedreven systemen kunnen leren van nieuwe patronen en mogelijk frauduleuze transacties in een vroeg stadium van het proces uitfilteren.

Als het specifiek om deepfakes gaat, geeft het bovenstaande voorbeeld een bijzondere reden voor hoop. Wetenschappers hebben een manier gevonden om de overgrote meerderheid van deepfakes te detecteren met behulp van lichtreflecties. Dit soort ontwikkelingen betekenen een aanzienlijke stap voorwaarts in de fraudepreventie en vormen een aanzienlijke wegversperring voor cybercriminelen.

In theorie is het veel gemakkelijker om dergelijke detectietechnologie in te zetten dan voor fraudeurs om een ​​manier te vinden om deze te omzeilen – door bijvoorbeeld het gedrag van licht op snelheid en op schaal te repliceren. Het lijkt erop dat het ‘kat-en-muisspel’ eeuwig zal voortduren, maar de grote technologiebedrijven en de grote financiële instellingen beschikken over de middelen en de diepe zakken om – in theorie tenminste – een kleine stap voor te blijven.
 
 
Jimmy Fong is de CCO van SEON en brengt zijn diepgaande ervaring met fraudebestrijding in om fraudeteams overal ter wereld bij te staan.
 

Tijdstempel:

Meer van KDnuggets