Combattere l'intelligenza artificiale con il monitoraggio delle frodi tramite intelligenza artificiale per le applicazioni deepfake - KDnuggets

Combattere l'intelligenza artificiale con il monitoraggio delle frodi tramite intelligenza artificiale per le applicazioni deepfake – KDnuggets

Nodo di origine: 2667255
Combattere l'IA con il monitoraggio delle frodi AI per applicazioni Deepfake
Foto di Tim Miroshnichenko
 

I deepfake sono ormai da alcuni anni un grande argomento di conversazione nella comunità della scienza dei dati. Nel 2020, il MIT Technology Review ha ipotizzato che i falsi profondi avevano raggiunto il loro “punto critico per l’uso mainstream”.

I dati lo confermano sicuramente. IL Wall Street Journal hanno riferito che nel 10,000 sono stati trovati meno di 2018 deepfake online. Oggi questi numeri ammontano a milioni e ci sono molti esempi reali di deep fake utilizzati sia per confondere e disinformare sia per perpetuare frodi finanziarie. 

Le tecniche deepfake offrono ai criminali informatici molte opzioni sofisticate.

Vanno ben oltre la possibilità di inserire l’immagine di una celebrità nel materiale promozionale di un’offerta “imperdibile” di Bitcoin, che – ovviamente – si rivela una truffa. Soprattutto i video deepfake sono nel radar dei truffatori. Forniscono loro un modo per superare i controlli automatizzati di identità e KYC e si sono rivelati spaventosamente efficaci.

A maggio 2022, La Verge ha riferito che “test di vitalità"utilizzato da banche e altre istituzioni per verificare l'identità degli utenti può essere facilmente ingannato da deep fake. Lo studio correlato ha rilevato che il 90% dei sistemi di verifica dell’identità testati erano vulnerabili.

Allora qual è la risposta? Stiamo entrando in un’era in cui i criminali informatici possono facilmente utilizzare tecnologie deep fake per superare in astuzia le misure di sicurezza utilizzate dalle istituzioni finanziarie? Tali aziende dovranno abbandonare i loro sistemi automatizzati e tornare ai controlli manuali e umani?

La risposta semplice è “probabilmente no”. Proprio come i criminali possono sfruttare l’ondata di traffico Avanzamenti dell'IAe lo stesso vale per le aziende a cui si rivolgono. Diamo ora un’occhiata a come le aziende vulnerabili possono combattere l’intelligenza artificiale con l’intelligenza artificiale.

I deepfake vengono prodotti utilizzando una serie di tecniche di intelligenza artificiale, come:

  • reti generative del contraddittorio (GAN) 
  • coppie codificatore/decodificatore
  • modelli di moto del primo ordine

Queste tecniche possono, a prima vista, sembrare appannaggio esclusivo della comunità del machine learning, con tanto di elevate barriere all’ingresso e necessità di conoscenze tecniche specialistiche. Tuttavia, come altri elementi dell’intelligenza artificiale, sono diventati notevolmente più accessibili nel tempo.

Strumenti standard a basso costo ora consentono agli utenti non tecnici di creare falsi profondi, proprio come chiunque può iscriversi a OpenAI e testare le capacità di ChatGPT.

Recentemente, nel 2020, il World Economic Forum ha riferito che il costo di produzione di un “all'avanguardia"Il deepfake costa meno di $ 30,000. Ma nel 2023, il professore della Wharton School Ethan Mollick ha rivelato, tramite un post virale su Twitter, di aver prodotto un video falso profondo di se stesso mentre tiene una conferenza in meno di sei minuti.

La spesa totale di Mollick è stata di $ 10.99. Ha utilizzato un servizio chiamato ElevenLabs per imitare quasi perfettamente la sua voce, al costo di 5 dollari. Un altro servizio chiamato D-ID, a 5.99 dollari al mese, generava un video basato solo su una sceneggiatura e una singola fotografia. Ha persino utilizzato ChatGPT per creare lo script stesso.

Quando i deepfake iniziarono ad emergere, l’attenzione principale era rivolta ai video politici falsi (e alla pornografia falsa). Da allora, il mondo ha visto:

  • BuzzFeedVideos crea un annuncio di servizio pubblico deepfake "con" Barack Obama, impersonato dall'attore Jordon Peele.
  • Un video di YouTube profondamente falso che pretende di mostrare Donald Trump che racconta la storia di una renna.
  • Un video profondamente falso di Hilary Clinton mostrato al Saturday Night Live, quando in realtà veniva impersonata da un membro del cast.

Sebbene questi esempi mostrino il lato “divertente” dei deepfake e forse forniscano uno scossone alla realtà per quanto riguarda le capacità della tecnologia, i truffatori non hanno perso tempo nell’usarli per scopi nefasti. 

Gli esempi reali di frode, perpetuati utilizzando tecniche di deepfake, sono molti.

Le perdite dovute a truffe false profonde vanno da centinaia di migliaia a molti milioni. Nel 2021, una truffa di clonazione vocale basata sull'intelligenza artificiale è stata utilizzata per organizzare trasferimenti bancari fraudolenti per 35 milioni di dollari. Questo è stato un enorme profitto finanziario che non è nemmeno arrivato richiedere l'uso del video.

La qualità dell'output dell'intelligenza artificiale, in particolare dei video, può variare enormemente. Alcuni video sono ovviamente falsi per gli esseri umani. Ma, come affermato in precedenza, i sistemi automatizzati, come quelli utilizzati dalle banche e dal fintech, in passato si sono rivelati facilmente ingannabili.

È probabile che l’equilibrio si sposti ulteriormente man mano che le capacità dell’intelligenza artificiale continuano a migliorare. Uno sviluppo recente è l’incorporazione della “contro-forense”, in cui il “rumore” invisibile mirato viene aggiunto ai falsi profondi, nel tentativo di ingannare i meccanismi di rilevamento.

Quindi, cosa si può fare?

Proprio come i truffatori cercano di utilizzare la più recente tecnologia di intelligenza artificiale per ottenere guadagni finanziari, aziende come le aziende tecnologiche sono al lavoro per trovare modi per utilizzare la tecnologia per catturare i criminali.

Ecco un paio di esempi di aziende che utilizzano l’intelligenza artificiale per combattere l’intelligenza artificiale:

Alla fine del 2022, Intel ha lanciato uno strumento basato sull’intelligenza artificiale chiamato “Falso cacciatore”. Con un tasso di affidabilità segnalato da Intel del 96%, utilizza una tecnologia nota come fotopletismografia (PPG).

La tecnologia fa uso di qualcosa che non è presente nei video generati artificialmente: il flusso sanguigno. Addestrato su video legittimi, il suo algoritmo di apprendimento profondo misura la luce assorbita o riflessa dai vasi sanguigni, che cambiano colore mentre il sangue si muove nel corpo.

FakeCatcher, parte dell'iniziativa Responsible AI di Intel, è descritto come "il primo rilevatore di falsi profondi in tempo reale al mondo che restituisce risultati in millisecondi". È una tecnologia innovativa che cerca segni che la persona mostrata in un video sia veramente umana. Cerca qualcosa che sia “giusto”, piuttosto che analizzare i dati per evidenziare qualcosa che è “sbagliato”. Ecco come indica la probabilità di un falso.

Nel frattempo, gli informatici dell’Università di Buffalo (UB) hanno lavorato su una propria tecnologia di rilevamento dei deepfake. Utilizza qualcosa che gli accaniti giocatori di PC sanno che richiede un'immensa potenza di elaborazione per emulare: la luce.

Claimed by UB to be 94% effective on fake photos, the AI tool looks at how light reflects in the eyes of the subject. The surface of the cornea acts as a mirror, and generates “reflective patterns”.

Lo studio degli scienziati, intitolato “Exhibition GAN-Generated Faces Using Inconsistent Corneal Specular Highlights”, indica che “i volti sintetizzati GAN possono essere esposti con riflessi speculari corneali incoerenti tra due occhi”.

Suggerisce che sarebbe “non banale” per i sistemi di intelligenza artificiale emulare i punti salienti autentici. I giocatori PC, che spesso investono nelle più recenti schede grafiche ray-tracing per sperimentare effetti di luce realistici, riconosceranno istintivamente le sfide qui.

Forse la più grande sfida nel rilevamento delle frodi è l’infinito gioco del “gatto e topo” tra i truffatori e coloro che lavorano per contrastarli. È molto probabile, sulla scia di annunci come quelli sopra menzionati, che le persone stiano già lavorando alla creazione di tecnologie in grado di eludere e battere tali meccanismi di rilevamento.

Una cosa è anche che tali meccanismi esistano, un’altra è vederli regolarmente integrati nelle soluzioni utilizzate dalle aziende. In precedenza abbiamo fatto riferimento a una statistica secondo cui il 90% delle soluzioni può essere “facilmente ingannato”. La probabilità è che almeno alcuni istituti finanziari utilizzino ancora tali sistemi.

Un saggio monitoraggio delle frodi La strategia richiede che le aziende guardino oltre l’individuazione stessa dei falsi profondi. Si può fare molto prima un truffatore entra abbastanza in profondità nel sistema per partecipare a una verifica dell'identità basata su video o a un processo KYC. Le precauzioni che trovano posto nelle prime fasi del processo possono coinvolgere anche un elemento di intelligenza artificiale e apprendimento automatico.

Ad esempio, l’apprendimento automatico può essere utilizzato sia per il monitoraggio delle frodi in tempo reale che per la creazione di set di regole. Questi possono esaminare eventi storici di frode, rilevando modelli che potrebbero facilmente sfuggire a un essere umano. Le transazioni ritenute ad alto rischio possono essere rifiutate a titolo definitivo o sottoposte a revisione manuale prima ancora di arrivare una fase in cui potrebbe esserci un controllo dell’identità e quindi un’opportunità per un truffatore di utilizzare la tecnologia deepfake.

Prima un sistema rileva un criminale informatico, meglio è. Ci sono meno possibilità che possano perpetuare un crimine e meno spese da parte dell’azienda per ulteriori controlli. I controlli dell’identità basati su video sono costosi, anche senza l’incorporazione della tecnologia AI per rilevare falsi profondi.

Se i truffatori riuscissero a essere identificati prima che arrivino a tanto, con tecniche come l'impronta digitale, ci sarebbero più risorse a disposizione per ottimizzare i controlli di un maggior numero di casi limite.

La natura stessa dell’apprendimento automatico dovrebbe far sì che, nel tempo, diventi migliore nel rilevare anomalie e combattere le frodi. I sistemi basati sull’intelligenza artificiale possono imparare da nuovi modelli e potenzialmente filtrare le transazioni fraudolente nelle fasi iniziali del processo.

Quando si tratta specificamente di deepfake, l’esempio sopra fornisce un particolare motivo di speranza. Gli scienziati hanno trovato un modo per rilevare la stragrande maggioranza dei deepfake utilizzando i riflessi della luce. Sviluppi come questo rappresentano un notevole passo avanti nella prevenzione delle frodi e un notevole ostacolo per i criminali informatici.

In teoria, è molto più semplice implementare tale tecnologia di rilevamento piuttosto che per i truffatori trovare un modo per aggirarla, replicando ad esempio il comportamento della luce, velocemente e su larga scala. Il gioco del “gatto e topo” sembra destinato a continuare in eterno, ma le grandi tecnologie e la grande finanza hanno le risorse e le tasche profonde per – almeno in teoria – rimanere un piccolo passo avanti.
 
 
Jimmy Fong è il CCO di SEON e porta la sua approfondita esperienza nella lotta alle frodi per assistere i team antifrode ovunque.
 

Timestamp:

Di più da KDnuggets