Un anno dopo, le prospettive per l’intelligenza artificiale generativa nel settore FS

Un anno dopo, le prospettive per l’intelligenza artificiale generativa nel settore FS

Nodo di origine: 3020456

Poco più di un anno fa, ChatGPT lanciato. L’eccitazione, l’ansia e l’ottimismo associati alla nuova intelligenza artificiale non mostrano segni di cedimento. A novembre il CEO di OpenAI Sam Altman è stato rimosso dalla sua posizione, per poi tornare
alcuni giorni dopo. Rishi Sunak ha ospitato i leader mondiali al
Summit sulla sicurezza dell'intelligenza artificiale nel Regno Unito
, intervistando Elon Musk davanti a un raduno di leader mondiali e imprenditori tecnologici. Dietro le quinte, si dice che i ricercatori sull’intelligenza artificiale siano vicini a ulteriori scoperte. 

Cosa significa tutto questo per quelle industrie che vogliono trarre vantaggio dall’intelligenza artificiale ma non sono sicure dei rischi?

Una qualche forma di apprendimento automatico, quella che chiamavamo intelligenza artificiale, esiste da un secolo. Dall’inizio degli anni ’1990, questi strumenti sono stati un elemento operativo chiave di alcuni processi bancari, governativi e aziendali, mentre erano assenti in altri.

Allora perché l’adozione irregolare? In generale, questo è un rischio. Gli strumenti di intelligenza artificiale sono ottimi per attività come il rilevamento delle frodi in cui algoritmi consolidati e testati possono fare cose che gli analisti semplicemente non possono, esaminando vaste aree di dati in millisecondi. Questo è diventato
la norma, soprattutto perché non è essenziale comprendere ogni decisione nel dettaglio.

Altri processi sono stati più resistenti al cambiamento. Di solito, ciò non accade perché un algoritmo non potrebbe fare di meglio, ma piuttosto perché – in aree come il credit scoring o il rilevamento del riciclaggio di denaro – il rischio che si insinuino pregiudizi imprevisti è inaccettabile.
Ciò è particolarmente grave nel credit scoring quando un prestito o un mutuo potrebbero essere rifiutati a causa di caratteristiche non finanziarie, compresi i pregiudizi razziali.

Mentre l’adozione delle vecchie tecniche di intelligenza artificiale progredisce anno dopo anno, l’arrivo dell’intelligenza artificiale generativa, caratterizzata da ChatGPT, ha cambiato tutto. Il potenziale dei nuovi modelli – sia positivi che negativi – è enorme e i commenti si sono divisi di conseguenza.
Ciò che è chiaro è che nessuna organizzazione vuole lasciarsi sfuggire il rialzo. Nonostante i discorsi sui rischi legati ai modelli generativi e di frontiera, il 2023 è stato ricco di entusiasmo per la rivoluzione che ci aspetta.

Due obiettivi

Uno dei casi d’uso principali dell’IA nello spazio della criminalità finanziaria è individuare e prevenire attività fraudolente e criminali. Gli sforzi si concentrano generalmente attorno a due obiettivi simili ma diversi. Questi sono 1) contrastare l'attività fraudolenta – fermarti o
il tuo amico o parente dall'essere defraudato – e 2) aderire alle linee guida normative esistenti per sostenere l'antiriciclaggio (AML) e combattere il finanziamento del terrorismo (CFT).

Storicamente, le implementazioni dell’intelligenza artificiale nell’AML e nel CFT hanno dovuto far fronte alla preoccupazione di trascurare potenzialmente attività critiche rispetto ai tradizionali metodi basati su regole. La situazione è cambiata negli ultimi 5-10 anni, con i regolatori che hanno avviato un cambiamento incoraggiando l’innovazione
per aiutare nei casi AML e CFT – dichiarando che gli innovatori saranno giudicati in base ai loro risultati complessivi e non in base ad alcuni avvisi mancati.

Tuttavia, nonostante l’uso dei modelli di machine learning nella prevenzione delle frodi negli ultimi decenni, l’adozione nel settore AML/CFT è stata molto più lenta, con una prevalenza di titoli e previsioni rispetto all’azione reale. L’avvento dell’intelligenza artificiale generativa sembra destinato a cambiare
quell'equazione in modo drammatico.

Un punto positivo per la conformità dell'intelligenza artificiale negli ultimi 5 anni è stato lo screening dei clienti e delle controparti, in particolare quando si tratta delle grandi quantità di dati coinvolti nello screening di alta qualità dei media avversi (ovvero notizie negative) in cui le organizzazioni
cercare i primi segnali di rischio nei mezzi di informazione per proteggersi da potenziali problemi.

La natura dello screening di volumi elevati rispetto a miliardi di documenti non strutturati ha fatto sì che i vantaggi dell’apprendimento automatico e dell’intelligenza artificiale superino di gran lunga i rischi e consentano alle organizzazioni di effettuare controlli che semplicemente non sarebbero possibili
altrimenti.

Ora le banche e altre organizzazioni vogliono fare un ulteriore passo avanti. Mentre i modelli di generazione AI iniziano ad avvicinarsi all’AGI (Intelligenza Generale Artificiale) dove possono regolarmente superare le prestazioni degli analisti umani, la domanda è quando, e non se, potranno utilizzare la tecnologia per
supportare meglio le decisioni e potenzialmente anche prendere le decisioni unilateralmente.

Sicurezza dell'intelligenza artificiale nella conformità

L’AI Safety Summit del 2023 ha rappresentato una pietra miliare significativa nel riconoscere l’importanza dell’IA. Il vertice ha portato 28 paesi a firmare una dichiarazione per continuare gli incontri per affrontare i rischi dell’IA. L'evento ha portato all'inaugurazione del

Istituto per la sicurezza AI
, che contribuirà alla futura ricerca e collaborazione per garantirne la sicurezza.

Sebbene ci siano vantaggi nell’avere un focus internazionale sulla conversazione sull’intelligenza artificiale, i modelli di trasformatori GPT sono stati le principali aree di interesse durante il Summit. Ciò comporta il rischio di semplificare eccessivamente o confondere lo spettro più ampio dell’IA per gli individui non abituati.

L’intelligenza artificiale non è solo generativa e le diverse tecnologie forniscono una vasta gamma di caratteristiche diverse. Ad esempio, mentre il modo in cui funziona l’intelligenza artificiale generativa è quasi del tutto opaco o “scatola nera”, gran parte dell’intelligenza artificiale legacy può mostrare le ragioni del suo utilizzo.
decisioni.

Se non vogliamo tornare indietro con il panico legato all’IA, i regolatori e gli altri soggetti devono comprenderne la complessità. Le banche, le agenzie governative e le aziende globali devono adottare un approccio ponderato all’utilizzo dell’intelligenza artificiale. Devono sottolineare la sicurezza, l'attenzione,
e un uso spiegabile quando sfruttato all’interno e all’esterno dei quadri di conformità.

La strada davanti

Il panorama della conformità richiede una revisione degli standard per l’uso responsabile dell’IA. È essenziale stabilire le migliori pratiche e obiettivi chiari per aiutare le organizzazioni ad allontanarsi da soluzioni di intelligenza artificiale assemblate frettolosamente che ne compromettono l’accuratezza. Precisione, affidabilità,
e l’innovazione sono ugualmente importanti per mitigare la fabbricazione o la potenziale disinformazione.

Nel settore bancario, l’intelligenza artificiale viene utilizzata per supportare gli analisti di conformità che sono già alle prese con vincoli di tempo e crescenti responsabilità normative. L’intelligenza artificiale può aiutare in modo significativo i team automatizzando compiti banali, aumentando i processi decisionali,
e migliorare il rilevamento delle frodi.

Il Regno Unito può e deve trarre vantaggio dalle ultime opportunità. Dovremmo coltivare un ecosistema di innovazione che sia ricettivo all’innovazione dell’intelligenza artificiale attraverso fintech, regtech e oltre. Chiarezza da parte del governo e dei leader di pensiero sull'intelligenza artificiale adattata alle implementazioni pratiche
nel settore è fondamentale. Dobbiamo anche essere aperti ad accogliere nuovi laureati provenienti dal crescente pool di talenti globali per l’intelligenza artificiale per rafforzare la posizione del Paese come pioniere di soluzioni basate sull’intelligenza artificiale e integrarle perfettamente. Nel mezzo del cambiamento del settore, definizione delle priorità e sostegno
L’implementazione responsabile dell’IA è fondamentale per il successo della battaglia in corso contro tutti gli aspetti della criminalità finanziaria.

Timestamp:

Di più da Fintextra