Un an după, perspectiva pentru IA generativă în FS

Un an după, perspectiva pentru IA generativă în FS

Nodul sursă: 3020456

Acum puțin peste un an, Chat GPT lansat. Entuziasmul, anxietatea și optimismul asociate cu noua inteligență artificială arată puține semne de scădere. În noiembrie, CEO-ul OpenAI, Sam Altman, a fost demis din funcția sa, pentru a reveni
câteva zile mai târziu. Rishi Sunak a găzduit lideri mondiali la
Summitul privind siguranța IA din Regatul Unit
, intervievându-l pe Elon Musk în fața adunării liderilor mondiali și antreprenorilor din domeniul tehnologiei. În culise, se zvonește că cercetătorii AI sunt aproape de și mai multe descoperiri. 

Ce înseamnă toate acestea pentru acele industrii care doresc să beneficieze de AI, dar nu sunt sigure de riscuri?

O formă de învățare automată – ceea ce obișnuiam să numim AI – există de un secol. De la începutul anilor 1990, aceste instrumente au reprezentat un element operațional cheie al unor procese bancare, guvernamentale și corporative, în timp ce lipseau în mod semnificativ din altele.

Deci de ce adoptarea neuniformă? În general, asta se reduce la risc. Instrumentele AI sunt excelente pentru sarcini precum detectarea fraudelor, unde algoritmii bine stabiliți și testați pot face lucruri pe care analiștii pur și simplu nu le pot, revizuind ramuri vaste de date în milisecunde. Asta a devenit
norma, mai ales pentru că nu este esențial să înțelegem fiecare decizie în detaliu.

Alte procese au fost mai rezistente la schimbare. De obicei, asta nu se datorează faptului că un algoritm nu s-ar putea descurca mai bine, ci mai degrabă pentru că – în domenii precum evaluarea creditului sau detectarea spălării banilor – potențialul de apariție a unor părtiniri neașteptate este inacceptabil.
Acest lucru este deosebit de acut în punctajul creditului atunci când un împrumut sau un credit ipotecar ar putea fi refuzat din cauza caracteristicilor non-financiare - inclusiv a prejudecăților rasiale.

În timp ce adoptarea tehnicilor AI mai vechi a progresat an de an, sosirea IA generativă, caracterizată de ChatGPT, a schimbat totul. Potențialul noilor modele – atât bune, cât și rele – este uriaș, iar comentariile s-au împărțit în consecință.
Ceea ce este clar este că nicio organizație nu vrea să rateze avantajul. În ciuda discuțiilor despre riscuri legate de modelele Generative și Frontier, 2023 a fost plin de entuziasm cu privire la revoluția care urmează.

Două Obiective

Un caz de utilizare principal pentru AI în spațiul criminalității financiare este detectarea și prevenirea activităților frauduloase și criminale. Eforturile sunt, în general, concentrate în jurul a două obiective similare, dar diferite. Acestea sunt 1) zădărnicirea activității frauduloase – oprirea dvs. sau
prietenul sau ruda dvs. de a fi fraudat – și 2) respectarea ghidurilor de reglementare existente pentru a sprijini combaterea spălării banilor (AML) și combaterea finanțării terorismului (CFT).

Din punct de vedere istoric, implementările AI în AML și CFT s-au confruntat cu preocupări cu privire la posibila trecere cu vederea activității critice în comparație cu metodele tradiționale bazate pe reguli. Acest lucru s-a schimbat în ultimii 5-10 ani, autoritățile de reglementare inițiind o schimbare prin încurajarea inovației
pentru a ajuta în cazurile de CSB și CFT – declarând că inovatorii vor fi judecați după rezultatele lor generale, nu după unele alerte ratate.

Cu toate acestea, în ciuda utilizării modelelor de învățare automată în prevenirea fraudei în ultimele decenii, adoptarea în CSB/CFT a fost mult mai lentă, cu o prevalență pentru titluri și predicții față de acțiunile reale. Apariția IA generativă pare să se schimbe
acea ecuație în mod dramatic.

Un punct luminos pentru conformitatea cu inteligența artificială în ultimii 5 ani a fost în screening-ul clienților și al contrapărților, în special atunci când vine vorba de cantitățile mari de date implicate în filtrarea de înaltă calitate Adverse Media (alias Negative News) în care organizațiile
căutați primele semne de risc în mass-media pentru a se proteja de potențiale probleme.

Natura screening-ului de mare volum față de miliarde de documente nestructurate a însemnat că avantajele învățării automate și ale inteligenței artificiale depășesc cu mult riscurile și permit organizațiilor să efectueze verificări care pur și simplu nu ar fi posibile.
in caz contrar.

Acum, băncile și alte organizații vor să meargă mai departe. Pe măsură ce modelele generației AI încep să se apropie de AGI (Inteligenta generală artificială), unde pot depăși în mod obișnuit analiștii umani, întrebarea este când și nu dacă pot folosi tehnologia pentru a
susține mai bine deciziile și poate chiar să ia deciziile în mod unilateral.

Siguranța AI în conformitate

Summit-ul AI Safety Summit din 2023 a fost o etapă semnificativă în recunoașterea importanței AI. Summit-ul a dus la semnarea a 28 de țări a unei declarații de a continua întâlnirile pentru abordarea riscurilor AI. Evenimentul a dus la inaugurarea

Institutul de Siguranță AI
, care va contribui la cercetarea și colaborarea viitoare pentru a asigura siguranța acestuia.

Deși există avantaje în a avea un accent internațional pe conversația AI, modelele de transformatoare GPT au fost principalele zone de interes în timpul Summit-ului. Acest lucru prezintă un risc de simplificare excesivă sau de confuzie a spectrului mai larg de IA pentru persoanele neobișnuite.

AI nu este doar generativă, iar tehnologiile diferite oferă o gamă masivă de caracteristici diferite. De exemplu, în timp ce modul în care funcționează AI generativ este aproape în întregime opac sau „cutie neagră”, o mare parte din IA moștenită poate prezenta motivele
decizii.

Dacă nu vrem să mergem înapoi cu panica AI, autoritățile de reglementare și alții trebuie să înțeleagă complexitatea. Băncile, agențiile guvernamentale și companiile globale trebuie să adopte o abordare atentă a utilizării AI. Ei trebuie să sublinieze siguranța, atenția,
și utilizarea explicabilă atunci când este folosit în interiorul și în afara cadrelor de conformitate.

Drumul în față

Peisajul conformității necesită o revizuire a standardelor pentru utilizarea responsabilă a IA. Este esențial să se stabilească cele mai bune practici și obiective clare pentru a ajuta organizațiile să se îndepărteze de soluțiile AI asamblate în grabă care compromit acuratețea. Acuratețe, fiabilitate,
și inovația sunt la fel de importante pentru a atenua fabricarea sau potențiala dezinformare.

În sectorul bancar, inteligența artificială este folosită pentru a sprijini analiștii de conformitate care se confruntă deja cu constrângerile de timp și cu responsabilitățile de reglementare în creștere. AI poate ajuta în mod semnificativ echipele prin automatizarea sarcinilor banale, sporind procesele de luare a deciziilor,
și îmbunătățirea detectării fraudelor.

Regatul Unit poate și ar trebui să beneficieze de cele mai recente oportunități. Ar trebui să cultivăm un ecosistem de inovare care să fie receptiv la inovarea AI în domeniul fintech, regtech și nu numai. Claritate din partea guvernului și a liderilor de gândire cu privire la IA, adaptată implementărilor practice
în industrie este cheia. De asemenea, trebuie să fim deschiși să primim noi absolvenți din fondul global de talente în creștere pentru AI, pentru a consolida poziția țării în soluțiile de pionierat bazate pe AI și pentru a le integra fără probleme. Pe fondul schimbărilor din industrie, prioritizarea și sprijinirea
desfășurarea responsabilă a inteligenței artificiale este crucială pentru lupta continuă cu succes împotriva tuturor aspectelor criminalității financiare.

Timestamp-ul:

Mai mult de la Fintextra