Een jaar later: de vooruitzichten voor generatieve AI in FS

Een jaar later: de vooruitzichten voor generatieve AI in FS

Bronknooppunt: 3020456

Iets meer dan een jaar geleden, ChatGPT gelanceerd. De opwinding, angst en optimisme die met de nieuwe AI gepaard gaan, vertonen weinig tekenen van afname. In november werd Sam Altman, CEO van OpenAI, uit zijn functie ontheven, maar keerde terug
enkele dagen later. Rishi Sunak was gastheer van wereldleiders tijdens de conferentie
De Britse AI Safety Summit
, waarin hij Elon Musk interviewde voor een bijeenkomst van wereldleiders en technologieondernemers. Achter de schermen gaan geruchten dat AI-onderzoekers dicht bij nog meer doorbraken zijn. 

Wat betekent dit allemaal voor de sectoren die willen profiteren van AI, maar niet zeker zijn van de risico’s?

Een vorm van machinaal leren – wat we vroeger AI noemden – bestaat al een eeuw. Sinds het begin van de jaren negentig zijn deze instrumenten een belangrijk operationeel onderdeel geweest van sommige bank-, overheids- en bedrijfsprocessen, terwijl ze bij andere juist afwezig waren.

Dus waarom de ongelijke adoptie? Over het algemeen heeft dat te maken met risico's. AI-tools zijn geweldig voor taken als fraudedetectie, waarbij gevestigde en geteste algoritmen dingen kunnen doen die analisten eenvoudigweg niet kunnen, door enorme hoeveelheden gegevens in milliseconden te beoordelen. Dat is geworden
de norm, vooral omdat het niet essentieel is om elke beslissing tot in detail te begrijpen.

Andere processen zijn beter bestand tegen verandering. Meestal is dat niet omdat een algoritme het niet beter zou kunnen doen, maar eerder omdat – op gebieden als kredietscores of het opsporen van witwaspraktijken – de kans op het binnensluipen van onverwachte vooroordelen onaanvaardbaar is.
Dat is vooral acuut bij het beoordelen van kredieten wanneer een lening of hypotheek kan worden geweigerd vanwege niet-financiële kenmerken – waaronder raciale vooroordelen.

Terwijl de adoptie van oudere AI-technieken jaar na jaar vordert, heeft de komst van Generatieve AI, gekenmerkt door ChatGPT, alles veranderd. Het potentieel voor de nieuwe modellen – zowel goede als slechte – is enorm, en het commentaar is dienovereenkomstig verdeeld.
Wat duidelijk is, is dat geen enkele organisatie de positieve kant wil missen. Ondanks het gepraat over risico's met generatieve en frontier-modellen, is 2023 bruisend van opwinding over de komende revolutie.

Twee doelstellingen

Een primair gebruiksscenario voor AI op het gebied van financiële criminaliteit is het opsporen en voorkomen van frauduleuze en criminele activiteiten. De inspanningen zijn over het algemeen geconcentreerd rond twee vergelijkbare maar verschillende doelstellingen. Dit zijn 1) het tegenwerken van frauduleuze activiteiten – u tegenhouden of
voorkomen dat uw vriend of familielid wordt opgelicht – en 2) het naleven van de bestaande wettelijke richtlijnen ter ondersteuning van de bestrijding van het witwassen van geld (AML) en de bestrijding van de financiering van terrorisme (CFT).

Historisch gezien hebben AI-implementaties in de AML en CFT te maken gehad met zorgen over het mogelijk over het hoofd zien van kritieke activiteiten in vergelijking met traditionele, op regels gebaseerde methoden. Dat is de afgelopen vijf tot tien jaar veranderd, waarbij toezichthouders een verschuiving in gang hebben gezet door innovatie aan te moedigen
om te helpen bij AML- en CFT-zaken – waarbij wordt verklaard dat innovators zullen worden beoordeeld op basis van hun algehele resultaten en niet op basis van enkele gemiste waarschuwingen.

Ondanks het gebruik van machine learning-modellen bij fraudepreventie in de afgelopen decennia is de invoering van AML/CFT echter veel trager verlopen, waarbij krantenkoppen en voorspellingen belangrijker zijn geworden dan daadwerkelijke actie. De komst van generatieve AI lijkt waarschijnlijk te veranderen
die vergelijking dramatisch.

Een lichtpuntje voor AI op het gebied van compliance van de afgelopen vijf jaar was de screening van klanten en tegenpartijen, vooral als het gaat om de enorme hoeveelheden gegevens die betrokken zijn bij hoogwaardige screening van Adverse Media (ook wel Negatief Nieuws genoemd), waarbij organisaties
zoek naar de eerste tekenen van risico in de nieuwsmedia om zichzelf tegen mogelijke problemen te beschermen.

De aard van grootschalige screening van miljarden ongestructureerde documenten heeft ertoe geleid dat de voordelen van machinaal leren en kunstmatige intelligentie ruimschoots opwegen tegen de risico's en organisaties in staat stellen controles uit te voeren die eenvoudigweg niet mogelijk zouden zijn.
anders.

Nu willen banken en andere organisaties een stap verder gaan. Nu generatie-AI-modellen AGI (Artificial General Intelligence) beginnen te benaderen waar ze routinematig beter kunnen presteren dan menselijke analisten, is de vraag wanneer, en niet of, ze de technologie kunnen gebruiken om
beslissingen beter te ondersteunen en mogelijk zelfs eenzijdig beslissingen te nemen.

AI-veiligheid bij naleving

De AI Safety Summit van 2023 was een belangrijke mijlpaal in de erkenning van het belang van AI. De top resulteerde erin dat 28 landen een verklaring ondertekenden om door te gaan met bijeenkomsten om AI-risico's aan te pakken. De gebeurtenis leidde tot de inhuldiging van de

AI-veiligheidsinstituut
, wat zal bijdragen aan toekomstig onderzoek en samenwerking om de veiligheid ervan te garanderen.

Hoewel er voordelen zitten aan een internationale focus op het AI-gesprek, waren de GPT-transformatormodellen de belangrijkste aandachtsgebieden tijdens de Summit. Dit brengt het risico met zich mee dat het bredere AI-spectrum voor niet-gewenden individuen te simplistisch of verwarrend wordt.

AI is niet alleen generatief en verschillende technologieën bieden een enorm scala aan verschillende kenmerken. Hoewel de manier waarop generatieve AI werkt bijvoorbeeld bijna volledig ondoorzichtig of een ‘black box’ is, kan een groot deel van de oudere AI de redenen voor zijn
beslissingen.

Als we niet achteruit willen gaan met AI-paniek, moeten toezichthouders en anderen de complexiteit begrijpen. Banken, overheidsinstanties en mondiale bedrijven moeten een doordachte benadering hanteren ten aanzien van het gebruik van AI. Zij moeten de nadruk leggen op de juiste, veilige, zorgvuldige,
en verklaarbaar gebruik wanneer er gebruik van wordt gemaakt binnen en buiten compliancekaders.

De weg voor ons

Het compliancelandschap vereist een herziening van de normen voor verantwoord AI-gebruik. Het is essentieel om best practices en duidelijke doelstellingen vast te stellen om organisaties te helpen weg te blijven van haastig samengestelde AI-oplossingen die de nauwkeurigheid in gevaar brengen. Nauwkeurigheid, betrouwbaarheid,
en innovatie zijn even belangrijk om verzinsels of mogelijke desinformatie tegen te gaan.

Binnen de banksector wordt AI gebruikt om compliance-analisten te ondersteunen die al worstelen met tijdgebrek en groeiende verantwoordelijkheden op regelgevingsgebied. AI kan teams aanzienlijk helpen door alledaagse taken te automatiseren, besluitvormingsprocessen te verbeteren,
en het verbeteren van de fraudedetectie.

Groot-Brittannië kan en moet profiteren van de nieuwste kansen. We moeten een innovatie-ecosysteem cultiveren dat ontvankelijk is voor AI-innovatie op het gebied van fintech, regtech en daarbuiten. Duidelijkheid van overheid en opinieleiders over AI afgestemd op praktische implementaties
in de sector is van cruciaal belang. We moeten ook openstaan ​​voor het verwelkomen van pas afgestudeerden uit de groeiende mondiale talentenpool voor AI om de positie van het land te versterken op het gebied van baanbrekende AI-gestuurde oplossingen en deze naadloos te integreren. Te midden van veranderingen in de sector, prioriteiten stellen en steun verlenen
Een verantwoorde inzet van AI is cruciaal voor de succesvolle voortdurende strijd tegen alle aspecten van financiële criminaliteit.

Tijdstempel:

Meer van Fintextra