Ein Jahr später, der Ausblick für generative KI im FS

Ein Jahr später, der Ausblick für generative KI im FS

Quellknoten: 3020456

Vor etwas mehr als einem Jahr ChatGPT gestartet. Die Aufregung, Angst und der Optimismus, die mit der neuen KI verbunden sind, lassen kaum nach. Im November wurde OpenAI-CEO Sam Altman seines Amtes enthoben, kehrte dann aber zurück
ein paar Tage später. Rishi Sunak war Gastgeber der führenden Persönlichkeiten der Welt
Der britische KI-Sicherheitsgipfel
, Interview mit Elon Musk vor einem Treffen von Weltführern und Technologieunternehmern. Gerüchten zufolge stehen KI-Forscher hinter den Kulissen noch weiteren Durchbrüchen nahe. 

Was bedeutet das alles für die Branchen, die von KI profitieren wollen, sich aber der Risiken nicht bewusst sind?

Eine Form des maschinellen Lernens – was wir früher KI nannten – gibt es schon seit einem Jahrhundert. Seit den frühen 1990er Jahren sind diese Tools ein zentrales operatives Element einiger Bank-, Regierungs- und Unternehmensprozesse, während sie in anderen deutlich fehlen.

Warum also die ungleiche Akzeptanz? Im Allgemeinen liegt das am Risiko. KI-Tools eignen sich hervorragend für Aufgaben wie die Betrugserkennung, bei denen gut etablierte und getestete Algorithmen Dinge tun können, die Analysten einfach nicht können, indem sie riesige Datenmengen in Millisekunden überprüfen. Das ist geworden
die Norm, insbesondere weil es nicht unbedingt erforderlich ist, jede einzelne Entscheidung im Detail zu verstehen.

Andere Prozesse waren resistenter gegenüber Veränderungen. Normalerweise liegt das nicht daran, dass ein Algorithmus keine bessere Leistung erbringen könnte, sondern vielmehr daran, dass in Bereichen wie der Kreditwürdigkeitsprüfung oder der Aufdeckung von Geldwäsche die Möglichkeit, dass sich unerwartete Verzerrungen einschleichen, inakzeptabel ist.
Dies gilt insbesondere für die Kreditwürdigkeitsprüfung, wenn ein Kredit oder eine Hypothek aufgrund nichtfinanzieller Merkmale – einschließlich rassistischer Vorurteile – abgelehnt werden könnte.

Während die Einführung älterer KI-Techniken Jahr für Jahr voranschreitet, hat die Einführung der generativen KI, gekennzeichnet durch ChatGPT, alles verändert. Das Potenzial für die neuen Modelle – sowohl gute als auch schlechte – ist riesig und die Kommentare sind entsprechend gespalten.
Klar ist, dass sich kein Unternehmen den Vorteil entgehen lassen möchte. Trotz der Diskussion über Risiken bei Generative- und Frontier-Modellen war das Jahr 2023 voller Aufregung über die bevorstehende Revolution.

Zwei Ziele

Ein Hauptanwendungsfall für KI im Bereich der Finanzkriminalität ist die Erkennung und Verhinderung betrügerischer und krimineller Aktivitäten. Die Bemühungen konzentrieren sich im Allgemeinen auf zwei ähnliche, aber unterschiedliche Ziele. Dies sind 1) die Verhinderung betrügerischer Aktivitäten – Sie zu stoppen oder
dass Ihr Freund oder Verwandter nicht betrogen wird – und 2) die bestehenden regulatorischen Richtlinien zur Bekämpfung von Geldwäsche (AML) und Terrorismusfinanzierung (CFT) einhalten.

In der Vergangenheit gab es bei KI-Einsätzen im Bereich der Bekämpfung von Geldwäsche und Terrorismusfinanzierung Bedenken, dass kritische Aktivitäten im Vergleich zu herkömmlichen regelbasierten Methoden möglicherweise übersehen werden könnten. Das hat sich in den letzten fünf bis zehn Jahren geändert, da die Regulierungsbehörden durch die Förderung von Innovationen einen Wandel eingeleitet haben
um bei AML- und CFT-Fällen zu helfen – und erklärt, dass Innovatoren anhand ihrer Gesamtergebnisse und nicht anhand einiger verpasster Warnungen beurteilt werden.

Trotz des Einsatzes maschineller Lernmodelle zur Betrugsprävention in den letzten Jahrzehnten verlief die Einführung im Bereich der Bekämpfung von Geldwäsche und Terrorismusfinanzierung viel langsamer, wobei Schlagzeilen und Vorhersagen Vorrang vor tatsächlichen Maßnahmen hatten. Das Aufkommen der generativen KI dürfte sich ändern
diese Gleichung dramatisch.

Ein Lichtblick für KI im Bereich Compliance war in den letzten fünf Jahren die Überprüfung von Kunden und Gegenparteien, insbesondere wenn es um die riesigen Datenmengen geht, die bei der Überprüfung hochwertiger unerwünschter Medien (auch Negativnachrichten genannt) von Unternehmen anfallen
Suchen Sie in den Nachrichtenmedien nach ersten Anzeichen von Risiken, um sich vor potenziellen Problemen zu schützen.

Die Art der großvolumigen Prüfung von Milliarden unstrukturierter Dokumente hat dazu geführt, dass die Vorteile von maschinellem Lernen und künstlicher Intelligenz die Risiken bei weitem überwiegen und es Unternehmen ermöglichen, Prüfungen durchzuführen, die einfach nicht möglich wären
Andernfalls.

Jetzt wollen Banken und andere Organisationen noch einen Schritt weiter gehen. Da die Modelle der Generation AI beginnen, sich der AGI (Künstliche Allgemeine Intelligenz) zu nähern, wo sie menschliche Analysten routinemäßig übertreffen können, stellt sich die Frage, wann und nicht ob sie die Technologie dazu nutzen können
Entscheidungen besser unterstützen und die Entscheidungen möglicherweise sogar einseitig treffen.

KI-Sicherheit in Compliance

Der AI Safety Summit 2023 war ein wichtiger Meilenstein bei der Anerkennung der Bedeutung von KI. Der Gipfel führte dazu, dass 28 Länder eine Erklärung unterzeichneten, wonach Treffen zur Bewältigung von KI-Risiken fortgesetzt werden sollen. Die Veranstaltung führte zur Einweihung des

KI-Sicherheitsinstitut
, das zur künftigen Forschung und Zusammenarbeit beitragen wird, um seine Sicherheit zu gewährleisten.

Obwohl es Vorteile bietet, sich international auf die KI-Konversation zu konzentrieren, standen die GPT-Transformator-Modelle im Mittelpunkt des Gipfels. Dies birgt die Gefahr, dass das breitere KI-Spektrum für ungeübte Personen zu stark vereinfacht oder verwirrt wird.

KI ist nicht nur generativ und verschiedene Technologien bieten eine Vielzahl unterschiedlicher Eigenschaften. Während beispielsweise die Funktionsweise der generativen KI fast völlig undurchsichtig oder „Black Box“ ist, kann ein Großteil der veralteten KI die Gründe dafür aufzeigen
Entscheidungen.

Wenn wir nicht in KI-Panik verfallen wollen, müssen Regulierungsbehörden und andere die Komplexität verstehen. Banken, Regierungsbehörden und globale Unternehmen müssen beim Einsatz von KI einen durchdachten Ansatz verfolgen. Sie müssen darauf achten, dass es angemessen ist, sicher und vorsichtig zu sein.
und erklärbarer Nutzen bei Nutzung innerhalb und außerhalb von Compliance-Rahmenwerken.

Die Straße entlang

Die Compliance-Landschaft erfordert eine Überprüfung der Standards für einen verantwortungsvollen Einsatz von KI. Es ist wichtig, Best Practices und klare Ziele zu etablieren, um Unternehmen dabei zu helfen, sich von hastig zusammengestellten KI-Lösungen fernzuhalten, die die Genauigkeit gefährden. Genauigkeit, Zuverlässigkeit,
und Innovation sind gleichermaßen wichtig, um Fälschungen oder potenzielle Fehlinformationen einzudämmen.

Im Bankensektor wird KI zur Unterstützung von Compliance-Analysten eingesetzt, die bereits mit Zeitmangel und wachsenden regulatorischen Verantwortlichkeiten zu kämpfen haben. KI kann Teams erheblich unterstützen, indem sie alltägliche Aufgaben automatisiert, Entscheidungsprozesse erweitert und
und Verbesserung der Betrugserkennung.

Das Vereinigte Königreich kann und sollte von den neuesten Möglichkeiten profitieren. Wir sollten ein Innovationsökosystem pflegen, das für KI-Innovationen in den Bereichen Fintech, Regtech und darüber hinaus aufgeschlossen ist. Klarheit von Regierung und Vordenkern zu KI, maßgeschneidert für praktische Umsetzungen
in der Branche ist der Schlüssel. Wir müssen auch offen dafür sein, neue Absolventen aus dem wachsenden globalen Talentpool für KI willkommen zu heißen, um die Position des Landes bei der Entwicklung von KI-gesteuerten Lösungen und deren nahtloser Integration zu stärken. Inmitten des Branchenwandels Prioritätensetzung und Unterstützung
Der verantwortungsvolle Einsatz von KI ist für den erfolgreichen Kampf gegen alle Aspekte der Finanzkriminalität von entscheidender Bedeutung.

Zeitstempel:

Mehr von Fintextra