Bekämpfung von KI mit KI-Betrugsüberwachung für Deepfake-Anwendungen – KDnuggets

Bekämpfung von KI mit KI-Betrugsüberwachung für Deepfake-Anwendungen – KDnuggets

Quellknoten: 2667255
Bekämpfen Sie KI mit KI-Betrugsüberwachung für Deepfake-Anwendungen
Photo by Tima Miroschnitschenko
 

Deepfakes sind seit einigen Jahren ein großes Gesprächsthema in der Data-Science-Community. Im Jahr 2020 erschien der MIT Technology Review postulierte, dass Deep Fakes hatten ihren „Wendepunkt für den Mainstream-Einsatz“ erreicht.

Die Daten belegen das auf jeden Fall. Der Wall Street Journal berichtete, dass im Jahr 10,000 weniger als 2018 Deepfakes online gefunden wurden. Mittlerweile belaufen sich diese Zahlen auf Millionen, und es gibt viele reale Beispiele dafür, dass Deepfakes sowohl zur Verwirrung und Fehlinformation als auch zur Aufrechterhaltung von Finanzbetrug eingesetzt werden. 

Insgesamt bieten Deepfake-Techniken Cyberkriminellen viele ausgefeilte Möglichkeiten.

Sie gehen weit über die Möglichkeit hinaus, das Bild einer Berühmtheit in Werbematerial für ein „unumgängliches“ Bitcoin-Angebot einzufügen, was sich natürlich als Betrug herausstellt. Vor allem Deepfake-Videos stehen auf dem Radar von Betrügern. Sie bieten ihnen eine Möglichkeit, automatisierte ID- und KYC-Prüfungen zu bestehen, und haben sich als erschreckend effektiv erwiesen.

Im Mai 2022, The Verge berichtet, dass „Lebendigkeitstests„, die von Banken und anderen Institutionen zur Überprüfung der Identität von Benutzern verwendet werden, können durch Deep Fakes leicht getäuscht werden. Die entsprechende Studie ergab, dass 90 % der getesteten ID-Verifizierungssysteme anfällig waren.

Was ist also die Antwort? Treten wir in eine Ära ein, in der Cyberkriminelle Deep-Fake-Technologie problemlos nutzen können, um die Sicherheitsmaßnahmen von Finanzinstituten zu überlisten? Müssen solche Unternehmen ihre automatisierten Systeme aufgeben und auf manuelle, menschliche Kontrollen zurückgreifen?

Die einfache Antwort lautet „wahrscheinlich nicht“. Genauso wie Kriminelle den Zustrom ausnutzen können KI-FortschritteDas gilt auch für die Unternehmen, auf die sie abzielen. Schauen wir uns nun an, wie gefährdete Unternehmen KI mit KI bekämpfen können.

Deepfakes werden mit einer Reihe von Techniken der künstlichen Intelligenz hergestellt, wie zum Beispiel:

  • generative kontradiktorische Netzwerke (GANs) 
  • Encoder/Decoder-Paare
  • Bewegungsmodelle erster Ordnung

Auf den ersten Blick mögen diese Techniken so klingen, als wären sie ausschließlich der Community des maschinellen Lernens vorbehalten, mit hohen Eintrittsbarrieren und dem Bedarf an technischem Expertenwissen. Allerdings sind sie, wie auch andere Elemente der KI, im Laufe der Zeit erheblich zugänglicher geworden.

Kostengünstige Standardtools ermöglichen es jetzt technisch nicht versierten Benutzern, Deep Fakes zu erstellen, genauso wie sich jeder bei OpenAI anmelden und die Funktionen von ChatGPT testen kann.

Erst im Jahr 2020 berichtete das Weltwirtschaftsforum, dass die Kosten für die Herstellung eines „Stand der Technik„Deepfake kostet weniger als 30,000 US-Dollar. Doch im Jahr 2023 gab Ethan Mollick, Professor an der Wharton School, über einen viralen Twitter-Beitrag bekannt, dass er eine produziert hatte Deep-Fake-Video wie er in weniger als sechs Minuten einen Vortrag hält.

Mollicks Gesamtausgaben beliefen sich auf 10.99 $. Er nutzte einen Dienst namens ElevenLabs, um seine Stimme für 5 US-Dollar nahezu perfekt nachzuahmen. Ein anderer Dienst namens D-ID, der 5.99 US-Dollar pro Monat kostet, erstellte ein Video, das nur auf einem Skript und einem einzigen Foto basierte. Er nutzte sogar ChatGPT, um das Skript selbst zu erstellen.

Als Deepfakes zum ersten Mal auftauchten, lag der Schwerpunkt vor allem auf gefälschten politischen Videos (und gefälschter Pornografie). Seitdem hat die Welt Folgendes gesehen:

  • BuzzFeedVideos erstellt eine gefälschte öffentlich-rechtliche Bekanntmachung „mit“ Barack Obama, verkörpert vom Schauspieler Jordon Peele.
  • Ein gefälschtes YouTube-Video, das angeblich zeigt, wie Donald Trump eine Geschichte über ein Rentier erzählt.
  • Ein Fake-Video von Hilary Clinton, das bei Saturday Night Live gezeigt wurde, als sie tatsächlich von einem Darsteller verkörpert wurde.

Während diese Beispiele die „lustige“ Seite von Deepfakes zeigen und vielleicht einen Einblick in die Realität der Möglichkeiten der Technologie liefern, haben Betrüger keine Zeit damit verschwendet, sie für schändliche Zwecke zu nutzen. 

Es gibt viele Beispiele aus dem wirklichen Leben für Betrug, der mithilfe von Deepfake-Techniken aufrechterhalten wird.

Die Verluste durch Deep-Fake-Betrügereien liegen zwischen Hunderttausenden und vielen Millionen. Im Jahr 2021 wurde ein KI-Stimmenklonierungsbetrug genutzt, um betrügerische Banküberweisungen in Höhe von 35 Millionen US-Dollar zu arrangieren. Das war ein riesiger finanzieller Gewinn, der sich nicht einmal bezahlt machte erfordern der Einsatz von Videos.

Die Qualität der KI-Ausgabe, insbesondere von Videos, kann sehr unterschiedlich sein. Einige Videos sind für Menschen offensichtlich gefälscht. Aber wie oben erwähnt, haben sich automatisierte Systeme, wie sie von Banken und Fintechs verwendet werden, in der Vergangenheit als leicht zu täuschen erwiesen.

Das Gleichgewicht wird sich wahrscheinlich noch weiter verschieben, da sich die KI-Fähigkeiten weiter verbessern. Eine neuere Entwicklung ist die Einbeziehung der „Gegenforensik“, bei der Deep Fakes „gezieltes unsichtbares „Rauschen“ hinzugefügt wird, um Erkennungsmechanismen zu täuschen.

Was kann also getan werden?

So wie Betrüger versuchen, die neueste KI-Technologie zu nutzen, um finanziellen Gewinn zu erzielen, arbeiten Unternehmen wie Technologiefirmen hart daran, Möglichkeiten zu finden, mithilfe von Technologie Kriminelle zu fangen.

Hier sind ein paar Beispiele von Unternehmen, die KI zur Bekämpfung der KI einsetzen:

Ende 2022 brachte Intel ein KI-basiertes Tool namens „Gefälschter Fänger“. Mit der von Intel angegebenen Zuverlässigkeitsrate von 96 % nutzt es eine Technologie namens Photoplethysmographie (PPG).

Die Technologie nutzt etwas, das in künstlich erzeugten Videos nicht vorhanden ist: den Blutfluss. Der Deep-Learning-Algorithmus basiert auf legitimen Videos und misst das Licht, das von Blutgefäßen absorbiert oder reflektiert wird, die ihre Farbe ändern, wenn sich Blut durch den Körper bewegt.

FakeCatcher, Teil der Responsible AI-Initiative von Intel, wird als „der weltweit erste Deep-Fake-Detektor in Echtzeit, der Ergebnisse in Millisekunden zurückgibt“ beschrieben. Dabei handelt es sich um eine innovative Technologie, die nach Anzeichen dafür sucht, dass die in einem Video gezeigte Person wirklich ein Mensch ist. Es sucht nach etwas, das „richtig“ ist, anstatt Daten zu analysieren, um etwas hervorzuheben, das „falsch“ ist. So wird die Wahrscheinlichkeit einer Fälschung angezeigt.

In der Zwischenzeit haben Informatiker der University of Buffalo (UB) an einer eigenen Deepfake-Erkennungstechnologie gearbeitet. Es nutzt etwas, von dem begeisterte PC-Gamer wissen, dass es eine enorme Rechenleistung erfordert, um es zu emulieren: Licht.

Laut UB ist das KI-Tool bei gefälschten Fotos zu 94 % effektiv und untersucht, wie Licht in den Augen des Motivs reflektiert wird. Die Oberfläche der Hornhaut fungiert als Spiegel und erzeugt „reflektierende Muster“.

Die Studie der Wissenschaftler mit dem Titel „Exposed GAN-Generated Faces Using Inconsistent Corneal Specular Highlights“ zeigt, dass „GAN-synthetisierte Gesichter mit inkonsistenten Hornhaut-Spiegellichtern zwischen zwei Augen belichtet werden können“.

Es deutet darauf hin, dass es für KI-Systeme „nicht trivial“ wäre, die echten Highlights zu emulieren. PC-Spieler, die oft in die neuesten Raytracing-Grafikkarten investieren, um realistische Lichteffekte zu erleben, werden die Herausforderungen hier instinktiv erkennen.

Die vielleicht größte Herausforderung bei der Betrugserkennung ist das endlose „Katz-und-Maus“-Spiel zwischen Betrügern und denjenigen, die daran arbeiten, sie zu vereiteln. Es ist sehr wahrscheinlich, dass im Zuge von Ankündigungen wie den oben genannten bereits an der Entwicklung von Technologien gearbeitet wird, die solche Erkennungsmechanismen umgehen und übertreffen können.

Es ist auch eine Sache, dass es solche Mechanismen gibt, aber eine andere, dass sie routinemäßig in die von Unternehmen verwendeten Lösungen integriert werden. Zuvor haben wir uns auf eine Statistik bezogen, die darauf hindeutet, dass 90 % der Lösungen „leicht getäuscht“ werden können. Es ist wahrscheinlich, dass zumindest einige Finanzinstitute solche Systeme noch nutzen.

Ein weiser Betrugsüberwachung Die Strategie erfordert, dass Unternehmen über die Erkennung von Deep Fakes hinausblicken. Es kann viel getan werden Bevor Ein Betrüger gelangt so weit in ein System, dass er an einer videobasierten ID-Überprüfung oder einem KYC-Prozess teilnehmen kann. Vorsichtsmaßnahmen, die zu einem früheren Zeitpunkt in den Prozess einfließen, können auch Elemente von KI und maschinellem Lernen umfassen.

Beispielsweise kann maschinelles Lernen sowohl zur Betrugsüberwachung in Echtzeit als auch zur Erstellung von Regelsätzen eingesetzt werden. Diese können historische Betrugsereignisse untersuchen und Muster erkennen, die von einem Menschen leicht übersehen werden könnten. Als risikoreich eingestufte Transaktionen können direkt abgelehnt oder einer manuellen Überprüfung unterzogen werden bevor es überhaupt ankommt eine Phase, in der es möglicherweise zu einer Identitätsprüfung kommt – und damit eine Gelegenheit für einen Betrüger, sich Deepfake-Technologie zunutze zu machen.

Je früher ein System einen Cyberkriminellen erkennt, desto besser. Die Wahrscheinlichkeit, dass sie ein Verbrechen aufrechterhalten, ist geringer und das Unternehmen muss weniger Geld für weitere Kontrollen ausgeben. Videobasierte Identitätsprüfungen sind kostspielig, selbst ohne den Einsatz von KI-Technologie zur Erkennung von Deep Fakes.

Gelingt es, Betrüger mit Techniken wie dem digitalen Footprinting zu identifizieren, bevor sie so weit kommen, stehen mehr Ressourcen zur Verfügung, um die Kontrolle weiterer Grenzfälle zu optimieren.

Es liegt in der Natur des maschinellen Lernens, dass es mit der Zeit besser darin wird, Anomalien zu erkennen und Betrug zu bekämpfen. KI-gestützte Systeme können aus neuen Mustern lernen und möglicherweise betrügerische Transaktionen in einem frühen Stadium des Prozesses herausfiltern.

Speziell im Hinblick auf Deepfakes gibt das obige Beispiel Anlass zur Hoffnung. Wissenschaftler haben einen Weg gefunden, die überwiegende Mehrheit der Deepfakes mithilfe von Lichtreflexionen zu erkennen. Entwicklungen wie diese stellen einen erheblichen Fortschritt in der Betrugsprävention dar und stellen eine erhebliche Hürde für Cyberkriminelle dar.

Theoretisch ist es für Betrüger viel einfacher, eine solche Erkennungstechnologie einzusetzen, als einen Weg zu finden, sie zu umgehen – indem sie beispielsweise das Verhalten von Licht schnell und in großem Maßstab nachbilden. Das „Katz-und-Maus“-Spiel wird wahrscheinlich ewig weitergehen, aber große Technologie- und Finanzkonzerne verfügen über die Ressourcen und die großen Taschen, um – zumindest theoretisch – einen kleinen Schritt voraus zu sein.
 
 
Jimmy Fong ist der CCO von SEON und bringt seine umfassende Erfahrung in der Betrugsbekämpfung ein, um Betrugsteams überall zu unterstützen.
 

Zeitstempel:

Mehr von KDnuggets