Brechen Sie die Fälschung: Der Wettlauf um das Stoppen des Voice-Cloning-Betrugs ist eröffnet

Brechen Sie die Fälschung: Der Wettlauf um das Stoppen des Voice-Cloning-Betrugs ist eröffnet

Quellknoten: 3083621

Scams

Während KI-gestütztes Stimmenklonen Betrüger-Betrügereien beschleunigt, setzen wir uns mit Jake Moore von ESET zusammen, um zu besprechen, wie man bei „Hi-Fi“-Betrugsanrufen auflegt – und was die Zukunft für die Deepfake-Erkennung bereithält

Brechen Sie die Fälschung: Der Wettlauf darum, Betrügereien durch das Klonen von KI-Stimmen zu stoppen, ist eröffnet

Würden Sie auf einen gefälschten Anruf Ihres CEO hereinfallen, der Sie bittet, Geld zu überweisen? Als unser Kollege Jake Moore hat es herausgefunden, vielleicht. Da Computer mit freien Rechenzyklen immer mehr Trainingsdaten erhalten, werden Deepfakes immer besser. Füttere sie mit einer langen CEO-Rede und sie gewinnen Tonfall, Tonfall und andere nuancierte Sprachmuster, die sie schließlich ziemlich überzeugend machen können.

Zumindest in den USA gibt es jetzt eine Wettbewerb, um die Fälschung zu brechen, und hoffentlich Wege finden, Verteidigungssysteme mit Möglichkeiten auszustatten, einen entsprechenden Angriff zu vereiteln. Bei der von der Federal Trade Commission (FTC) ins Leben gerufenen Herausforderung hackten die Teilnehmer jede Technologie zusammen, die sie finden konnten, um Sprachfälschungen zu verhindern und einen Preis von 25,000 US-Dollar zu gewinnen.

Wettbewerbe gab es für alles, von Raumanzugdesigns über selbstfahrende Fahrzeuge bis hin zu Solartechnologien, und zielen nun darauf ab, das Interesse und die Teilnehmer am Deepfake-Verteidigungsbereich zu steigern und einen Wettlauf zum Schutz der Verbraucher vor Schäden durch KI-gestütztes Stimmenklonen zu schaffen. Sobald Sie sich über das Portal angemeldet haben, können Ihre Ideen mit anderen Ansätzen konkurrieren, um hoffentlich Gold einzuheimsen.

Ich frage mich immer noch, ob das jemanden wie Jake aufhalten kann, also habe ich ihn gefragt.

Jake-Moore-Kopfschuss

F: Werden Unternehmen in der Lage sein, sich mit aktuellen, allgemein verfügbaren Technologien gegen diese Bedrohung zu verteidigen (und wenn ja, welche)?

Jake: Leider glaube ich nicht, dass die Antwort noch in Gegenmaßnahmentechnologien zur Bekämpfung dieses sich entwickelnden Problems liegt. Wir befinden uns noch in den Kinderschuhen dieser neuen KI-Ära und viele Unternehmen beschäftigen sich mit der Vorstellung von guten, schlechten und hässlichen Einsatzmöglichkeiten und ihren Fähigkeiten. Technologie wird ständig weiterentwickelt, um Bedürftigen zu helfen, aber wie in jeder Anfangsphase einer neuen Technologie kann das schnelle Tempo einer solchen Bewegung nicht mit der Verschiebung illegaler Forderungen Schritt halten, die sie zum Betrügen von Menschen und Unternehmen nutzt.

F: Gleiche Fragen für Einzelpersonen, denken Sie an Rentnerbetrug, Romantikbetrug und dergleichen?

Jake: KI hat es Betrügern ermöglicht, ihre Aktionen in viel größerem Umfang als zuvor durchzuführen, was bedeutet, dass das Zahlenspiel jetzt noch größer geworden ist. Wenn mehr Menschen ins Visier genommen werden, ist der Gewinn weitaus höher, und die Betrüger müssen sich dafür nicht wirklich mehr anstrengen.

Allerdings müssen Einzelpersonen weiterhin besser auf alle Betrügereien achten – von klassischen Betrügereien bis hin zu aktuellen Trends. Insbesondere mit der Geburt des Stimmenklonens und dem Deepfaking von Ähnlichkeiten mit verblüffender Genauigkeit müssen die Menschen aufhören, so etwas zu denken Sehen (und Hören) ist Glauben. Sich darüber im Klaren zu sein, dass solche Betrügereien möglich sind, wird den Betroffenen das Selbstvertrauen geben, solche Kommunikation genauer in Frage zu stellen, und ihnen beibringen, keine Angst davor zu haben, ihre Handlungen in Frage zu stellen.

Im Internet gibt es zahlreiche Anleitungen zur Sensibilisierung für solche Betrügereien, und die Menschen müssen sich ständig mit den neuesten Informationen auffrischen, um geschützt zu sein und zu bleiben.

Q: Was können institutionelle Betrugsbekämpfungsteams tun, um Angriffe auf ihre Benutzer/Kunden abzuwehren, und wer sollte zahlen, wenn Menschen betrogen werden?

Jake: Standardmäßig müssen Betrugsbekämpfungsteams um jeden Preis Schulungen anbieten, die sowohl jährlich als auch ad hoc für alle Mitglieder einer Organisation stattfinden müssen. Simulationsangriffe und Kriegsspiele tragen auch dazu bei, die Botschaft auf interessante Weise zu vermitteln und einem ernsten Problem eine interessantere Dynamik zu verleihen, sodass ein Scheitern in einer sicheren Umgebung möglich ist.

Sobald die Menschen die Vorstellung eines modernen Angriffs kennengelernt und das Ausmaß dieser neuen Technologie aus erster Hand miterlebt haben, werden sie sich eher an die Ratschläge zum Zeitpunkt eines echten Angriffs erinnern. KI ist immer noch sehr beeindruckend. Deepfakes in einer sicheren Umgebung in Aktion zu sehen, bietet die Möglichkeit, die potenziell gefährlichen Folgen zu demonstrieren, die sie auch hervorrufen können, ohne einen allzu großen Angstfaktor zu erzeugen.

F: Dies ist eindeutig ein Katz-und-Maus-Spiel. Wer wird also gewinnen?

Jake: Von Anfang an gab es eine Verfolgungsjagd zwischen „Polizisten und Räubern“, bei der die Räuber normalerweise ein paar Schritte voraus waren. Da sich die Technologie jedoch verbessert, müssen wir sicherstellen, dass wir nicht ins Hintertreffen geraten und den Betrügern einen noch größeren Vorteil verschaffen.

Es ist von entscheidender Bedeutung, dass die Menschen mit den richtigen Werkzeugen und dem richtigen Wissen ausgestattet sind, um diese unvermeidlichen Angriffe bestmöglich abzuwehren, damit Betrüger nicht immer gewinnen. Indem Einzelpersonen und Unternehmen über die neuesten Angriffsvektoren und sich entwickelnden Betrügereien auf dem Laufenden bleiben, haben sie die besten Chancen, sich gegen diese neue Welle technologischer Angriffe zu verteidigen.

Eines ist sicher: Dies ist keine theoretische Bedrohung mehr. Erwarten Sie, dass 2024 und darüber hinaus die Zeit sein wird, in der Betrüger sehr schnell neue automatisierte Wege finden, um sprachgesteuerte Angriffe zu starten, insbesondere als Reaktion auf katastrophale Ereignisse, bei denen ein vertrauenswürdiger Beamter Sie „auffordert“, etwas zu tun. Es wird alles überzeugend klingen, mit einem Hauch von Dringlichkeit und mit scheinbar akustischer Multi-Faktor-Authentifizierung, aber Sie können trotzdem betrogen werden, selbst wenn Sie „persönlich von einem Beamten gehört“ haben.

Vielen Dank für deine Zeit, Jake.

Zeitstempel:

Mehr von Wir leben Sicherheit