Die Entwickler von Bored Apes geben das militärische Trainingssystem zwischen den USA und Großbritannien auf

Die Entwickler von Bored Apes geben das militärische Trainingssystem zwischen den USA und Großbritannien auf

Quellknoten: 1772253

Hast du jemals Bilder von dir auf Social-Media-Plattformen wie Facebook, Instagram, Tik Tok und anderen gepostet? Wenn ja, ist es vielleicht an der Zeit, diese Beiträge zu überdenken.

Dies liegt daran, dass eine neue KI-Bilderzeugungstechnologie es Benutzern jetzt ermöglicht, eine Reihe von Fotos und Videobildern von Ihnen zu speichern und sie dann darauf zu trainieren, „realistische“ Fälschungen Ihres Fotos zu erstellen, die Sie in geradezu peinlichen, illegalen und manchmal kompromittierenden Positionen zeigen.

Nun, nicht jeder ist gefährdet, aber die Bedrohung ist real.

Obwohl Fotografien schon immer anfällig für waren Manipulation und Fälschung aus der Zeit der Dunkelkammern, wo Filme mit Scheren manipuliert und geklebt wurden, bis hin zum heutigen Photoshopping von Pixeln.

Während es damals eine entmutigende Aufgabe war und ein gewisses Maß an Fachkenntnissen erforderte, wird es heutzutage zu einfach gemacht, überzeugende fotorealistische Fälschungen zu erstellen.

Zunächst muss ein KI-Modell lernen, wie man ein Bild von jemandem per Software aus einem 2D- oder 3D-Modell in ein Foto rendert oder synthetisiert. Sobald das Bild erfolgreich gerendert ist, wird das Bild natürlich zu einem Spielzeug für die Techniker und hat die Fähigkeit, unendliche Mengen von Bildern zu erzeugen.

Wenn man sich dafür entscheidet, das KI-Modell zu teilen, können sich auch andere Personen anschließen und damit beginnen, auch Bilder dieser Person zu erstellen.

KI-Technologie, die lebenszerstörende Deep Fake-Bilder erstellt

Echt oder KI-generiert?

Fallstudien zu sozialen Medien

Ein Freiwilliger, der von als „mutig“ beschrieben wird Ars Technica, eine Tech-Publikation, die dem Unternehmen zunächst erlaubt hatte, seine Bilder zur Erstellung von Fälschungen zu verwenden, änderte ihre Meinung.

Dies liegt daran, dass die Ergebnisse der gerenderten Bilder aus dem KI-Modell in kürzester Zeit zu überzeugend und zu rufschädigend für den Freiwilligen waren.

Angesichts des hohen Reputationsrisikos wurde eine KI-generierte fiktive Person, John, zur natürlichen Wahl.

John, der fiktive Typ, war ein Grundschullehrer, der wie viele andere Leute seine Bilder auf Facebook bei der Arbeit, zu Hause und bei einer solchen Veranstaltung gepostet hat.

Die weitgehend harmlosen Bilder von „John“ wurden gerendert und dann verwendet, um die KI zu trainieren, um ihn in kompromittierendere Positionen zu bringen.

Aus nur sieben Bildern könnte die KI trainiert werden, Bilder zu generieren, die den Anschein erwecken, als ob John ein doppeltes und geheimes Leben führt. Zum Beispiel trat er als jemand auf, der es genoss, in seinem Klassenzimmer nackt für Selfies zu posieren.

Nachts ging er in Bars und sah aus wie ein Clown.

An den Wochenenden war er Teil einer extremistischen paramilitärischen Gruppe.

Die AI erweckte auch den Eindruck, dass er wegen einer Anklage wegen illegaler Drogen im Gefängnis gesessen hatte, diese Tatsache aber vor seinem Arbeitgeber verschwiegen hatte.

Auf einem anderen Bild posiert John, der verheiratet ist, neben einer nackten Frau, die nicht seine Frau in einem Büro ist.

Mit einem KI-Bildgenerator namens Stable Diffusion (Version 1.5) und einer Technik namens Dreambooth konnte Ars Technica der KI beibringen, wie sie Fotos von John in einem beliebigen Stil erstellen kann. Obwohl John eine fiktive Kreation war, könnte jeder theoretisch die gleichen Ergebnisse mit fünf oder mehr Bildern erzielen. Diese Bilder könnten aus Social-Media-Konten entnommen oder als Standbilder aus einem Video entnommen werden.

Der Prozess, der KI beizubringen, wie man Bilder von John erstellt, dauerte etwa eine Stunde und war dank eines Cloud-Computing-Dienstes von Google kostenlos.

Nach Abschluss des Trainings dauerte das Erstellen der Bilder mehrere Stunden, heißt es in der Veröffentlichung. Und das lag nicht daran, dass das Generieren der Bilder ein etwas langsamer Prozess war, sondern daran, dass eine Reihe von „unvollkommenen Bildern“ durchkämmt und eine Art „Trial-and-Error“-Eingabeaufforderung verwendet werden musste, um die besten Bilder zu finden.

Die Studie ergab, dass dies bemerkenswert viel einfacher war als der Versuch, eine fotorealistische Fälschung von „John“ in Photoshop von Grund auf neu zu erstellen.

Dank der Technologie können Menschen wie John so aussehen, als hätten sie illegal gehandelt oder unmoralische Handlungen begangen, wie Einbrüche, den Konsum illegaler Drogen und eine Nacktdusche mit einem Studenten. Wenn die KI-Modelle für Pornografie optimiert sind, können Leute wie John fast über Nacht zu Pornostars werden.

Man kann auch Bilder von John erstellen, der scheinbar harmlose Dinge tut, die verheerend sein können, wenn er in einer Bar beim Trinken gezeigt wird, obwohl er Nüchternheit versprochen hat.

Es endet nicht dort.

Ein Mensch kann auch in leichteren Momenten als mittelalterlicher Ritter oder Astronaut auftreten. In einigen Fällen konnten die Leute entweder jung und alt sein oder sich sogar verkleiden.

Allerdings ist die gerendert Bilder sind alles andere als perfekt. Ein genauerer Blick kann sie als Fälschungen entlarven.

Der Nachteil ist, dass die Technologie, die diese Bilder erstellt, erheblich verbessert wurde und es unmöglich machen könnte, zwischen einem synthetisierten Foto und einem echten zu unterscheiden.

Doch trotz ihrer Fehler könnten die Fälschungen Zweifel an John aufkommen lassen und möglicherweise seinen Ruf ruinieren.

In letzter Zeit haben eine Reihe von Menschen dieselbe Technik (mit echten Menschen) verwendet, um skurrile und künstlerische Profilfotos von sich selbst zu erstellen.

Auch kommerzielle Dienste und Apps wie Linsen sind wie Pilze aus dem Boden geschossen, die das Training handhaben.

Wie funktioniert es?

Die Arbeit an John mag bemerkenswert erscheinen, wenn man nicht den Trends gefolgt ist. Heute wissen Softwareingenieure, wie man neue fotorealistische Bilder von allem, was man sich vorstellen kann, erstellen kann.

Abgesehen von Fotos hat die KI den Menschen kontrovers erlaubt, neue Kunstwerke zu erstellen, die die Arbeit bestehender Künstler ohne ihre Erlaubnis klonen.

Aus ethischen Gründen ausgesetzt

Mitch Jackson, ein US-Technologieanwalt, äußerte sich besorgt über die Verbreitung von Deep-Fake-Technologie auf dem Markt und sagt, er werde die rechtlichen Auswirkungen der Technologie im größten Teil des Jahres 2023 untersuchen.

"Die Unterscheidung zwischen echt und falsch wird für die meisten Verbraucher irgendwann unmöglich.“

Adobe verfügt bereits über eine Audiotechnologie namens Adobe VoCo, die es jedem ermöglicht, genau wie jemand anderes zu klingen. Die Arbeit an Adobe VoCo wurde aus ethischen Gründen ausgesetzt, aber Dutzende anderer Unternehmen perfektionieren die Technologie, wobei einige heute Alternativen anbieten. Sieh es dir an oder höre es dir selbst an“, Mitchum sagte.

Bilder und Videoversionen von Deepfake-Videos werden immer besser, sagt er.

„Manchmal ist es unmöglich, die gefälschten Videos von den echten zu unterscheiden“, fügt er hinzu.

Stable Diffusion verwendet ein Deep-Learning-Bildsynthesemodell, das neue Bilder aus Textbeschreibungen erstellen kann und auf einem Windows- oder Linux-PC, auf einem Mac oder in der Cloud auf gemieteter Computerhardware ausgeführt werden kann.

Das neuronale Netzwerk von Stable Diffusion hat mit Hilfe intensiven Lernens die Zuordnung von Wörtern und die allgemeine statistische Zuordnung zwischen den Positionen von Pixeln in Bildern gemeistert.

Aus diesem Grund kann man Stable Diffusion eine Aufforderung geben, wie z. B. „Tom Hanks in einem Klassenzimmer“, und es wird dem Benutzer ein neues Bild von Tom Hanks in einem Klassenzimmer geben.

Im Fall von Tom Hank ist es ein Kinderspiel, denn Hunderte seiner Fotos befinden sich bereits im Datensatz, der zum Trainieren von Stable Diffusion verwendet wird. Aber um Bilder von Leuten wie John zu machen, braucht die KI etwas Hilfe.

Hier setzt Dreambooth an.

Dreambooth, das am 30. August von Google-Forschern gestartet wurde, verwendet eine spezielle Technik, um Stable Diffusion durch einen Prozess namens „Feinabstimmung“ zu trainieren.

Zunächst war Dreambooth nicht mit Stable Diffusion verbunden, und Google hatte seinen Quellcode aus Angst vor Missbrauch nicht zur Verfügung gestellt.

In kürzester Zeit fand jemand einen Weg, die Dreambooth-Technik so anzupassen, dass sie mit Stable Diffusion funktioniert, und veröffentlichte den Code kostenlos als Open-Source-Projekt, was Dreambooth zu einer sehr beliebten Methode für KI-Künstler machte, um Stable Diffusion neue künstlerische Stile beizubringen.

Weltweite Wirkung

Schätzungsweise 4 Milliarden Menschen weltweit nutzen soziale Medien. Da viele von uns mehr als eine Handvoll Fotos von sich hochgeladen haben, könnten wir alle anfällig für solche Angriffe werden.

Obwohl die Auswirkungen der Bildsynthese-Technologie aus der Sicht eines Mannes dargestellt wurden, tragen Frauen auch die Hauptlast davon.

Wenn das Gesicht oder der Körper einer Frau gerendert wird, kann ihre Identität schelmisch in pornografische Bilder eingefügt werden.

Möglich wurde dies durch die große Anzahl sexualisierter Bilder, die in Datensätzen gefunden wurden, die im KI-Training verwendet werden.

Mit anderen Worten bedeutet dies, dass die KI nur allzu vertraut damit ist, wie diese pornografischen Bilder erzeugt werden.

Um einige dieser ethischen Probleme anzugehen, war Stability AI gezwungen, NSFW-Material aus seinem Trainingsdatensatz für die neuere Version 2.0 zu entfernen.

Obwohl die Softwarelizenz Menschen daran hindert, den KI-Generator zu verwenden, um ohne ihre Erlaubnis Bilder von Menschen zu machen, gibt es nur sehr wenig bis gar kein Potenzial für eine Durchsetzung.

Kinder sind auch vor synthetisierten Bildern nicht sicher und könnten mit dieser Technologie schikaniert werden, selbst wenn Bilder nicht manipuliert werden.

KI-Technologie, die lebenszerstörende Deep Fake-Bilder erstellt

Von Menschen gemacht?

Können wir etwas dagegen tun?

Die Liste der Dinge, die zu tun sind, ist von Person zu Person unterschiedlich. Eine Möglichkeit besteht darin, den drastischen Schritt zu unternehmen, alle Bilder offline zu entfernen.

Während das für normale Menschen funktionieren mag, ist es keine große Lösung für Prominente und andere Persönlichkeiten des öffentlichen Lebens.

In Zukunft könnten sich Menschen jedoch möglicherweise mit technischen Mitteln vor Fotomissbrauch schützen. Zukünftige KI-Bildgeneratoren könnten gesetzlich dazu gezwungen werden, unsichtbare Wasserzeichen in ihre Ausgaben einzubetten.

Auf diese Weise können ihre Wasserzeichen später gelesen werden und es den Leuten leicht machen, zu erkennen, dass es sich um Fälschungen handelt.

"Umfangreiche Regulierung ist notwendig. Jeder manipulierte oder gefälschte Inhalt sollte einen deutlich sichtbaren Buchstaben oder eine Warnung enthalten, ähnlich wie im Film (G, PG, R und X). Vielleicht etwas wie Digitally Altertered oder DA,"  sagt Mitchum.

Stability AI startete dieses Jahr seine Stable Diffusion als Open-Source-Projekt.

Zu seiner Ehre verwendet Stable Diffusion bereits standardmäßig eingebettete Wasserzeichen, aber Leute, die auf seine Open-Source-Version zugreifen, neigen dazu, dies zu umgehen, indem sie entweder die Wasserzeichenkomponente der Software deaktivieren oder sie vollständig entfernen.

MIT zu mildern

Obwohl dies rein spekulativ ist, kann ein freiwillig zu persönlichen Fotos hinzugefügtes Wasserzeichen den Dreambooth-Trainingsprozess stören. Eine Gruppe von MIT-Forschern sagte PhotoGuard, ein kontradiktorischer Prozess, der darauf abzielt, die KI vor der Synthese eines vorhandenen Fotos durch geringfügige Änderungen durch die Verwendung einer unsichtbaren Wasserzeichenmethode zu schützen und zu schützen. Dies ist jedoch nur auf Anwendungsfälle der KI-Bearbeitung (oft als „Inpainting“ bezeichnet) beschränkt und umfasst das Training oder die Generierung von Bildern.

"KI übernimmt das Schreiben und Malen! Deepfakes werden Videos ruinieren!
Gut.
Das bedeutet, dass Live-Auftritte noch wertvoller werden. Messen werden gedeihen. Menschen wollen mit Menschen Geschäfte machen.
Meatspace ist immer noch Bestspace" Jonathan Pitchard sagt.

In letzter Zeit hat es eine starke Verbreitung von KI-Technologien gegeben, die schreiben Gedichte, Reime und Lieder. Und einige, die sind Masterings Spiele.

Kritiker haben den technologischen Fortschritt negativ aufgenommen und glauben, dass KIs menschliche Jobs übernehmen.

/MetaNews.

Zeitstempel:

Mehr von MetaNews