Künstler können nun ihre Bilder vergiften, um Missbrauch durch KI zu verhindern

Künstler können nun ihre Bilder vergiften, um Missbrauch durch KI zu verhindern

Quellknoten: 3074000

Die Forscher der University of Chicago haben diese Woche Nightshade 1.0 veröffentlicht, ein Tool, das entwickelt wurde, um skrupellose Hersteller von Modellen für maschinelles Lernen zu bestrafen, die ihre Systeme anhand von Daten trainieren, ohne vorher die Erlaubnis einzuholen.

Nachtschatten ist ein offensives Tool zur Datenvergiftung, ein Begleiter eines defensiven Schutztools namens Glaze, Die Das Register bedeckt im Februar letzten Jahres.

Nightshade vergiftet Bilddateien, um Models, die Daten ohne Erlaubnis aufnehmen, Verdauungsstörungen zu bereiten. Ziel ist es, diese bildorientierten Schulungsmodelle dazu zu bringen, die Wünsche der Inhaltsersteller bezüglich der Verwendung ihrer Arbeit zu respektieren.

„Nightshade wird als Multi-Ziel-Optimierung berechnet, die sichtbare Änderungen am Originalbild minimiert.“ sagte das für das Projekt verantwortliche Team.

„Zum Beispiel könnte das menschliche Auge ein schattiertes Bild einer Kuh auf einer grünen Wiese weitgehend unverändert sehen, aber ein KI-Modell könnte eine große Lederhandtasche im Gras liegen sehen.“ „

Nightshade wurde von den Doktoranden Shawn Shan, Wenxin Ding und Josephine Passananti der University of Chicago sowie den Professoren Heather Zheng und Ben Zhao entwickelt, von denen einige auch bei Glaze mitgeholfen haben.

Beschrieben in a Forschungsarbeit Im Oktober 2023 handelt es sich bei Nightshade um einen prompt-spezifischen Vergiftungsangriff. Um ein Bild zu vergiften, muss ein Etikett (z. B. eine Katze) ausgewählt werden, das beschreibt, was tatsächlich dargestellt wird, um die Grenzen dieses Konzepts zu verwischen, wenn das Bild für das Modelltraining aufgenommen wird.

So könnte ein Benutzer eines Modells, das auf Nachtschatten-vergiftete Bilder trainiert wurde, eine Eingabeaufforderung für eine Katze einreichen und eine Benachrichtigung über ein Bild eines Hundes oder eines Fisches erhalten. Unvorhersehbare Reaktionen dieser Art machen Text-zu-Bild-Modelle deutlich weniger nützlich, was bedeutet, dass Modellentwickler einen Anreiz haben, sicherzustellen, dass sie nur auf Daten trainieren, die kostenlos zur Verfügung gestellt werden.

„Nightshade kann Content-Eigentümern ein leistungsstarkes Tool zum Schutz ihres geistigen Eigentums vor Modelltrainern bieten, die Urheberrechtshinweise, Do-Not-Scrape-/Crawling-Anweisungen und Opt-out-Listen missachten oder ignorieren“, erklären die Autoren in ihrem Artikel.

Die Nichtberücksichtigung der Wünsche der Kunstschaffenden und -eigentümer führte zu einer Klage letztes Jahr eingereicht, Teil eines umfassenderen Widerstands gegen die erlaubnislose Datenerfassung zum Nutzen von KI-Unternehmen. In der Verletzungsklage, die im Namen mehrerer Künstler gegen Stability AI, Deviant Art und Midjourney erhoben wurde, wird behauptet, dass das von den beklagten Firmen verwendete Stable Diffusion-Modell die Werke der Künstler ohne Erlaubnis einbezieht. Der im November 2023 geänderte Fall wurde um einen neuen Angeklagten, Runway AI, erweitert. weiter prozessiert werden.

Die Autoren weisen darauf hin, dass Nightshade einige Einschränkungen aufweist. Insbesondere können mit der Software verarbeitete Bilder geringfügig vom Original abweichen, insbesondere bei Grafiken, die flache Farben und glatte Hintergründe verwenden. Sie stellen außerdem fest, dass möglicherweise Techniken zur Rückgängigmachung von Nightshade entwickelt werden, glauben jedoch, dass sie ihre Software anpassen können, um mit den Gegenmaßnahmen Schritt zu halten.

sagte Matthew Guzdial, Assistenzprofessor für Informatik an der University of Alberta, in den sozialen Medien Post„Das ist eine coole und zeitgemäße Arbeit!“ Aber ich mache mir Sorgen, dass es als Lösung überbewertet wird. Es funktioniert nur mit CLIP-basierten Modellen und würde laut den Autoren 8 Millionen „vergiftete“ Bilder erfordern, um einen signifikanten Einfluss auf die Generierung ähnlicher Bilder für LAION-Modelle zu haben.“

Glaze, das letzten Juni den Wert 1.0 erreichte, hat eine Webversion, und ist jetzt auf seinem 1.1.1 Release, verändert Bilder, um zu verhindern, dass auf diesen Bildern trainierte Modelle den visuellen Stil des Künstlers reproduzieren.

Stilnachahmung – verfügbar über geschlossene Text-zu-Bild-Dienste wie Midjourney und über Open-Source-Modelle wie Stable Diffusion – ist einfach dadurch möglich, dass ein Text-zu-Bild-Modell aufgefordert wird, ein Bild im Stil eines bestimmten Künstlers zu erstellen.

Das Team ist davon überzeugt, dass Künstler eine Möglichkeit haben sollten, die Erfassung und Reproduktion ihrer visuellen Stile zu verhindern.

„Stilnachahmung führt zu einer Reihe schädlicher Folgen, die auf den ersten Blick möglicherweise nicht offensichtlich sind“, stellen die Wissenschaftler fest. „Künstler, deren Stile absichtlich kopiert werden, erleiden nicht nur Verluste an Provisionen und Grundeinkommen, sondern minderwertige synthetische Kopien, die im Internet verstreut sind, verwässern auch ihre Marke und ihren Ruf.“ Am wichtigsten ist, dass Künstler ihren Stil mit ihrer Identität verbinden.“

Sie vergleichen Stilnachahmung mit Identitätsdiebstahl und sagen, dass sie aufstrebende Künstler davon abhält, neue Werke zu schaffen.

Das Team empfiehlt Künstlern, sowohl Nightshade als auch Glaze zu verwenden. Derzeit müssen die beiden Tools jeweils separat heruntergeladen und installiert werden, es wird jedoch eine kombinierte Version entwickelt. ®

Zeitstempel:

Mehr von Das Register