Kunstnere kan nu forgifte deres billeder for at forhindre misbrug af kunstig intelligens

Kunstnere kan nu forgifte deres billeder for at forhindre misbrug af kunstig intelligens

Kildeknude: 3074000

University of Chicago-boffins udgav i denne uge Nightshade 1.0, et værktøj bygget til at straffe skruppelløse producenter af maskinlæringsmodeller, som træner deres systemer på data uden først at få tilladelse.

Nightshade er et stødende dataforgiftningsværktøj, en ledsager til et defensivt stilbeskyttelsesværktøj kaldet Glaze, Hvilket Registret dækket i februar sidste år.

Nightshade forgifter billedfiler for at give fordøjelsesbesvær til modeller, der indtager data uden tilladelse. Det er beregnet til at få disse træningsbilledorienterede modeller til at respektere indholdsskabernes ønsker om brugen af ​​deres arbejde.

"Nightshade er beregnet som en multi-objektiv optimering, der minimerer synlige ændringer af det originale billede," sagde det team, der er ansvarligt for projektet.

"For eksempel kan menneskelige øjne se et skyggebillede af en ko i en grøn mark stort set uændret, men en AI-model kan se en stor læderpung ligge i græsset. “

Nightshade blev udviklet af University of Chicago ph.d.-studerende Shawn Shan, Wenxin Ding og Josephine Passananti og professorerne Heather Zheng og Ben Zhao, hvoraf nogle også hjalp med Glaze.

Beskrevet i en forskningsartikel i oktober 2023 er Nightshade et prompt-specifikt forgiftningsangreb. Forgiftning af et billede involverer at vælge en etiket (f.eks. en kat), der beskriver, hvad der faktisk er afbildet, for at udviske grænserne for dette koncept, når billedet bliver indtaget til modeltræning.

Så en bruger af en model, der er trænet på Nightshade-forgiftede billeder, kan sende en prompt til en kat og modtage besked om et billede af en hund eller en fisk. Uforudsigelige svar af denne slags gør tekst-til-billede-modeller væsentligt mindre nyttige, hvilket betyder, at modelproducenter har et incitament til at sikre, at de kun træner på data, der er blevet tilbudt frit.

"Nightshade kan give et kraftfuldt værktøj for indholdsejere til at beskytte deres intellektuelle ejendom mod modeltrænere, der ignorerer eller ignorerer copyright-meddelelser, ikke-skrabe-/crawl-direktiver og fravalgslister," skriver forfatterne i deres papir.

Den manglende overvejelse af kunstværkernes og ejernes ønsker førte til en retssag indgivet sidste år, en del af et bredere tilbageslag mod tilladelsesfri indsamling af data til gavn for AI-virksomheder. Krænkelsespåstanden, der er fremsat på vegne af flere kunstnere mod Stability AI, Deviant Art og Midjourney, hævder, at den stabile diffusionsmodel, der anvendes af de sagsøgte firmaer, inkorporerer kunstnernes arbejde uden tilladelse. Sagen, ændret i november 2023 til at omfatte en ny tiltalt, Runway AI, fortsætter at blive sagsøgt.

Forfatterne advarer om, at Nightshade har nogle begrænsninger. Specifikt kan billeder, der behandles med softwaren, være subtilt forskellige fra originalen, især illustrationer, der bruger flade farver og glatte baggrunde. De observerer også, at teknikker til at fortryde Nightshade kan udvikles, selvom de mener, at de kan tilpasse deres software til at holde trit med modforanstaltninger.

Matthew Guzdial, assisterende professor i datalogi ved University of Alberta, sagde i et socialt medie indlæg, "Dette er sejt og rettidigt arbejde! Men jeg er bekymret for, at det bliver overhypet som løsningen. Det virker kun med CLIP-baserede modeller, og ifølge forfatterne ville det kræve 8 millioner billeder 'forgiftede' for at have betydelig indflydelse på at generere lignende billeder til LAION-modeller."

Glaze, som nåede 1.0 i juni sidste år, har en webversion, og er nu på sit 1.1.1 udgivelse, ændrer billeder for at forhindre modeller, der er trænet på disse billeder, i at replikere kunstnerens visuelle stil.

Stilmimik – tilgængelig gennem lukkede tekst-til-billede-tjenester som Midjourney og gennem open source-modeller som Stable Diffusion – er muligt blot ved at bede en tekst-til-billede-model om at producere et billede i stil med en bestemt kunstner.

Holdet mener, at kunstnere bør have en måde at forhindre indfangning og gengivelse af deres visuelle stilarter.

"Stylemimik producerer en række skadelige resultater, som måske ikke er indlysende ved første øjekast," siger boffins. "For kunstnere, hvis stilarter er bevidst kopieret, ser de ikke kun tab i provision og grundindkomst, men syntetiske kopier af lav kvalitet spredt online udvander deres brand og omdømme. Det vigtigste er, at kunstnere forbinder deres stilarter med selve deres identitet."

De sammenligner stilmimik med identitetstyveri og siger, at det afskrækker håbefulde kunstnere til at skabe nyt værk.

Holdet anbefaler, at kunstnere bruger både Nightshade og Glaze. I øjeblikket skal de to værktøjer hver downloades og installeres separat, men en kombineret version er under udvikling. ®

Tidsstempel:

Mere fra Registret