Artiștii își pot otravi acum imaginile pentru a descuraja utilizarea abuzivă de către AI

Artiștii își pot otravi acum imaginile pentru a descuraja utilizarea abuzivă de către AI

Nodul sursă: 3074000

Universitatea din Chicago Boffins a lansat în această săptămână Nightshade 1.0, un instrument creat pentru a pedepsi creatorii fără scrupule de modele de învățare automată care își antrenează sistemele pe date fără a obține mai întâi permisiunea.

nightshade este un instrument ofensiv de otrăvire a datelor, un însoțitor al unui instrument de protecție în stil defensiv numit Glazură, Care Registrul acoperit în februarie anul trecut.

Nightshade otrăvește fișierele de imagine pentru a da indigestie modelelor care ingerează date fără permisiune. Este destinat să facă acele modele de formare orientate spre imagine să respecte dorințele creatorilor de conținut cu privire la utilizarea muncii lor.

„Nightshade este calculat ca o optimizare multi-obiectivă care minimizează modificările vizibile ale imaginii originale.” a spus echipa responsabilă de proiect.

„De exemplu, ochii oamenilor ar putea vedea o imagine umbrită a unei vaci într-un câmp verde în mare măsură neschimbată, dar un model AI ar putea vedea o poșetă mare din piele întinsă în iarbă. „

Nightshade a fost dezvoltat de studenții doctoranzi de la Universitatea din Chicago, Shawn Shan, Wenxin Ding și Josephine Passananti, și profesorii Heather Zheng și Ben Zhao, dintre care unii au ajutat și cu Glaze.

Descris în a lucrare de cercetare în octombrie 2023, Nightshade este un atac de otrăvire specific prompt. Otrăvirea unei imagini implică alegerea unei etichete (de exemplu, o pisică) care descrie ceea ce este de fapt descris pentru a estompa limitele acelui concept atunci când imaginea este ingerată pentru antrenamentul modelului.

Deci, un utilizator al unui model instruit pe imagini otrăvite Nightshade ar putea trimite o solicitare pentru o pisică și poate primi o notificare cu privire la o imagine a unui câine sau a unui pește. Răspunsurile imprevizibile de acest fel fac modelele text-to-image mult mai puțin utile, ceea ce înseamnă că producătorii de modele au un stimulent să se asigure că se antrenează numai pe datele care au fost oferite gratuit.

„Nightshade poate oferi un instrument puternic pentru proprietarii de conținut pentru a-și proteja proprietatea intelectuală împotriva formatorilor de modele care ignoră sau ignoră notificările privind drepturile de autor, directivele de nu-răzuire/crawl și listele de renunțare”, spun autorii în lucrarea lor.

Eșecul de a lua în considerare dorințele creatorilor și proprietarilor de opere de artă a dus la un proces depus anul trecut, parte a unei respingeri mai ample împotriva recoltării fără permisiuni de date în beneficiul afacerilor AI. Cererea de încălcare a dreptului comunitar, formulată în numele mai multor artiști împotriva Stability AI, Deviant Art și Midjourney, susține că modelul Stable Diffusion utilizat de firmele pârâte încorporează fără permisiune opera artiștilor. Cazul, modificat în noiembrie 2023 pentru a include un nou inculpat, Runway AI, continuă a fi judecat.

Autorii avertizează că Nightshade are unele limitări. Mai exact, imaginile procesate cu software-ul pot fi subtil diferite de originalul, în special lucrările de artă care utilizează culori plate și fundaluri netede. De asemenea, ei observă că pot fi dezvoltate tehnici pentru anularea Nightshade, deși cred că își pot adapta software-ul pentru a ține pasul cu contramăsurile.

Matthew Guzdial, profesor asistent de informatică la Universitatea din Alberta, a declarat într-o rețea de socializare post, „Este o muncă grozavă și oportună! Dar îmi tem că este supraexagerat ca soluție. Funcționează doar cu modele bazate pe CLIP și, potrivit autorilor, ar necesita 8 milioane de imagini „otrăvite” pentru a avea un impact semnificativ asupra generării de imagini similare pentru modelele LAION.”

Glaze, care a ajuns la 1.0 în iunie anul trecut, are o versiune web, și acum este pe ea Eliberare 1.1.1, modifică imaginile pentru a împiedica modelele instruite pe acele imagini să reproducă stilul vizual al artistului.

Imitarea stilului – disponibilă prin servicii închise text-to-image precum Midjourney și prin modele open-source precum Stable Diffusion – este posibilă pur și simplu prin solicitarea unui model text-to-image să producă o imagine în stilul unui anumit artist.

Echipa consideră că artiștii ar trebui să aibă o modalitate de a preveni capturarea și reproducerea stilurilor lor vizuale.

„Imitarea stilului produce o serie de rezultate dăunătoare care ar putea să nu fie evidente la prima vedere”, afirmă Boffins. „Pentru artiștii ale căror stiluri sunt copiate în mod intenționat, nu numai că văd pierderi în comisioane și venituri de bază, dar copiile sintetice de calitate scăzută împrăștiate online le diluează brandul și reputația. Cel mai important, artiștii își asociază stilurile cu însăși identitatea lor.”

Ei compară imitația stilului cu furtul de identitate și spun că descurajează artiștii aspiranți să creeze noi lucrări.

Echipa recomandă artiștilor să folosească atât Nightshade, cât și Glaze. În prezent, cele două instrumente trebuie descărcate și instalate separat, dar se dezvoltă o versiune combinată. ®

Timestamp-ul:

Mai mult de la Registrul