Este posibil să extrageți copii ale imaginilor folosite pentru a antrena modele AI generative

Este posibil să extrageți copii ale imaginilor folosite pentru a antrena modele AI generative

Nodul sursă: 1942543

Modelele AI generative pot memora imagini din datele lor de antrenament, permițând posibil utilizatorilor să extragă date private protejate prin drepturi de autor, potrivit cercetare.

Instrumente precum DALL-E, Stable Diffusion și Midjourney sunt instruite pe miliarde de imagini răzuite de pe internet, inclusiv date protejate prin drepturi de autor, cum ar fi lucrări de artă și logo-uri. Ei învață să mapeze reprezentările vizuale ale obiectelor și stilurilor pe limbajul natural. Când li se oferă o descriere text ca intrare, ei generează o imagine care se potrivește cu legenda ca rezultat.

Noua tehnologie a stârnit o nouă dezbatere juridică asupra drepturilor de autor: aceste instrumente încalcă drepturile de proprietate intelectuală, deoarece au ingerat imagini protejate de drepturi de autor fără permisiune?

Au fost procese depusă împotriva producătorilor celor mai populare instrumente AI generative pentru încălcarea drepturilor de autor. Companiile care construiesc modele text-to-image susțin că, deoarece software-ul lor generează imagini unice, utilizarea lor a datelor privind drepturile de autor este o utilizare loială. Dar artiștii care și-au văzut stilurile și munca imitate de aceste instrumente cred că au fost furați.

Acum, cercetarea condusă de cercetători care lucrează la Google, DeepMind, Universitatea din California, Berkeley, ETH Zurich și Universitatea Princeton demonstrează că imaginile utilizate pentru antrenarea acestor modele pot fi extrase. Modelele AI generative memorează imaginile și pot genera copii precise ale acestora, ridicând noi preocupări legate de drepturile de autor și confidențialitate.

cercetare_extracție_difuzie

Câteva exemple de imagini pe care cercetătorii au reușit să le extragă din Stable Diffusion

„Într-un atac real, în care un adversar dorește să extragă informații private, ar ghici eticheta sau legenda care a fost folosită pentru o imagine”, au spus coautorii studiului. Registrul.

„Din fericire pentru atacator, metoda noastră poate funcționa uneori chiar dacă presupunerea nu este perfectă. De exemplu, putem extrage portretul lui Ann Graham Lotz solicitând doar Stable Diffusion cu numele ei, în loc de legenda completă din setul de antrenament („Living in the light with Ann Graham Lotz”).

cercetare_extracție_difuzie_2

Numai imaginile memorate de model pot fi extrase, iar cât de mult un model poate memora date variază în funcție de factori precum datele de antrenament și dimensiunea acestuia. Copiile aceleiași imagini sunt mai susceptibile de a fi memorate, iar modelele care conțin mai mulți parametri au mai multe șanse să își poată aminti și imaginile.

Echipa a reușit să extragă 94 de imagini din 350,000 de exemple folosite pentru a antrena Stable Diffusion și 23 de imagini din 1,000 de exemple de la Google. Imagine model. Pentru comparație, Stable Diffusion are 890 de milioane de parametri și a fost antrenat pe 160 de milioane de imagini, în timp ce Imagen are două miliarde de parametri – nu este clar câte imagini au fost folosite pentru a o antrena exact.

„Pentru Stable Diffusion, constatăm că cele mai multe imagini memorate au fost duplicate de 100 de ori sau mai mult în setul de antrenament, dar unele chiar de 10 ori”, au spus cercetătorii. „Pentru modelul Imagen de la Google, care este un model mai mare decât Stable Diffusion și antrenat pe un set de date mai mic, memorarea pare să fie mult mai frecventă. Aici găsim câteva imagini anormale care sunt prezente doar o singură dată în întregul set de antrenament, dar încă pot fi extrase.”

Ei nu sunt foarte siguri de ce modelele mai mari tind să memoreze mai multe imagini, dar cred că ar putea avea ceva de-a face cu capacitatea de a stoca mai multe dintre datele lor de antrenament în parametrii săi.

Ratele de memorare pentru aceste modele sunt destul de scăzute și, în realitate, extragerea imaginilor ar fi plictisitoare și dificilă. Atacatorii ar trebui să ghicească și să încerce numeroase solicitări pentru a determina modelul să genereze date memorate. Totuși, echipa îi avertizează pe dezvoltatori să se abțină de la antrenarea modelelor AI generative pe date sensibile private.

„Cât de proastă este memorarea depinde de aplicarea modelelor generative. În aplicațiile extrem de private, cum ar fi în domeniul medical (de ex. antrenament cu raze X toracice sau fișe medicale), memorarea este extrem de nedorită, chiar dacă afectează doar o parte foarte mică de utilizatori. În plus, seturile de antrenament utilizate în aplicațiile sensibile la confidențialitate sunt de obicei mai mici decât cele utilizate pentru antrenarea modelelor actuale de artă generativă. Prin urmare, s-ar putea să vedem mult mai multă memorare, inclusiv imagini care nu sunt duplicate”, ne-au spus ei.

O modalitate de a preveni extragerea datelor este reducerea probabilității de memorare în modele. Eliminarea duplicaturilor din setul de date de antrenament, de exemplu, ar minimiza șansele ca imaginile să fie memorate și extrase. Stability AI, creatorii Stable Diffusion, și-au antrenat cel mai nou model pe un set de date care conține mai puține duplicate, independent de descoperirile cercetătorilor.

Acum că s-a dovedit că modelele text-to-image pot genera copii exacte ale imaginilor pe care au fost instruiți, nu este clar cum ar putea afecta acest lucru cazurile de drepturi de autor.

„Un argument comun pe care îl văzusem pe oameni pe internet a fost o variantă a „aceste modele nu memorează niciodată datele de antrenament”. Acum știm că acest lucru este clar fals. Dar dacă acest lucru contează sau nu în dezbaterea juridică este, de asemenea, dezbătut”, au concluzionat cercetătorii.

„Cel puțin acum, ambele părți din aceste procese au niște fapte mai tangibile pe care se pot baza: da, se întâmplă memorarea; dar este foarte rar; și pare să se întâmple în principal pentru imaginile foarte duplicate.” ®

Timestamp-ul:

Mai mult de la Registrul