On mahdollista poimia kopioita kuvista, joita käytetään generatiivisten tekoälymallien harjoittamiseen

On mahdollista poimia kopioita kuvista, joita käytetään generatiivisten tekoälymallien harjoittamiseen

Lähdesolmu: 1942543

Generatiiviset tekoälymallit voivat muistaa kuvia harjoitustiedoistaan, jolloin käyttäjät voivat poimia yksityisiä tekijänoikeuksilla suojattuja tietoja. tutkimus.

DALL-E:n, Stable Diffusionin ja Midjourneyn kaltaiset työkalut on koulutettu miljardeihin Internetistä kaavittuihin kuviin, mukaan lukien tekijänoikeudella suojatut tiedot, kuten taideteokset ja logot. Hän oppii kartoittaa esineiden ja tyylien visuaalisia esityksiä luonnollisella kielellä. Kun heille annetaan tekstikuvaus syötteenä, he luovat kuvan, joka vastaa kuvatekstiä.

Uusi tekniikka on herättänyt uutta oikeudellista keskustelua tekijänoikeuksista: loukkaavatko nämä työkalut immateriaalioikeuksia, koska ne nielevät tekijänoikeuksilla suojattuja kuvia ilman lupaa?

Oikeusjuttuja on ollut jätetty Suosituimpien generatiivisten tekoälytyökalujen valmistajia vastaan ​​tekijänoikeusrikkomusten vuoksi. Tekstistä kuvaksi -malleja rakentavat yritykset väittävät, että koska heidän ohjelmistonsa luovat ainutlaatuisia kuvia, niiden tekijänoikeustietojen käyttö on kohtuullista. Mutta taiteilijat, jotka ovat nähneet tyylinsä ja työnsä näiden työkalujen jäljittelevän, uskovat, että heidät on huijattu.

Nyt Googlen, DeepMindin, Kalifornian yliopiston, Berkeleyn, ETH Zürichin ja Princetonin yliopiston tutkijoiden johtama tutkimus osoittaa, että näiden mallien harjoittamiseen käytettyjä kuvia voidaan poimia. Generatiiviset tekoälymallit muistavat kuvat ulkoa ja voivat luoda niistä tarkkoja kopioita, mikä herättää uusia tekijänoikeus- ja tietosuojaongelmia.

diffusion_extraction_research

Joitakin esimerkkejä kuvista, joita tutkijat onnistuivat poimimaan Stable Diffusionista

"Oikeassa hyökkäyksessä, jossa vastustaja haluaa poimia yksityisiä tietoja, he arvaisivat etiketin tai kuvatekstin, jota kuvassa käytettiin", tutkimuksen tekijät kertovat. Rekisteri.

”Hyökkääjän onneksi menetelmämme voi joskus toimia, vaikka arvaus ei olisikaan täydellinen. Voimme esimerkiksi poimia muotokuvan Ann Graham Lotzista ilmoittamalla Stable Diffusion hänen nimestään harjoitussarjan täyden kuvatekstin sijaan ("Living in the light with Ann Graham Lotz").

diffusion_extraction_research_2

Vain mallin muistiin tallentamat kuvat voidaan poimia, ja kuinka paljon malli voi muistaa dataa, riippuu tekijöistä, kuten sen harjoitustiedoista ja koosta. Saman kuvan kopiot jäävät todennäköisemmin muistiin, ja enemmän parametreja sisältävät mallit pystyvät todennäköisemmin muistamaan myös kuvat.

Tiimi pystyi poimimaan 94 kuvaa 350,000 23 esimerkistä, joita käytettiin vakaan diffuusion harjoittamiseen, ja 1,000 kuvaa XNUMX XNUMX esimerkistä Googlen. Kuva malli. Vertailun vuoksi: Stable Diffusionilla on 890 miljoonaa parametria, ja se on koulutettu 160 miljoonalle kuvalle, kun taas Imagenillä on kaksi miljardia parametria – ei ole selvää, kuinka monta kuvaa sen tarkkaan harjoittamiseen käytettiin.

"Stable Diffuusiota varten havaitsimme, että useimmat muistiin tallennetut kuvat kopioitiin harjoitussarjassa 100 kertaa tai enemmän, mutta jotkut jopa 10 kertaa", tutkijat sanoivat. "Googlen Imagen-mallissa, joka on suurempi malli kuin Stable Diffusion ja joka on koulutettu pienemmälle tietojoukolle, muistiin jääminen näyttää olevan paljon yleisempää. Täältä löydät poikkeavia kuvia, jotka ovat läsnä vain kerran koko harjoitussarjassa, mutta ovat silti poimittavissa."

He eivät ole aivan varmoja, miksi suuremmat mallit muistavat yleensä enemmän kuvia, mutta uskovat, että sillä voi olla jotain tekemistä sen kanssa, että ne pystyvät tallentamaan enemmän heidän harjoitustietojaan sen parametreihin.

Näiden mallien muistiinpano on melko alhainen, ja todellisuudessa kuvien poimiminen olisi työlästä ja hankalaa. Hyökkääjien olisi arvattava ja kokeiltava lukuisia kehotteita ohjatakseen mallin luomaan muistiin tallennettuja tietoja. Silti tiimi varoittaa kehittäjiä olemaan kouluttamatta generatiivisia tekoälymalleja yksityisille arkaluontoisille tiedoille.

”Se, kuinka huono muistaminen on, riippuu generatiivisten mallien soveltamisesta. Erittäin yksityisissä sovelluksissa, kuten lääketieteen alalla (esim. rintakehän röntgenkuvauksia tai potilastietoja koskeva koulutus), muistaminen on erittäin epätoivottavaa, vaikka se vaikuttaa vain hyvin pieneen osaan käyttäjistä. Lisäksi yksityisyyteen herkissä sovelluksissa käytettävät koulutussarjat ovat yleensä pienempiä kuin ne, joita käytetään nykyisten generatiivisen taiteen mallien kouluttamiseen. Siksi saatamme nähdä paljon enemmän muistia, mukaan lukien kuvat, joita ei ole kopioitu", he kertoivat meille.

Yksi tapa estää tietojen poimiminen on vähentää mallien muistiin jäämisen todennäköisyyttä. Esimerkiksi kaksoiskappaleiden poistaminen harjoitustietojoukosta minimoi mahdollisuudet kuvien muistamiseen ja poimimiseen. Stability AI, Stable Diffusionin luojat, on kerrottu kouluttaneen uusimman mallinsa tietojoukolla, joka sisältää vähemmän kaksoiskappaleita tutkijoiden löydöistä riippumatta.

Nyt kun on todistettu, että tekstistä kuvaksi -mallit voivat luoda tarkkoja kopioita kuvista, joihin ne on koulutettu, ei ole selvää, miten tämä voisi vaikuttaa tekijänoikeustapauksiin.

"Yleinen argumentti, jonka olemme nähneet ihmisten tekevän verkossa, oli muunnelma "nämä mallit eivät koskaan muista harjoitustietoja". Tiedämme nyt, että tämä on selvästi väärää. Mutta siitä, onko tällä todella merkitystä juridisessa keskustelussa, on myös keskusteltava”, tutkijat päättivät.

”Ainakin nyt näiden oikeusjuttujen molemmilla osapuolilla on joitain konkreettisempia tosiasioita, joihin he voivat luottaa: kyllä, ulkoa opettelu tapahtuu; mutta se on hyvin harvinaista; ja se näyttää tapahtuvan pääasiassa usein päällekkäisille kuville." ®

Aikaleima:

Lisää aiheesta Rekisteri