Het is mogelijk om kopieën te extraheren van afbeeldingen die worden gebruikt om generatieve AI-modellen te trainen

Het is mogelijk om kopieën te extraheren van afbeeldingen die worden gebruikt om generatieve AI-modellen te trainen

Bronknooppunt: 1942543

Generatieve AI-modellen kunnen afbeeldingen uit hun trainingsgegevens onthouden, waardoor gebruikers mogelijk privé-auteursrechtelijk beschermde gegevens kunnen extraheren onderzoek.

Tools zoals DALL-E, Stable Diffusion en Midjourney zijn getraind op miljarden afbeeldingen die van internet zijn gehaald, inclusief auteursrechtelijk beschermde gegevens zoals illustraties en logo's. Ze leren visuele representaties van objecten en stijlen in kaart te brengen in natuurlijke taal. Wanneer ze een tekstbeschrijving als invoer krijgen, genereren ze een afbeelding die overeenkomt met het bijschrift als uitvoer.

De nieuwe technologie heeft geleid tot een nieuw juridisch debat over auteursrecht: schenden deze tools intellectuele eigendomsrechten omdat ze zonder toestemming auteursrechtelijk beschermde afbeeldingen hebben opgenomen?

Er zijn rechtszaken geweest ingediend tegen makers van de meest populaire generatieve AI-tools wegens inbreuk op auteursrechten. Bedrijven die tekst-naar-beeld-modellen bouwen, voeren aan dat, aangezien hun software unieke afbeeldingen genereert, hun gebruik van copyrightgegevens redelijk gebruik is. Maar kunstenaars die hun stijlen en werk door deze tools hebben zien imiteren, denken dat ze zijn opgelicht.

Nu toont onderzoek onder leiding van onderzoekers van Google, DeepMind, de University of California, Berkeley, ETH Zurich en Princeton University aan dat afbeeldingen die worden gebruikt om deze modellen te trainen, kunnen worden geëxtraheerd. Generatieve AI-modellen onthouden afbeeldingen en kunnen er nauwkeurige kopieën van genereren, wat nieuwe zorgen over auteursrechten en privacy oproept.

diffusie_extractie_onderzoek

Enkele voorbeelden van afbeeldingen die de onderzoekers uit Stable Diffusion wisten te halen

"Bij een echte aanval, waarbij een tegenstander privé-informatie wil extraheren, raden ze het label of bijschrift dat voor een afbeelding is gebruikt", vertelden co-auteurs van het onderzoek. Het register.

“Gelukkig voor de aanvaller kan onze methode soms werken, zelfs als de gok niet perfect is. We kunnen bijvoorbeeld het portret van Ann Graham Lotz extraheren door Stable Diffusion gewoon haar naam te geven, in plaats van het volledige onderschrift van de trainingsset ("Living in the light with Ann Graham Lotz").

diffusie_extractie_onderzoek_2

Alleen afbeeldingen die door het model zijn onthouden, kunnen worden geëxtraheerd, en hoeveel een model gegevens kan onthouden, is afhankelijk van factoren zoals de trainingsgegevens en de grootte. Kopieën van dezelfde afbeelding worden eerder onthouden, en modellen die meer parameters bevatten, zullen eerder ook afbeeldingen kunnen onthouden.

Het team was in staat om 94 afbeeldingen te extraheren uit 350,000 voorbeelden die werden gebruikt om Stable Diffusion te trainen, en 23 afbeeldingen uit 1,000 voorbeelden van Google's Beeld model. Ter vergelijking: Stable Diffusion heeft 890 miljoen parameters en is getraind op 160 miljoen afbeeldingen, terwijl Imagen twee miljard parameters heeft - het is niet duidelijk hoeveel afbeeldingen er precies zijn gebruikt om het te trainen.

"Voor Stable Diffusion vinden we dat de meeste opgeslagen beelden 100 keer of meer werden gedupliceerd in de trainingsset, maar sommige slechts 10 keer", aldus de onderzoekers. "Voor het Imagen-model van Google, dat een groter model is dan Stable Diffusion en getraind op een kleinere dataset, lijkt memoriseren veel vaker voor te komen. Hier vinden we enkele uitbijterbeelden die slechts één keer in de hele trainingsset aanwezig zijn, maar toch kunnen worden geëxtraheerd.

Ze zijn er niet helemaal zeker van waarom grotere modellen de neiging hebben om meer afbeeldingen te onthouden, maar denken dat het iets te maken heeft met het feit dat ze meer van hun trainingsgegevens in de parameters kunnen opslaan.

Het geheugen van deze modellen is vrij laag, en in werkelijkheid zou het extraheren van afbeeldingen vervelend en lastig zijn. Aanvallers zouden talloze aanwijzingen moeten raden en proberen om het model ertoe te brengen opgeslagen gegevens te genereren. Toch waarschuwt het team ontwikkelaars om af te zien van het trainen van generatieve AI-modellen op privégevoelige gegevens.

“Hoe slecht onthouden is, hangt af van de toepassing van de generatieve modellen. Bij zeer private toepassingen, zoals in het medische domein (bijv. training op röntgenfoto's van de borst of medische dossiers), is memoriseren hoogst onwenselijk, ook al treft het slechts een zeer klein deel van de gebruikers. Bovendien zijn de trainingssets die worden gebruikt in privacygevoelige toepassingen meestal kleiner dan de sets die worden gebruikt om huidige generatieve kunstmodellen te trainen. Daarom zien we mogelijk veel meer memorisatie, inclusief afbeeldingen die niet zijn gedupliceerd, 'vertelden ze ons.

Een manier om gegevensextractie te voorkomen, is door de kans op memorisatie in modellen te verkleinen. Door bijvoorbeeld duplicaten in de trainingsdataset te verwijderen, wordt de kans geminimaliseerd dat afbeeldingen worden onthouden en geëxtraheerd. Stability AI, de makers van Stable Diffusion, hebben naar verluidt hun nieuwste model getraind op een dataset met minder duplicaten, onafhankelijk van de bevindingen van de onderzoekers.

Nu is bewezen dat tekst-naar-afbeelding-modellen exacte kopieën kunnen genereren van afbeeldingen waarop ze zijn getraind, is het niet duidelijk hoe dit van invloed kan zijn op auteursrechtzaken.

“Een veelgehoord argument dat we mensen online hadden zien maken, was een variant van 'deze modellen onthouden nooit trainingsgegevens'. We weten nu dat dit duidelijk onjuist is. Maar of dat er in de juridische discussie ook daadwerkelijk toe doet, staat ook ter discussie”, concluderen de onderzoekers.

“Nu hebben beide partijen in deze rechtszaken tenminste wat meer tastbare feiten waarop ze kunnen vertrouwen: ja, memoriseren gebeurt; maar het is zeer zeldzaam; en het lijkt vooral te gebeuren voor sterk gedupliceerde afbeeldingen. ®

Tijdstempel:

Meer van Het register