Võimalik on eraldada koopiaid piltidest, mida kasutatakse generatiivsete AI mudelite koolitamiseks

Võimalik on eraldada koopiaid piltidest, mida kasutatakse generatiivsete AI mudelite koolitamiseks

Allikasõlm: 1942543

Generatiivsed AI-mudelid suudavad oma treeningandmetest pilte meelde jätta, võimaldades kasutajatel saada privaatseid autoriõigustega kaitstud andmeid. teadustöö.

Tööriistad, nagu DALL-E, Stable Diffusion ja Midjourney, on koolitatud miljardite Internetist kraabitud piltide, sealhulgas autoriõigusega kaitstud andmete, näiteks kunstiteoste ja logode põhjal. Nad õpivad kaardistama objektide ja stiilide visuaalseid esitusi loomulikku keelt. Kui neile antakse sisendiks tekstikirjeldus, genereerivad nad väljundina pildi, mis vastab pealkirjale.

Uus tehnoloogia on tekitanud uue õigusliku arutelu autoriõiguste üle: kas need tööriistad rikuvad intellektuaalomandi õigusi, kuna neelasid autoriõigustega kaitstud pilte ilma loata?

Kohtuasju on olnud esitatud kõige populaarsemate generatiivsete AI-tööriistade tootjate vastu autoriõiguste rikkumise eest. Tekstist pildiks mudeleid loovad ettevõtted väidavad, et kuna nende tarkvara loob unikaalseid pilte, on nende autoriõiguse andmete kasutamine õiglane. Kuid kunstnikud, kes on näinud oma stiile ja töid, mida need tööriistad jäljendasid, usuvad, et nad on ära rebitud.

Nüüd näitavad Google'i, DeepMindi, California ülikooli, Berkeley, ETH Zürichi ja Princetoni ülikooli teadlaste juhitud uuringud, et nende mudelite koolitamiseks kasutatud pilte saab eraldada. Generatiivsed tehisintellekti mudelid jätavad pildid meelde ja saavad neist täpseid koopiaid luua, tekitades uusi probleeme autoriõiguste ja privaatsusega.

difusiooni_väljavõtte_uuringud

Mõned näited piltidest, mida teadlastel õnnestus stabiilsest difusioonist eraldada

"Tõelise rünnaku korral, kus vastane soovib saada privaatset teavet, arvavad nad ära sildi või pealkirja, mida pildil kasutati," rääkisid uuringu kaasautorid. Register.

"Ründaja õnneks võib meie meetod mõnikord töötada isegi siis, kui arvamine pole täiuslik. Näiteks saame välja võtta Ann Graham Lotzi portree, kui küsime lihtsalt Stable Diffusionist tema nime, mitte treeningkomplekti täieliku pealkirja (“Elu valguses koos Ann Graham Lotziga”).

difusiooni_väljavõtte_uuringud_2

Eraldada saab ainult mudeli poolt meelde jäetud pilte ja see, kui palju mudel andmeid suudab meelde jätta, sõltub sellistest teguritest nagu treeningandmed ja suurus. Sama pildi koopiad jäetakse tõenäolisemalt meelde ja rohkem parameetreid sisaldavad mudelid suudavad ka pilte meelde jätta.

Meeskond suutis eraldada 94 pilti 350,000 23 näitest, mida kasutati stabiilse difusiooni treenimiseks, ja 1,000 pilti XNUMX näitest Google'i Pilt mudel. Võrdluseks, Stable Diffusionil on 890 miljonit parameetrit ja seda treeniti 160 miljonil pildil, Imagenil aga kaks miljardit parameetrit – pole selge, kui palju pilti selle täpselt treenimiseks kasutati.

"Stabiilse difusiooni puhul leiame, et enamik meeldejäänud pilte dubleeriti treeningkomplektis 100 või enam korda, kuid mõned isegi kuni 10 korda," ütlesid teadlased. "Google'i Imagen mudeli puhul, mis on suurem mudel kui Stable Diffusion ja mis on treenitud väiksema andmestikuga, näib meeldejätmine olevat palju sagedasem. Siit leiame mõned äärmuslikud pildid, mis esinevad kogu treeningkomplektis vaid ühe korra, kuid on siiski eraldatavad.

Nad pole päris kindlad, miks suuremad mudelid kipuvad rohkem pilte meelde jätma, kuid usuvad, et sellel võib olla pistmist sellega, et nad suudavad oma parameetritesse rohkem oma treeningandmeid salvestada.

Nende mudelite meeldejätmise määr on üsna madal ja tegelikkuses oleks piltide eraldamine tüütu ja keeruline. Ründajad peaksid arvama ja proovima mitmeid viipasid, et juhtida mudelit meeldejäetud andmete genereerimisele. Sellegipoolest hoiatab meeskond arendajaid, et nad hoiduksid generatiivsete AI-mudelite koolitamisest privaatsete tundlike andmete põhjal.

"Kui halb meeldejätmine on, sõltub generatiivsete mudelite rakendamisest. Väga privaatsetes rakendustes, näiteks meditsiinivaldkonnas (nt rindkere röntgeniülesvõtete või haiguslugude koolitus) on meeldejätmine väga ebasoovitav, isegi kui see mõjutab vaid väga väikest osa kasutajatest. Lisaks on privaatsustundlikes rakendustes kasutatavad koolituskomplektid tavaliselt väiksemad kui need, mida kasutatakse praeguste generatiivse kunsti mudelite koolitamiseks. Seetõttu võime näha palju rohkem meeldejätmist, sealhulgas pilte, mida ei dubleerita, ”rääkisid nad meile.

Üks võimalus andmete ekstraheerimise vältimiseks on vähendada mudelites meeldejätmise tõenäosust. Näiteks treeningandmete kogumi duplikaatidest vabanemine vähendaks võimalust, et kujutised jäetakse meelde ja ekstraheeritakse. Stabiilsuse AI, Stabiilse difusiooni loojad, on väidetavalt treeninud oma uusimat mudelit andmekogumile, mis sisaldab vähem duplikaate, sõltumata teadlaste leidudest.

Nüüd, kui on tõestatud, et tekstist pildiks muutvad mudelid suudavad luua täpseid koopiaid piltidest, mille järgi nad on koolitatud, pole selge, kuidas see võib mõjutada autoriõiguste juhtumeid.

"Üldine argument, mida oleme näinud inimesi võrgus esitamas, oli mõni variant "need mudelid ei jäta kunagi treeningandmeid meelde". Nüüd teame, et see on selgelt vale. Kuid selle üle, kas sellel on õigusdebatis tegelikult tähtsust või mitte, tuleb samuti arutleda,“ järeldasid teadlased.

„Vähemalt praegu on nende hagide mõlemal poolel mõned käegakatsutavamad faktid, millele nad saavad tugineda: jah, päheõppimine toimub; kuid see on väga haruldane; ja tundub, et see juhtub peamiselt palju dubleeritud piltide puhul. ®

Ajatempel:

Veel alates Register