A művészek most megmérgezhetik képeiket, hogy megakadályozzák a mesterséges intelligencia általi visszaéléseket

A művészek most megmérgezhetik képeiket, hogy megakadályozzák a mesterséges intelligencia általi visszaéléseket

Forrás csomópont: 3074000

A Chicagói Egyetem boffins a héten kiadta a Nightshade 1.0-t, egy olyan eszközt, amely arra készült, hogy megbüntesse a gépi tanulási modellek gátlástalan készítőit, akik előzetes engedély nélkül képezik ki rendszereiket az adatokra.

nadragulya egy támadó adatmérgező eszköz, egy társa a defenzív stílusú védelmi eszköznek Máz, Amely A regisztráció fedett tavaly februárban.

A Nightshade megmérgezi a képfájlokat, hogy emésztési zavarokat okozzon azoknak a modelleknek, akik engedély nélkül vesznek fel adatokat. Célja, hogy ezek az imázsorientált modellek tiszteletben tartsák a tartalomkészítők munkájuk felhasználásával kapcsolatos kívánságait.

"A Nightshade egy többcélú optimalizálás, amely minimalizálja az eredeti kép látható változásait." mondott a projektért felelős csapat.

„Például az emberi szem egy zöld mezőben lévő tehén árnyékolt képét láthatja nagyjából változatlan formában, de egy mesterséges intelligencia modell egy nagy bőrtáskát láthat a fűben heverni. "

A Nightshade-et a Chicagói Egyetem doktoranduszai, Shawn Shan, Wenxin Ding és Josephine Passananti, valamint Heather Zheng és Ben Zhao professzorok fejlesztették ki, akik közül néhányan a Glaze-ben is segítettek.

Leírva a kutatási papír 2023 októberében a Nightshade egy azonnali specifikus mérgezési támadás. Egy kép megmérgezése magában foglalja egy címke (például egy macska) kiválasztását, amely leírja, hogy mit ábrázol valójában, hogy elmossák ennek a fogalomnak a határait, amikor a képet bekebelezik a modellképzéshez.

Így a Nightshade-mérgezett képekre kiképzett modell felhasználója beküldhet egy macskát, és értesítést kaphat egy kutya vagy hal képéről. Az ilyen típusú előre nem látható válaszok jelentősen kevésbé hasznosítják a szöveg-kép modelleket, ami azt jelenti, hogy a modellgyártók arra ösztönöznek, hogy csak a szabadon kínált adatokon tanuljanak.

"A Nightshade hatékony eszközt jelenthet a tartalomtulajdonosok számára, hogy megvédjék szellemi tulajdonukat azokkal a modelloktatókkal szemben, akik figyelmen kívül hagyják vagy figyelmen kívül hagyják a szerzői jogi figyelmeztetéseket, a ne kaparja fel/feltérképezzék a direktívákat és az opt-out listákat" - állítják a szerzők közleményükben.

A műalkotások alkotóinak és tulajdonosainak kívánságait figyelmen kívül hagyása perhez vezetett tavaly nyújtották be, amely az AI-vállalkozások javát szolgáló, engedély nélküli adatgyűjtés elleni szélesebb körű visszalépés része. A több művész nevében a Stability AI, a Deviant Art és a Midjourney ellen benyújtott jogsértési kereset azt állítja, hogy az alperes cégek által használt Stable Diffusion modell engedély nélkül tartalmazza a művészek munkáit. A 2023 novemberében módosított ügyben új alperes szerepel, a Runway AI, tovább hogy pereskedjenek.

A szerzők arra figyelmeztetnek, hogy a Nightshade-nek vannak bizonyos korlátai. Pontosabban, a szoftverrel feldolgozott képek finoman eltérhetnek az eredetitől, különösen a lapos színeket és sima hátteret használó grafikák. Azt is megfigyelik, hogy a Nightshade visszavonására szolgáló technikák kifejlesztésére kerülhet sor, bár úgy gondolják, hogy hozzáigazíthatják szoftverüket, hogy lépést tartsanak az ellenintézkedésekkel.

– mondta Matthew Guzdial, az Albertai Egyetem számítástechnikai adjunktusa egy közösségi médiában Hozzászólás, „Ez klassz és időszerű munka! De attól tartok, hogy túlzásba vitték, mint megoldást. Csak CLIP-alapú modellekkel működik, és a szerzők szerint 8 millió „megmérgezett” képre lenne szükség ahhoz, hogy jelentős hatást gyakoroljon a LAION modellekhez hasonló képek előállítására.”

A Glaze, amely tavaly júniusban elérte az 1.0-t, igen webes verzió, és most rajta van 1.1.1 kiadás, megváltoztatja a képeket, hogy megakadályozza, hogy az ezekre a képekre kiképzett modellek lemásolják a művész vizuális stílusát.

A stílusmimika – amely a zárt szöveg-kép szolgáltatásokon, például a Midjourney-n és a nyílt forráskódú modelleken keresztül, például a Stable Diffusion-on keresztül érhető el – egyszerűen úgy lehetséges, hogy egy szöveg-kép modellt arra kérünk, hogy egy adott művész stílusában készítsen képet.

A csapat úgy gondolja, hogy a művészeknek módot kell adni arra, hogy megakadályozzák vizuális stílusaik megörökítését és reprodukálását.

"A stílusmimika számos káros következménnyel jár, amelyek első pillantásra nem feltétlenül nyilvánvalóak" - állítják a Boffins. „Azok a művészek, akiknek a stílusát szándékosan másolják, nemcsak a jutalékok és az alapjövedelem veszteségét látják, hanem az online szétszórt gyenge minőségű szintetikus másolatok is rontják márkájukat és hírnevüket. A legfontosabb, hogy a művészek stílusukat identitásukkal társítják.”

A stílusutánzatot a személyazonosság-lopáshoz hasonlítják, és azt mondják, hogy ez elriasztja a feltörekvő művészeket az új alkotásoktól.

A csapat azt javasolja a művészeknek, hogy a Nightshade-t és a Glaze-t is használják. Jelenleg a két eszközt külön-külön kell letölteni és telepíteni, de a kombinált verzió fejlesztés alatt áll. ®

Időbélyeg:

Még több A regisztráció