Artyści mogą teraz zatruwać swoje obrazy, aby zapobiec niewłaściwemu wykorzystaniu ich przez sztuczną inteligencję

Artyści mogą teraz zatruwać swoje obrazy, aby zapobiec niewłaściwemu wykorzystaniu ich przez sztuczną inteligencję

Węzeł źródłowy: 3074000

W tym tygodniu zwolennicy Uniwersytetu w Chicago wypuścili Nightshade 1.0, narzędzie stworzone w celu karania pozbawionych skrupułów twórców modeli uczenia maszynowego, którzy szkolą swoje systemy na danych bez uprzedniego uzyskania pozwolenia.

Koralina to ofensywne narzędzie do zatruwania danych, będące uzupełnieniem narzędzia do ochrony w stylu defensywnym o nazwie Glazura, który Rejestr pokryty w lutym ubiegłego roku.

Nocny Cień zatruwa pliki obrazów, powodując niestrawność modelom, które pobierają dane bez pozwolenia. Ma to na celu sprawienie, aby te szkoleniowe modele zorientowane na wizerunek szanowały życzenia twórców treści dotyczące wykorzystania ich pracy.

„Nightshade jest obliczany jako wieloobiektowa optymalizacja, która minimalizuje widoczne zmiany w oryginalnym obrazie” powiedziany zespół odpowiedzialny za projekt.

„Na przykład ludzkie oczy mogą zobaczyć zacieniony obraz krowy na zielonym polu, w dużej mierze niezmieniony, ale model sztucznej inteligencji może zobaczyć dużą skórzaną torebkę leżącą na trawie. „

Nightshade został opracowany przez doktorantów Uniwersytetu w Chicago: Shawna Shana, Wenxina Dinga i Josephine Passananti oraz profesorów Heather Zheng i Bena Zhao, z których niektórzy pomagali także przy Glaze.

Opisane w a Referat naukowy w październiku 2023 r. Nocny Cień to natychmiastowy atak zatrucia. Zatrucie obrazu polega na wybraniu etykiety (np. kota), która opisuje to, co faktycznie jest przedstawione, aby zatrzeć granice tej koncepcji, gdy obraz zostanie wykorzystany do szkolenia modelek.

Zatem użytkownik modelu przeszkolonego w zakresie obrazów zatrutych psiankowatym cieniem może przesłać monit dotyczący kota i otrzymać powiadomienie o obrazie psa lub ryby. Tego rodzaju nieprzewidywalne reakcje sprawiają, że modele zamiany tekstu na obraz są znacznie mniej przydatne, co oznacza, że ​​twórcy modeli mają motywację do upewnienia się, że szkolą się wyłącznie na danych, które są oferowane bezpłatnie.

„Nightshade może zapewnić właścicielom treści potężne narzędzie do ochrony ich własności intelektualnej przed trenerami modelek, którzy lekceważą lub ignorują informacje o prawach autorskich, dyrektywy dotyczące zakazu skrobania/indeksowania oraz listy rezygnacji” – stwierdzają autorzy w swoim artykule.

Nieuwzględnienie życzeń twórców i właścicieli dzieł sztuki doprowadziło do pozwu złożony w zeszłym rokuco stanowi część szerszego sprzeciwu wobec gromadzenia danych bez pozwolenia na rzecz przedsiębiorstw zajmujących się sztuczną inteligencją. W pozwie o naruszenie, złożonym w imieniu kilku artystów przeciwko Stability AI, Deviant Art i Midjourney, zarzucono, że model Stable Diffusion stosowany przez pozwane firmy uwzględnia prace artystów bez pozwolenia. Sprawa, zmieniona w listopadzie 2023 r., obejmująca nowego oskarżonego, Runway AI, ciągły być przedmiotem postępowania sądowego.

Autorzy ostrzegają, że Nightshade ma pewne ograniczenia. W szczególności obrazy przetworzone za pomocą oprogramowania mogą nieznacznie różnić się od oryginału, zwłaszcza grafiki wykorzystujące płaskie kolory i gładkie tła. Zauważają również, że mogą zostać opracowane techniki cofania Nocnego Cienia, chociaż uważają, że mogą dostosować swoje oprogramowanie, aby dotrzymać kroku środkom zaradczym.

– poinformował w mediach społecznościowych Matthew Guzdial, adiunkt informatyki na Uniwersytecie Alberty pisać, „To fajna i na czasie praca! Obawiam się jednak, że jest to przereklamowane rozwiązanie. Działa tylko z modelami opartymi na CLIP i według autorów wymagałoby „zatrucia” 8 milionów obrazów, aby mieć znaczący wpływ na generowanie podobnych obrazów dla modeli LAION”.

Glazura, która w czerwcu ubiegłego roku osiągnęła poziom 1.0, już tak wersja internetowai teraz jest na swoim Wydanie 1.1.1, zmienia obrazy, aby uniemożliwić modelom wyszkolonym na tych obrazach replikowanie stylu wizualnego artysty.

Mimikra stylu – dostępna za pośrednictwem zamkniętych usług zamiany tekstu na obraz, takich jak Midjourney, oraz modeli o otwartym kodzie źródłowym, takich jak Stable Diffusion – jest możliwa po prostu poprzez nakłonienie modelu tekstu do obrazu do wytworzenia obrazu w stylu konkretnego artysty.

Zespół uważa, że ​​artyści powinni mieć sposób na zapobieganie utrwalaniu i reprodukowaniu ich stylów wizualnych.

„Naśladowanie stylu powoduje szereg szkodliwych skutków, które mogą nie być oczywiste na pierwszy rzut oka” – stwierdzają boffins. „Artyści, których style są celowo kopiowane, nie tylko odczuwają utratę prowizji i podstawowego dochodu, ale także niskiej jakości syntetyczne kopie rozrzucone w Internecie osłabiają ich markę i reputację. Co najważniejsze, artyści kojarzą swój styl z samą swoją tożsamością.

Porównują mimikrę stylu do kradzieży tożsamości i twierdzą, że zniechęca to aspirujących artystów do tworzenia nowych dzieł.

Zespół zaleca, aby artyści używali zarówno psiankowatego cienia, jak i glazury. Obecnie oba narzędzia należy pobrać i zainstalować osobno, ale trwają prace nad wersją połączoną. ®

Znak czasu:

Więcej z Rejestr