Gli artisti ora possono avvelenare le loro immagini per scoraggiare l’uso improprio da parte dell’intelligenza artificiale

Gli artisti ora possono avvelenare le loro immagini per scoraggiare l’uso improprio da parte dell’intelligenza artificiale

Nodo di origine: 3074000

Gli esperti dell'Università di Chicago questa settimana hanno rilasciato Nightshade 1.0, uno strumento creato per punire i creatori senza scrupoli di modelli di apprendimento automatico che addestrano i loro sistemi sui dati senza prima ottenere il permesso.

solano è uno strumento offensivo di avvelenamento dei dati, complementare a uno strumento di protezione in stile difensivo chiamato Glaze, quale Il registro coperto nel febbraio dello scorso anno.

Nightshade avvelena i file di immagine per dare indigestione ai modelli che ingeriscono dati senza autorizzazione. Ha lo scopo di fare in modo che i modelli orientati alla formazione rispettino i desideri dei creatori di contenuti riguardo all'uso del loro lavoro.

"Nightshade viene calcolato come un'ottimizzazione multi-obiettivo che riduce al minimo le modifiche visibili all'immagine originale," disse il team responsabile del progetto.

“Ad esempio, gli occhi umani potrebbero vedere un’immagine ombreggiata di una mucca in un campo verde sostanzialmente invariata, ma un modello di intelligenza artificiale potrebbe vedere una grande borsa di pelle stesa nell’erba. “

Nightshade è stato sviluppato dagli studenti di dottorato dell'Università di Chicago Shawn Shan, Wenxin Ding e Josephine Passananti e dai professori Heather Zheng e Ben Zhao, alcuni dei quali hanno anche aiutato con Glaze.

Descritto in a documento di ricerca nell'ottobre 2023, Nightshade è un attacco di avvelenamento specifico per il pronto. Avvelenare un'immagine implica scegliere un'etichetta (ad esempio un gatto) che descriva ciò che è effettivamente raffigurato in modo da offuscare i confini di quel concetto quando l'immagine viene importata per l'addestramento del modello.

Pertanto, un utente di un modello addestrato su immagini avvelenate da Nightshade potrebbe inviare una richiesta per un gatto e ricevere la notifica di un'immagine di un cane o di un pesce. Risposte imprevedibili di questo tipo rendono i modelli text-to-image molto meno utili, il che significa che i creatori di modelli sono incentivati ​​a garantire che si allenino solo su dati offerti liberamente.

"Nightshade può fornire un potente strumento ai proprietari di contenuti per proteggere la loro proprietà intellettuale da formatori modello che ignorano o ignorano gli avvisi di copyright, le direttive di non raschiare/scansionare e gli elenchi di opt-out", affermano gli autori nel loro articolo.

La mancata considerazione dei desideri dei creatori e dei proprietari di opere d'arte ha portato ad una causa depositato lo scorso anno, parte di una più ampia reazione contro la raccolta senza autorizzazione di dati a vantaggio delle aziende di intelligenza artificiale. La denuncia per violazione, presentata per conto di diversi artisti contro Stability AI, Deviant Art e Midjourney, sostiene che il modello Stable Diffusion utilizzato dalle aziende convenute incorpora il lavoro degli artisti senza autorizzazione. Il caso, modificato nel novembre 2023 per includere un nuovo imputato, Runway AI, continua essere litigato.

Gli autori avvertono che Nightshade presenta alcune limitazioni. Nello specifico, le immagini elaborate con il software potrebbero essere leggermente diverse dall'originale, in particolare le opere d'arte che utilizzano colori uniformi e sfondi uniformi. Inoltre, osservano che potrebbero essere sviluppate tecniche per annullare Nightshade, sebbene credano di poter adattare il loro software per tenere il passo con le contromisure.

Lo ha detto Matthew Guzdial, assistente professore di informatica all'Università di Alberta, sui social media settimana, “Questo è un lavoro interessante e tempestivo! Ma temo che venga sopravvalutata come soluzione. Funziona solo con modelli basati su CLIP e, secondo gli autori, richiederebbe 8 milioni di immagini “avvelenate” per avere un impatto significativo sulla generazione di immagini simili per i modelli LAION”.

Glaze, che ha raggiunto 1.0 lo scorso giugno, ha una versione web, ed è ora sul suo Rilascio 1.1.1, altera le immagini per impedire ai modelli addestrati su quelle immagini di replicare lo stile visivo dell'artista.

Il mimetismo di stile – disponibile attraverso servizi chiusi di conversione testo-immagine come Midjourney e attraverso modelli open source come Stable Diffusion – è possibile semplicemente richiedendo un modello testo-immagine per produrre un’immagine nello stile di un artista specifico.

Il team ritiene che gli artisti dovrebbero avere un modo per impedire la cattura e la riproduzione dei loro stili visivi.

"L'imitazione dello stile produce una serie di risultati dannosi che potrebbero non essere evidenti a prima vista", affermano gli esperti. “Per gli artisti i cui stili vengono copiati intenzionalmente, non solo vedono una perdita di commissioni e di reddito di base, ma le copie sintetiche di bassa qualità sparse online diluiscono il loro marchio e la loro reputazione. Ancora più importante, gli artisti associano i loro stili alla loro stessa identità.

Paragonano il mimetismo di stile al furto di identità e affermano che disincentiva gli aspiranti artisti a creare nuove opere.

Il team consiglia agli artisti di utilizzare sia Nightshade che Glaze. Attualmente i due strumenti devono essere scaricati e installati separatamente, ma è in fase di sviluppo una versione combinata. ®

Timestamp:

Di più da Il registro