Sanatçılar artık yapay zekanın kötüye kullanımını engellemek için görsellerini zehirleyebilecek

Sanatçılar artık yapay zekanın kötüye kullanımını engellemek için görsellerini zehirleyebilecek

Kaynak Düğüm: 3074000

Chicago Üniversitesi bilim adamları bu hafta, izin almadan sistemlerini veriler üzerinde eğiten vicdansız makine öğrenimi modellerini yapanları cezalandırmak için tasarlanmış bir araç olan Nightshade 1.0'ı piyasaya sürdü.

İtüzümü saldırgan bir veri zehirleme aracıdır ve adı verilen savunma tarzı koruma aracının tamamlayıcısıdır. Sır, Hangi Kayıt kaplı geçen yıl şubatta.

Nightshade, verileri izinsiz tüketen modellere hazımsızlık yaşatmak için görüntü dosyalarını zehirler. Görüntü odaklı modellerin eğitiminin, içerik oluşturucuların çalışmalarının kullanımına ilişkin isteklerine saygı duymasını sağlamak amaçlanıyor.

"Nightshade, orijinal görüntüde gözle görülür değişiklikleri en aza indiren çok amaçlı bir optimizasyon olarak hesaplanıyor." şuraya projeden sorumlu ekip.

“Örneğin, insan gözü yeşil bir tarladaki bir ineğin gölgeli görüntüsünü büyük ölçüde değişmeden görebilir, ancak bir yapay zeka modeli çimlerin arasında duran büyük bir deri çantayı görebilir. “

Nightshade, Chicago Üniversitesi doktora öğrencileri Shawn Shan, Wenxin Ding ve Josephine Passananti ile bazıları Glaze'e de yardımcı olan profesörler Heather Zheng ve Ben Zhao tarafından geliştirildi.

Bir Araştırma kağıdı Ekim 2023'te Nightshade, istemli bir zehirlenme saldırısıdır. Bir görseli zehirlemek, görsel model eğitimi için alındığında kavramın sınırlarını bulanıklaştırmak amacıyla gerçekte neyin tasvir edildiğini açıklayan bir etiketin (örneğin bir kedi) seçilmesini içerir.

Yani Nightshade'in zehirli görüntüleri konusunda eğitilmiş bir modelin kullanıcısı, bir kedi için istem gönderebilir ve bir köpek veya balık görüntüsüne ilişkin bildirim alabilir. Bu tür öngörülemeyen yanıtlar, metinden görüntüye modelleri önemli ölçüde daha az kullanışlı hale getiriyor; bu da model yapımcılarının yalnızca ücretsiz olarak sunulan veriler üzerinde eğitim almalarını sağlama teşvikine sahip oldukları anlamına geliyor.

Yazarlar makalelerinde şöyle belirtiyor: "Nightshade, içerik sahiplerinin fikri mülkiyetlerini, telif hakkı bildirimlerini, kazıma/tarama direktiflerini ve devre dışı bırakma listelerini göz ardı eden veya görmezden gelen model eğitmenlere karşı korumaları için güçlü bir araç sağlayabilir."

Sanat eseri yaratıcılarının ve sahiplerinin isteklerinin dikkate alınmaması davaya yol açtı geçen yıl dosyalandıYapay zeka işletmelerinin yararına verilerin izinsiz toplanmasına karşı daha geniş bir tepkinin parçası. Birkaç sanatçı adına Stability AI, Deviant Art ve Midjourney'e karşı yapılan ihlal iddiasında, davalı firmalar tarafından kullanılan Stable Diffusion modelinin sanatçıların çalışmalarını izinsiz olarak içerdiği iddia ediliyor. Kasım 2023'te yeni bir sanık olan Runway AI'yi içerecek şekilde değiştirilen dava, devam ediyor dava edilmek üzere.

Yazarlar Nightshade'in bazı sınırlamaları olduğu konusunda uyarıyorlar. Özellikle, yazılımla işlenen görüntüler, özellikle de düz renkler ve pürüzsüz arka planlar kullanan resimler orijinalinden biraz farklı olabilir. Ayrıca Nightshade'i geri alma tekniklerinin geliştirilebileceğini gözlemliyorlar, ancak yazılımlarını karşı önlemlere ayak uyduracak şekilde uyarlayabileceklerine inanıyorlar.

Alberta Üniversitesi'nde bilgisayar bilimi yardımcı doçenti Matthew Guzdial, sosyal medyada şunları söyledi: Facebook post, “Bu harika ve zamanında yapılan bir iş! Ancak çözüm olarak aşırı abartıldığından endişeleniyorum. Yalnızca CLIP tabanlı modellerle çalışıyor ve yazarlara göre, LAION modelleri için benzer görüntülerin oluşturulmasında önemli bir etkiye sahip olması için 8 milyon görüntünün 'zehirlenmesi' gerekiyor."

Geçtiğimiz haziran ayında 1.0'a ulaşan Glaze, bir web versiyonuve şu anda yolunda 1.1.1 açıklaması, bu görüntüler üzerinde eğitilen modellerin sanatçının görsel stilini kopyalamasını önlemek için görüntüleri değiştirir.

Midjourney gibi kapalı metin-görüntü hizmetleri ve Stable Diffusion gibi açık kaynaklı modeller yoluyla elde edilebilen stil taklidi, yalnızca metinden görüntüye modelinin belirli bir sanatçının tarzında bir görüntü üretmesini teşvik ederek mümkündür.

Ekip, sanatçıların görsel tarzlarının yakalanmasını ve çoğaltılmasını önleyecek bir yola sahip olmaları gerektiğine inanıyor.

Boffins, "Tarz taklitçiliği ilk bakışta bariz olmayabilecek bir takım zararlı sonuçlar doğuruyor" diyor. “Stilleri kasıtlı olarak kopyalanan sanatçılar, yalnızca komisyonlarda ve temel gelirde kayıp görmekle kalmıyor, aynı zamanda çevrimiçi olarak dağıtılan düşük kaliteli sentetik kopyaların markalarını ve itibarlarını zedelediğini görüyorlar. En önemlisi sanatçılar tarzlarını kendi kimlikleriyle ilişkilendiriyorlar.”

Stil taklidini kimlik hırsızlığına benzetiyorlar ve bunun sanatçıları yeni işler yaratma konusunda caydırdığını söylüyorlar.

Ekip, sanatçıların hem Nightshade hem de Glaze kullanmasını öneriyor. Şu anda iki aracın her birinin ayrı ayrı indirilip kurulması gerekiyor, ancak birleşik bir sürüm geliştiriliyor. ®

Zaman Damgası:

Den fazla Kayıt