Seniman kini dapat meracuni gambar mereka untuk mencegah penyalahgunaan oleh AI

Seniman kini dapat meracuni gambar mereka untuk mencegah penyalahgunaan oleh AI

Node Sumber: 3074000

Para peneliti Universitas Chicago minggu ini merilis Nightshade 1.0, sebuah alat yang dibuat untuk menghukum pembuat model pembelajaran mesin yang tidak bermoral yang melatih sistem mereka pada data tanpa mendapatkan izin terlebih dahulu.

nightshade adalah alat peracunan data ofensif, pendamping alat perlindungan gaya defensif yang disebut Glaze, yang Pendaftaran tercakup pada Februari tahun lalu.

Nightshade meracuni file gambar untuk memberikan gangguan pada model yang menyerap data tanpa izin. Hal ini dimaksudkan agar model pelatihan yang berorientasi gambar menghormati keinginan pembuat konten tentang penggunaan karya mereka.

“Nightshade dihitung sebagai optimasi multi-tujuan yang meminimalkan perubahan yang terlihat pada gambar asli,” tersebut tim yang bertanggung jawab atas proyek tersebut.

“Misalnya, mata manusia mungkin melihat gambar sapi di lapangan hijau yang sebagian besar tidak berubah, namun model AI mungkin melihat dompet kulit besar tergeletak di rumput. “

Nightshade dikembangkan oleh mahasiswa doktoral Universitas Chicago Shawn Shan, Wenxin Ding, dan Josephine Passananti, serta profesor Heather Zheng dan Ben Zhao, beberapa di antaranya juga membantu dalam Glaze.

Dijelaskan dalam a telaahan pada bulan Oktober 2023, Nightshade adalah serangan keracunan yang spesifik dan cepat. Meracuni suatu gambar melibatkan pemilihan label (misalnya kucing) yang menggambarkan apa yang sebenarnya digambarkan untuk mengaburkan batas-batas konsep tersebut ketika gambar tersebut diserap untuk pelatihan model.

Jadi, pengguna model yang dilatih tentang gambar beracun Nightshade mungkin mengirimkan perintah untuk kucing dan menerima pemberitahuan gambar anjing atau ikan. Respons yang tidak dapat diprediksi seperti ini membuat model text-to-image menjadi kurang berguna, yang berarti pembuat model mempunyai insentif untuk memastikan bahwa mereka hanya berlatih berdasarkan data yang ditawarkan secara gratis.

“Nightshade dapat memberikan alat yang ampuh bagi pemilik konten untuk melindungi kekayaan intelektual mereka dari pelatih model yang mengabaikan atau mengabaikan pemberitahuan hak cipta, arahan jangan mengikis/merangkak, dan daftar pilihan untuk tidak ikut serta,” para penulis menyatakan dalam makalah mereka.

Kegagalan untuk mempertimbangkan keinginan pencipta dan pemilik karya seni menyebabkan tuntutan hukum diajukan tahun lalu, bagian dari penolakan yang lebih luas terhadap pengambilan data tanpa izin demi kepentingan bisnis AI. Klaim pelanggaran, yang dibuat atas nama beberapa seniman terhadap Stability AI, Deviant Art, dan Midjourney, menuduh bahwa model Difusi Stabil yang digunakan oleh perusahaan tergugat menggabungkan karya seniman tanpa izin. Kasus tersebut, diubah pada November 2023 dengan memasukkan terdakwa baru, Runway AI, terus untuk diadili.

Penulis mengingatkan bahwa Nightshade memang memiliki beberapa keterbatasan. Secara khusus, gambar yang diproses dengan perangkat lunak mungkin sedikit berbeda dari aslinya, khususnya karya seni yang menggunakan warna datar dan latar belakang halus. Selain itu, mereka mengamati bahwa teknik untuk menghancurkan Nightshade dapat dikembangkan, meskipun mereka yakin bahwa mereka dapat menyesuaikan perangkat lunak mereka untuk mengimbangi tindakan penanggulangannya.

Matthew Guzdial, asisten profesor ilmu komputer di Universitas Alberta, mengatakan di media sosial pos, “Ini pekerjaan yang keren dan tepat waktu! Namun saya khawatir hal ini dilebih-lebihkan sebagai solusinya. Ini hanya berfungsi dengan model berbasis CLIP dan menurut penulisnya, akan membutuhkan 8 juta gambar yang 'diracuni' agar memiliki dampak signifikan dalam menghasilkan gambar serupa untuk model LAION.”

Glaze, yang mencapai 1.0 pada Juni lalu, telah versi web, dan sekarang sedang berjalan 1.1.1 rilis, mengubah gambar untuk mencegah model yang dilatih menggunakan gambar tersebut meniru gaya visual artis.

Mimikri gaya – tersedia melalui layanan teks-ke-gambar tertutup seperti Midjourney dan melalui model sumber terbuka seperti Difusi Stabil – dapat dilakukan hanya dengan meminta model teks-ke-gambar untuk menghasilkan gambar sesuai gaya artis tertentu.

Tim percaya seniman harus mempunyai cara untuk mencegah penangkapan dan reproduksi gaya visual mereka.

“Peniruan gaya menghasilkan sejumlah akibat berbahaya yang mungkin tidak terlihat jelas pada pandangan pertama,” kata para peneliti. “Bagi seniman yang gayanya sengaja ditiru, mereka tidak hanya mengalami kerugian dalam komisi dan pendapatan dasar, namun salinan sintetis berkualitas rendah yang tersebar secara online melemahkan merek dan reputasi mereka. Yang terpenting, seniman mengasosiasikan gaya mereka dengan identitas mereka.”

Mereka menyamakan mimikri gaya dengan pencurian identitas dan mengatakan bahwa hal itu menghambat calon seniman untuk menciptakan karya baru.

Tim merekomendasikan agar seniman menggunakan Nightshade dan Glaze. Saat ini kedua alat tersebut masing-masing harus diunduh dan diinstal secara terpisah, namun versi gabungan sedang dikembangkan. ®

Stempel Waktu:

Lebih dari Pendaftaran