Dimungkinkan untuk mengekstraksi salinan gambar yang digunakan untuk melatih model AI generatif

Dimungkinkan untuk mengekstraksi salinan gambar yang digunakan untuk melatih model AI generatif

Node Sumber: 1942543

Model AI generatif dapat mengingat gambar dari data pelatihan mereka, memungkinkan pengguna untuk mengekstrak data hak cipta pribadi, menurut penelitian.

Alat seperti DALL-E, Stable Diffusion, dan Midjourney dilatih pada miliaran gambar yang diambil dari internet, termasuk data yang dilindungi oleh hak cipta seperti karya seni dan logo. Mereka belajar memetakan representasi visual objek dan gaya ke bahasa alami. Saat diberi deskripsi teks sebagai input, mereka menghasilkan gambar yang cocok dengan teks sebagai output.

Teknologi baru telah memicu perdebatan hukum baru tentang hak cipta: apakah alat ini melanggar hak kekayaan intelektual karena mereka menyerap gambar berhak cipta tanpa izin?

Tuntutan hukum telah mengajukan terhadap pembuat alat AI generatif paling populer karena melanggar hak cipta. Perusahaan yang membangun model teks-ke-gambar berpendapat bahwa karena perangkat lunak mereka menghasilkan gambar unik, penggunaan data hak cipta oleh mereka adalah penggunaan wajar. Tetapi para seniman yang telah melihat gaya dan karya mereka ditiru oleh alat-alat ini percaya bahwa mereka telah ditipu.

Sekarang penelitian yang dipimpin oleh para peneliti yang bekerja di Google, DeepMind, Universitas California, Berkeley, ETH Zurich, dan Universitas Princeton menunjukkan bahwa gambar yang digunakan untuk melatih model ini dapat diekstraksi. Model AI generatif mengingat gambar dan dapat menghasilkan salinan persisnya, meningkatkan masalah hak cipta dan privasi baru.

difusi_ekstraksi_penelitian

Beberapa contoh gambar yang berhasil diambil peneliti dari Stable Diffusion

"Dalam serangan nyata, di mana musuh ingin mengekstraksi informasi pribadi, mereka akan menebak label atau keterangan yang digunakan untuk sebuah gambar," kata rekan penulis studi tersebut. Pendaftaran.

“Untungnya bagi penyerang, metode kami terkadang bisa berhasil meski tebakannya tidak sempurna. Misalnya, kita dapat mengekstrak potret Ann Graham Lotz hanya dengan mendorong Stable Diffusion dengan namanya, alih-alih keterangan lengkap dari set pelatihan (“Hidup dalam cahaya bersama Ann Graham Lotz”).

difusi_ekstraksi_penelitian_2

Hanya gambar yang dihafal oleh model yang dapat diekstraksi, dan seberapa banyak model dapat mengingat data bervariasi berdasarkan faktor seperti data pelatihan dan ukurannya. Salinan dari gambar yang sama lebih mungkin untuk diingat, dan model yang berisi lebih banyak parameter lebih mungkin untuk dapat mengingat gambar juga.

Tim mampu mengekstrak 94 gambar dari 350,000 contoh yang digunakan untuk melatih Difusi Stabil, dan 23 gambar dari 1,000 contoh dari Google. Gambar model. Sebagai perbandingan, Difusi Stabil memiliki 890 juta parameter dan dilatih pada 160 juta gambar, sedangkan Imagen memiliki dua miliar parameter – tidak jelas berapa banyak gambar yang digunakan untuk melatihnya dengan tepat.

“Untuk Difusi Stabil, kami menemukan bahwa sebagian besar gambar yang dihafal digandakan 100 kali atau lebih dalam set pelatihan, tetapi beberapa hanya 10 kali,” kata para peneliti. “Untuk model Imagen Google, yang merupakan model yang lebih besar daripada Difusi Stabil dan dilatih pada kumpulan data yang lebih kecil, menghafal tampaknya jauh lebih sering. Di sini kami menemukan beberapa gambar outlier yang hanya ada satu kali di seluruh rangkaian pelatihan, namun masih dapat diekstrak.”

Mereka tidak begitu yakin mengapa model yang lebih besar cenderung mengingat lebih banyak gambar, tetapi percaya itu mungkin ada hubungannya dengan kemampuan untuk menyimpan lebih banyak data pelatihan mereka dalam parameternya.

Tingkat menghafal untuk model ini cukup rendah, dan pada kenyataannya mengekstraksi gambar akan membosankan dan rumit. Penyerang harus menebak dan mencoba berbagai petunjuk untuk mengarahkan model agar menghasilkan data yang dihafal. Namun, tim memperingatkan pengembang untuk tidak melatih model AI generatif pada data sensitif pribadi.

“Seberapa buruk hafalan tergantung pada penerapan model generatif. Dalam aplikasi yang sangat pribadi, seperti dalam domain medis (misalnya pelatihan rontgen dada atau rekam medis), menghafal sangat tidak diinginkan, meskipun hanya memengaruhi sebagian kecil pengguna. Selain itu, set pelatihan yang digunakan dalam aplikasi sensitif privasi biasanya lebih kecil daripada yang digunakan untuk melatih model seni generatif saat ini. Oleh karena itu, kami mungkin melihat lebih banyak hafalan, termasuk gambar yang tidak digandakan, ”kata mereka kepada kami.

Salah satu cara untuk mencegah ekstraksi data adalah dengan mengurangi kemungkinan menghafal dalam model. Menyingkirkan duplikat dalam dataset pelatihan, misalnya, akan meminimalkan kemungkinan gambar dihafal dan diekstraksi. Stabilitas AI, pencipta Stable Diffusion, dilaporkan telah melatih model terbaru mereka pada kumpulan data yang berisi lebih sedikit duplikat secara independen dari temuan para peneliti.

Sekarang model teks-ke-gambar terbukti dapat menghasilkan salinan persis dari gambar yang mereka latih, tidak jelas bagaimana hal ini dapat memengaruhi kasus hak cipta.

“Argumen umum yang kami lihat dibuat orang secara online adalah beberapa varian dari 'model ini tidak pernah menghafal data pelatihan'. Kita sekarang tahu bahwa ini jelas salah. Tapi apakah ini benar-benar penting atau tidak dalam debat hukum juga bisa diperdebatkan, ”pungkas para peneliti.

“Setidaknya sekarang, kedua belah pihak dalam tuntutan hukum ini memiliki beberapa fakta nyata yang dapat mereka andalkan: ya, penghafalan terjadi; tetapi sangat jarang; dan tampaknya hal itu terutama terjadi pada gambar yang sangat digandakan.” ®

Stempel Waktu:

Lebih dari Pendaftaran