Pengembang Kera Bosan Meninggalkan Sistem Pelatihan Militer AS-Inggris

Pengembang Kera Bosan Meninggalkan Sistem Pelatihan Militer AS-Inggris

Node Sumber: 1772253

Pernahkah Anda memposting foto diri Anda di platform media sosial seperti Facebook, Instagram, Tik Tok, dan lainnya? Jika demikian, mungkin sudah waktunya untuk mempertimbangkan kembali postingan tersebut.

Ini karena teknologi pembuatan gambar AI baru sekarang memungkinkan pengguna untuk menyimpan banyak bingkai foto dan video Anda dan kemudian melatihnya untuk menghasilkan foto palsu yang "realistis" yang menggambarkan Anda dalam posisi yang benar-benar memalukan, ilegal, dan terkadang membahayakan posisi.

Ya, tidak semua orang berisiko tetapi ancamannya nyata.

Meskipun foto selalu rentan manipulasi dan pemalsuan dari era kamar gelap di mana film dimanipulasi dengan gunting dan ditempelkan hingga pemotretan piksel hari ini.

Meskipun itu adalah tugas yang menakutkan dan membutuhkan keterampilan khusus pada masa itu, hari-hari ini membuat pemalsuan fotorealistik yang meyakinkan telah dibuat terlalu mudah.

Pertama, model AI harus mempelajari cara merender atau mensintesis gambar seseorang menjadi foto dari model 2D atau 3D melalui perangkat lunak. Setelah gambar berhasil dirender, gambar secara alami menjadi mainan bagi teknologi dan memiliki kapasitas untuk menghasilkan gambar dalam jumlah tak terbatas.

Ketika seseorang memilih untuk membagikan model AI, orang lain juga dapat bergabung dan mulai membuat gambar orang tersebut juga.

AI Tech Yang Menciptakan Gambar Palsu Dalam yang Merusak Kehidupan

Nyata atau dihasilkan AI?

Studi Kasus Media Sosial

Seorang sukarelawan digambarkan sebagai "berani" oleh Technica, sebuah publikasi teknologi, yang awalnya mengizinkan perusahaan menggunakan gambarnya untuk membuat barang palsu, berubah pikiran.

Ini karena dalam waktu singkat, hasil gambar yang dirender dari Model AI terlalu meyakinkan dan merusak reputasi sukarelawan.

Mengingat risiko reputasi yang tinggi, orang fiktif yang dihasilkan oleh AI, John, menjadi pilihan yang wajar.

John, pria fiktif, adalah seorang guru sekolah dasar, yang seperti banyak orang lainnya telah memposting fotonya di Facebook di tempat kerja, bersantai di rumah, dan di beberapa acara semacam itu.

Gambar "John" yang sebagian besar tidak ofensif dirender dan kemudian digunakan untuk melatih AI untuk menempatkannya pada posisi yang lebih membahayakan.

Dari hanya tujuh gambar, AI dapat dilatih untuk menghasilkan gambar yang membuat seolah-olah John menjalani kehidupan ganda dan rahasia. Misalnya, ia tampil sebagai seseorang yang senang berpose bugil untuk selfie di kelasnya.

Di malam hari, dia pergi ke bar dengan penampilan seperti badut.

Pada akhir pekan, dia adalah bagian dari kelompok paramiliter ekstremis.

AI juga menciptakan kesan bahwa dia pernah dipenjara karena tuduhan obat-obatan terlarang tetapi menyembunyikan fakta ini dari majikannya.

Di foto lainnya, John yang sudah menikah terlihat berpose di samping wanita telanjang yang bukan istrinya di sebuah kantor.

Menggunakan generator gambar AI yang disebut Difusi Stabil (versi 1.5) dan teknik yang disebut Dreambooth, Ars Technica mampu melatih AI cara menghasilkan foto John dalam gaya apa pun. Meskipun John adalah ciptaan fiktif, siapa pun secara teoritis dapat mencapai hasil yang sama dari lima gambar atau lebih. Gambar-gambar ini dapat diambil dari akun media sosial atau diambil sebagai bingkai foto dari video.

Proses mengajari AI cara membuat gambar John memakan waktu sekitar satu jam dan gratis berkat layanan komputasi awan Google.

Ketika pelatihan selesai, pembuatan gambar memakan waktu beberapa jam, kata publikasi itu. Dan ini bukan karena menghasilkan gambar adalah proses yang agak lambat tetapi karena ada kebutuhan untuk menyisir sejumlah "gambar yang tidak sempurna" dan menggunakan semacam "coba-coba" untuk menemukan gambar terbaik.

Studi ini menemukan bahwa itu jauh lebih mudah dibandingkan dengan mencoba membuat foto realistis palsu "John" di Photoshop dari awal.

Berkat teknologi, orang-orang seperti John dapat dibuat seolah-olah bertindak secara ilegal, atau melakukan tindakan tidak bermoral seperti membobol rumah, menggunakan obat-obatan terlarang, dan mandi telanjang dengan seorang siswa. Jika model AI dioptimalkan untuk pornografi, orang seperti John bisa menjadi bintang porno hampir dalam semalam.

Seseorang juga dapat membuat gambar John melakukan hal-hal yang tampaknya tidak menyinggung yang dapat menghancurkan jika dia terlihat sedang minum di bar ketika dia telah berjanji untuk tidak mabuk.

Itu tidak berakhir di sana.

Seseorang juga dapat muncul di saat yang lebih ringan sebagai ksatria abad pertengahan atau astronot. Dalam beberapa kasus, orang bisa menjadi tua dan muda atau bahkan berdandan.

Namun, yang dirender gambar jauh dari sempurna. Melihat lebih dekat dapat membuat mereka palsu.

Sisi negatifnya adalah teknologi yang membuat gambar-gambar ini telah ditingkatkan secara signifikan dan membuatnya tidak mungkin untuk membedakan antara foto yang disintesis dan yang asli.

Namun terlepas dari kekurangannya, pemalsuan itu dapat menimbulkan bayangan keraguan tentang John dan berpotensi merusak reputasinya.

Akhir-akhir ini, sejumlah orang telah menggunakan teknik yang sama (dengan orang sungguhan) untuk menghasilkan foto profil diri mereka sendiri yang unik dan artistik.

Juga layanan dan aplikasi komersial seperti lensa telah menjamur yang menangani pelatihan tersebut.

Bagaimana cara kerjanya?

Karya tentang John mungkin tampak luar biasa jika seseorang tidak mengikuti tren. Saat ini, insinyur perangkat lunak tahu cara membuat gambar fotorealistik baru dari apa pun yang dapat dibayangkan.

Terlepas dari foto, AI secara kontroversial mengizinkan orang untuk membuat karya seni baru yang mengkloning karya seniman yang ada tanpa izin mereka.

Ditangguhkan karena masalah etika

Mitch Jackson, seorang pengacara teknologi AS menyatakan keprihatinan atas proliferasi teknologi pemalsuan dalam di pasar dan mengatakan dia akan mempelajari dampak hukum teknologi di sebagian besar tahun 2023.

"Membedakan antara yang asli dan yang palsu pada akhirnya akan menjadi hal yang mustahil bagi sebagian besar konsumen.”

Adobe sudah memiliki teknologi audio yang disebut Adobe VoCo yang memungkinkan siapa pun terdengar persis seperti orang lain. Bekerja pada Adobe VoCo ditangguhkan karena masalah etika, tetapi lusinan perusahaan lain sedang menyempurnakan teknologinya, dengan beberapa menawarkan alternatif hari ini. Coba lihat, atau dengarkan sendiri, ”Mitchum tersebut.

Versi gambar dan video dari video palsu yang dalam menjadi lebih baik dan lebih baik, katanya.

“Kadang-kadang, tidak mungkin membedakan video palsu dari yang asli,” tambahnya.

Difusi Stabil menggunakan model sintesis gambar pembelajaran mendalam yang dapat membuat gambar baru dari deskripsi teks dan dapat berjalan di PC Windows atau Linux, di Mac, atau di cloud pada perangkat keras komputer sewaan.

Stable Diffusion's neural network dengan bantuan pembelajaran intensif telah dikuasai untuk mengasosiasikan kata-kata dan asosiasi statistik umum antara posisi piksel dalam gambar.

Karena itu, seseorang dapat memberikan prompt Difusi Stabil, seperti "Tom Hanks di ruang kelas", dan itu akan memberi pengguna gambar baru Tom Hanks di ruang kelas.

Dalam kasus Tom Hank, ini seperti berjalan-jalan di taman karena ratusan fotonya sudah ada dalam kumpulan data yang digunakan untuk melatih Difusi Stabil. Tapi untuk membuat gambar orang seperti John, AI akan membutuhkan sedikit bantuan.

Di situlah Dreambooth menendang.

Dreambooth, yang diluncurkan pada 30 Agustus oleh para peneliti Google, menggunakan teknik khusus untuk melatih Stable Diffusion's melalui proses yang disebut "fine tuning".

Pada awalnya, Dreambooth tidak terkait dengan Difusi Stabil, dan Google tidak menyediakan kode sumbernya di tengah kekhawatiran akan penyalahgunaan.

Dalam waktu singkat, seseorang menemukan cara untuk mengadaptasi teknik Dreambooth untuk bekerja dengan Difusi Stabil dan merilis kode secara bebas sebagai proyek sumber terbuka, menjadikan Dreambooth cara yang sangat populer bagi seniman AI untuk mengajarkan gaya artistik baru Difusi Stabil.

Dampak di seluruh dunia

Diperkirakan 4 miliar orang di seluruh dunia menggunakan media sosial. Karena banyak dari kita telah mengunggah lebih dari beberapa foto diri kita sendiri, kita juga bisa menjadi rentan terhadap serangan semacam itu.

Meskipun dampak dari teknologi sintesis gambar telah digambarkan dari sudut pandang laki-laki, perempuan juga cenderung menanggung beban ini.

Ketika wajah atau tubuh perempuan dirender, identitasnya bisa disisipkan secara nakal ke dalam citra pornografi.

Hal ini dimungkinkan oleh banyaknya gambar seksual yang ditemukan dalam kumpulan data yang digunakan dalam pelatihan AI.

Dengan kata lain, ini berarti AI terlalu paham dengan cara menghasilkan gambar-gambar porno tersebut.

Dalam upaya untuk mengatasi beberapa masalah etika ini, Stability AI terpaksa menghapus materi NSFW dari kumpulan data pelatihannya untuk rilis 2.0 yang lebih baru.

Meskipun lisensi perangkat lunaknya melarang orang menggunakan generator AI untuk membuat gambar orang tanpa izin mereka, sangat sedikit atau tidak ada potensi penegakan hukum.

Anak-anak juga tidak aman dari gambar yang disintesis dan dapat diintimidasi menggunakan teknologi ini bahkan dalam kasus di mana gambar tidak dimanipulasi.

AI Tech Yang Menciptakan Gambar Palsu Dalam yang Merusak Kehidupan

Dibuat oleh manusia?

Adakah yang bisa kita lakukan?

Daftar hal yang harus dilakukan bervariasi dari orang ke orang. Salah satu caranya adalah mengambil langkah drastis dengan menghapus gambar secara offline secara bersamaan.

Meskipun itu mungkin berhasil untuk orang biasa, itu bukan solusi yang bagus untuk selebriti dan figur publik lainnya.

Namun, di masa mendatang, orang mungkin dapat melindungi diri dari penyalahgunaan foto melalui sarana teknis. Generator gambar AI masa depan dapat dipaksa secara hukum untuk menyematkan tanda air yang tidak terlihat ke dalam keluarannya.

Dengan begitu, tanda air mereka dapat dibaca nanti dan memudahkan orang untuk mengetahui bahwa itu palsu.

"Diperlukan regulasi yang luas. Konten apa pun yang dimanipulasi atau palsu harus diwajibkan untuk menampilkan surat atau peringatan secara jelas, seperti di film (G, PG, R, dan X). Mungkin sesuatu seperti Diubah Secara Digital atau DA," kata Mitchum.

Stability AI meluncurkan Stable Diffusion sebagai proyek open source tahun ini.

Untuk kreditnya, Stable Diffusion sudah menggunakan tanda air yang disematkan secara default, tetapi orang yang mengakses versi sumber terbukanya cenderung mengabaikannya dengan menonaktifkan komponen tanda air dari perangkat lunak atau menghapusnya seluruhnya.

MIT untuk mengurangi

Meskipun ini murni spekulatif, tanda air yang ditambahkan secara sukarela ke foto pribadi, mungkin dapat mengganggu proses pelatihan Dreambooth. Sekelompok peneliti MIT berkata Penjaga foto, sebuah proses adversarial yang bertujuan untuk melindungi dan melindungi AI dari mensintesis foto yang ada melalui modifikasi kecil melalui penggunaan metode watermarking yang tidak terlihat. Namun, ini hanya terbatas pada kasus penggunaan pengeditan AI (sering disebut "inpainting") dan mencakup pelatihan atau pembuatan gambar.

"AI mengambil alih menulis & melukis! Kepalsuan yang dalam akan merusak video!
Bagus.
Itu berarti pertunjukan langsung menjadi LEBIH berharga. Pameran dagang akan berkembang pesat. Manusia ingin berbisnis dengan manusia.
Ruang daging masih merupakan ruang terbaik" Jonathan Pitchard kata.

Akhir-akhir ini, telah berkembang biak teknologi AI yang menulis puisi, sajak dan lagu. Dan beberapa yang penguasaan permainan.

Kritikus telah mengambil kemajuan teknologi secara negatif dan percaya AI mengambil alih pekerjaan manusia.

/MetaBerita.

Stempel Waktu:

Lebih dari Berita Meta