Melawan AI dengan AI Fraud Monitoring untuk Aplikasi Deepfake - KDnuggets

Melawan AI dengan AI Fraud Monitoring untuk Aplikasi Deepfake – KDnuggets

Node Sumber: 2667255
Memerangi AI dengan Pemantauan Penipuan AI untuk Aplikasi Deepfake
Foto oleh Tim Miroshnichenko
 

Deepfake telah menjadi topik perbincangan besar di komunitas ilmu data selama beberapa tahun. Kembali pada tahun 2020, Tinjauan Teknologi MIT mengemukakan bahwa itu palsu telah mencapai “titik kritis untuk penggunaan arus utama”.

Data tentu saja mendukung hal tersebut. Itu Wall Street Journal melaporkan bahwa kurang dari 10,000 deepfake telah ditemukan secara online pada tahun 2018. Jumlah tersebut kini mencapai jutaan, dan ada banyak contoh nyata deep fake yang digunakan untuk membingungkan dan memberikan informasi yang salah serta melanggengkan penipuan finansial. 

Teknik deepfake memberikan banyak pilihan canggih bagi penjahat dunia maya.

Mereka melampaui kemampuan untuk memasukkan gambar selebriti ke dalam materi promosi untuk tawaran Bitcoin yang “tidak boleh dilewatkan”, yang – tentu saja – ternyata merupakan penipuan. Video deepfake, khususnya, menjadi sasaran para penipu. Mereka memberi mereka cara untuk melewati pemeriksaan ID dan KYC otomatis dan telah terbukti sangat efektif.

Pada bulan Mei 2022, Verge melaporkan bahwa “tes keaktifan” yang digunakan oleh bank dan lembaga lain untuk membantu memverifikasi identitas pengguna dapat dengan mudah ditipu oleh pemalsuan besar-besaran. Studi terkait menemukan bahwa 90% dari sistem verifikasi ID yang diuji rentan.

Jadi apa jawabannya? Apakah kita memasuki era di mana penjahat dunia maya dapat dengan mudah menggunakan teknologi palsu untuk mengecoh langkah-langkah keamanan yang digunakan oleh lembaga keuangan? Akankah bisnis seperti itu harus membuang sistem otomatisnya dan kembali ke pemeriksaan manual yang dilakukan oleh manusia?

Jawaban sederhananya adalah “mungkin tidak”. Sama seperti penjahat yang dapat memanfaatkan lonjakan tersebut kemajuan AI, begitu pula perusahaan yang mereka targetkan. Sekarang mari kita lihat bagaimana bisnis yang rentan dapat melawan AI dengan AI.

Deepfake diproduksi menggunakan berbagai teknik kecerdasan buatan, seperti:

  • jaringan adversarial generatif (GAN) 
  • pasangan encoder/decoder
  • model gerak orde pertama

Teknik-teknik ini, sekilas mungkin terdengar seperti milik eksklusif komunitas pembelajaran mesin, lengkap dengan hambatan masuk yang tinggi dan kebutuhan akan pengetahuan teknis ahli. Namun, seperti elemen AI lainnya, elemen tersebut menjadi jauh lebih mudah diakses seiring berjalannya waktu.

Alat yang tersedia dan berbiaya rendah kini memungkinkan pengguna non-teknis untuk membuat pemalsuan yang mendalam, sama seperti siapa pun dapat mendaftar ke OpenAI dan menguji kemampuan ChatGPT.

Baru-baru ini pada tahun 2020, Forum Ekonomi Dunia melaporkan bahwa biaya produksi “canggih” deepfake di bawah $30,000. Namun pada tahun 2023, profesor Wharton School Ethan Mollick mengungkapkan, melalui postingan viral di Twitter, bahwa dia telah menghasilkan video palsu yang mendalam tentang dirinya menyampaikan ceramah dalam waktu kurang dari enam menit.

Total pembelanjaan Mollick adalah $10.99. Dia menggunakan layanan bernama ElevenLabs untuk meniru suaranya dengan hampir sempurna, dengan biaya $5. Layanan lain yang disebut D-ID, dengan harga $5.99 per bulan, menghasilkan video hanya berdasarkan skrip dan satu foto. Dia bahkan menggunakan ChatGPT untuk membuat skripnya sendiri.

Ketika deepfake pertama kali muncul, fokus utamanya adalah pada video politik palsu (dan pornografi palsu). Sejak itu, dunia telah menyaksikan:

  • BuzzFeedVideos membuat iklan layanan masyarakat palsu yang “menampilkan” Barack Obama, yang ditiru oleh aktor Jordon Peele.
  • Video YouTube palsu yang dimaksudkan untuk menunjukkan Donald Trump bercerita tentang rusa kutub.
  • Video palsu mendalam tentang Hilary Clinton yang ditampilkan di Saturday Night Live, padahal dia sebenarnya ditiru oleh salah satu pemerannya.

Meskipun contoh-contoh ini menunjukkan sisi “menyenangkan” dari deepfake, dan mungkin memberikan gambaran nyata mengenai kemampuan teknologinya, para penipu tidak membuang-buang waktu dalam menggunakannya untuk tujuan jahat. 

Ada banyak contoh penipuan dalam kehidupan nyata yang dilakukan dengan menggunakan teknik deepfake.

Kerugian akibat penipuan palsu berkisar dari ratusan ribu hingga jutaan. Pada tahun 2021, penipuan kloning suara AI digunakan untuk mengatur transfer bank palsu sebesar $35 juta. Ini adalah imbalan finansial yang sangat besar yang bahkan tidak terjadi membutuhkan penggunaan video.

Kualitas keluaran AI, khususnya video, bisa sangat bervariasi. Beberapa video jelas-jelas palsu bagi manusia. Namun, seperti disebutkan di atas, sistem otomatis, seperti yang digunakan oleh bank dan fintech, di masa lalu terbukti mudah ditipu.

Keseimbangan tersebut kemungkinan akan semakin bergeser seiring dengan peningkatan kemampuan AI. Perkembangan terkini adalah penggabungan “kontra forensik”, di mana “kebisingan” tak kasat mata yang ditargetkan ditambahkan ke dalam pemalsuan mendalam, dalam upaya untuk mengelabui mekanisme deteksi.

Jadi apa yang bisa dilakukan?

Sama seperti para penipu yang berusaha menggunakan teknologi AI terbaru untuk mendapatkan keuntungan finansial, bisnis seperti perusahaan teknologi juga bekerja keras menemukan cara memanfaatkan teknologi untuk menangkap penjahat.

Berikut beberapa contoh perusahaan yang menggunakan AI untuk melawan AI:

Pada akhir tahun 2022, Intel meluncurkan alat berbasis AI yang disebut “Penangkap Palsu”. Dengan tingkat keandalan Intel yang dilaporkan sebesar 96%, Intel menggunakan teknologi yang dikenal sebagai photoplethysmography (PPG).

Teknologi ini memanfaatkan sesuatu yang tidak ada dalam video buatan: aliran darah. Dilatih pada video yang sah, algoritme pembelajaran mendalamnya mengukur cahaya yang diserap atau dipantulkan oleh pembuluh darah, yang berubah warna saat darah bergerak ke seluruh tubuh.

FakeCatcher, bagian dari inisiatif AI yang Bertanggung Jawab dari Intel, digambarkan sebagai “detektor palsu mendalam real-time pertama di dunia yang memberikan hasil dalam hitungan milidetik.” Ini adalah teknologi inovatif yang mencari tanda-tanda bahwa orang yang ditampilkan dalam video benar-benar manusia. Ia mencari sesuatu yang “benar”, daripada menganalisis data untuk menyoroti sesuatu yang “salah”. Ini adalah bagaimana hal itu menunjukkan kemungkinan palsu.

Sementara itu, ilmuwan komputer Universitas Buffalo (UB) sedang mengerjakan sendiri teknologi pendeteksi deepfake. Ia menggunakan sesuatu yang diketahui oleh para gamer PC membutuhkan kekuatan pemrosesan yang sangat besar untuk ditiru: ringan.

Diklaim UB 94% efektif pada foto palsu, alat AI melihat bagaimana cahaya memantul di mata subjek. Permukaan kornea bertindak sebagai cermin, dan menghasilkan “pola reflektif”.

Penelitian para ilmuwan yang bertajuk “Mengekspos Wajah yang Dihasilkan GAN Menggunakan Sorotan Spekular Kornea yang Tidak Konsisten”, menunjukkan bahwa “Wajah yang disintesis GAN dapat diekspos dengan sorotan spekuler kornea yang tidak konsisten di antara dua mata”.

Hal ini menunjukkan bahwa “tidaklah sepele” bagi sistem AI untuk meniru hal-hal penting yang sebenarnya. Gamer PC, yang sering berinvestasi pada kartu grafis ray-tracing terbaru untuk merasakan efek pencahayaan yang realistis, secara naluriah akan mengenali tantangan di sini.

Mungkin tantangan terbesar dalam mendeteksi penipuan adalah permainan “kucing dan tikus” yang tiada habisnya antara penipu dan pihak yang berupaya menggagalkannya. Setelah pengumuman seperti di atas, kemungkinan besar orang-orang sudah berupaya membangun teknologi yang dapat menghindari dan mengalahkan mekanisme deteksi tersebut.

Keberadaan mekanisme seperti itu juga merupakan suatu hal yang penting, namun hal lain yang perlu diperhatikan adalah melihatnya secara rutin diintegrasikan ke dalam solusi yang digunakan oleh dunia usaha. Sebelumnya, kami mengacu pada statistik yang menyatakan bahwa 90% solusi dapat “mudah ditipu”. Kemungkinannya adalah setidaknya beberapa lembaga keuangan masih menggunakan sistem seperti itu.

Seorang yang bijaksana pemantauan penipuan Strategi ini mengharuskan perusahaan untuk melihat lebih dari sekadar mendeteksi kepalsuan yang mendalam. Banyak hal yang bisa dilakukan sebelum penipu masuk cukup jauh ke dalam sistem untuk berpartisipasi dalam verifikasi ID berbasis video atau proses KYC. Tindakan pencegahan yang dilakukan lebih awal dalam proses mungkin juga melibatkan elemen AI dan pembelajaran mesin.

Misalnya, pembelajaran mesin dapat digunakan untuk pemantauan penipuan secara real-time dan pembuatan aturan. Ini dapat melihat peristiwa penipuan di masa lalu, mendeteksi pola yang dapat dengan mudah terlewatkan oleh manusia. Transaksi yang dianggap berisiko tinggi dapat langsung ditolak, atau lolos untuk peninjauan manual bahkan sebelum mencapai tahap di mana mungkin ada pemeriksaan ID – dan oleh karena itu merupakan peluang bagi penipu untuk menggunakan teknologi deepfake.

Semakin dini sistem mendeteksi penjahat dunia maya, semakin baik. Kecil kemungkinan mereka dapat melanggengkan kejahatan dan lebih kecil pula biaya yang dikeluarkan perusahaan untuk melakukan pemeriksaan lebih lanjut. Pemeriksaan identitas berbasis video memerlukan biaya yang besar, bahkan tanpa adanya teknologi AI untuk mendeteksi pemalsuan identitas.

Jika penipu dapat diidentifikasi sebelum mereka bertindak sejauh itu, dengan teknik seperti jejak digital, akan ada lebih banyak sumber daya yang tersedia untuk mengoptimalkan pemeriksaan terhadap lebih banyak kasus yang berada di ambang batas.

Sifat pembelajaran mesin seharusnya menentukan bahwa, seiring berjalannya waktu, pembelajaran mesin menjadi lebih baik dalam mendeteksi anomali dan memerangi penipuan. Sistem yang didukung AI dapat belajar dari pola-pola baru dan berpotensi menyaring transaksi penipuan pada tahap awal prosesnya.

Khusus untuk deepfake, contoh di atas memberikan alasan khusus untuk berharap. Para ilmuwan telah menemukan cara untuk mendeteksi sebagian besar deepfake menggunakan pantulan cahaya. Perkembangan seperti ini menunjukkan kemajuan besar dalam pencegahan penipuan dan hambatan besar bagi penjahat dunia maya.

Secara teori, jauh lebih mudah untuk menerapkan teknologi pendeteksian seperti itu dibandingkan bagi penipu untuk menemukan cara untuk menghindarinya – dengan meniru perilaku cahaya, misalnya, pada kecepatan dan skala besar. Permainan “kucing dan tikus” nampaknya akan terus berlanjut, namun teknologi besar dan keuangan besar memiliki sumber daya dan dana yang besar untuk – setidaknya secara teori – tetap selangkah lebih maju.
 
 
Jimmy Fong adalah CCO SEON dan membawa pengalaman mendalamnya dalam memerangi penipuan untuk membantu tim penipuan di mana pun.
 

Stempel Waktu:

Lebih dari KDnugget