Deepfake Uygulamaları için Yapay Zeka Dolandırıcılık İzleme ile Yapay Zeka ile Mücadele - KDnuggets

Deepfake Uygulamaları için Yapay Zeka Dolandırıcılık İzleme ile Yapay Zeka ile Mücadele – KDnuggets

Kaynak Düğüm: 2667255
Deepfake Uygulamaları için Yapay Zeka Dolandırıcılık İzleme ile Yapay Zekayla Mücadele
Fotoğraf Tima Miroshnichenko
 

Deepfakes, birkaç yıldır veri bilimi topluluğunda büyük bir tartışma konusu olmuştur. 2020'de MIT Teknoloji İncelemesi derin sahtekarlıkların olduğunu öne sürdü "ana akım kullanım için devrilme noktasına" ulaşmışlardı.

Veriler kesinlikle bunu destekliyor. Wall Street Journal 10,000'de çevrimiçi olarak 2018'den az deepfake bulunduğunu bildirdi. Bu sayılar artık milyonlara ulaşıyor ve hem kafa karıştırmak, yanlış bilgilendirmek hem de mali dolandırıcılığı sürdürmek için kullanılan derin sahtekarlıkların gerçek hayattan birçok örneği var. 

Deepfake teknikleri, siber suçlulara birçok karmaşık seçenek sunuyor.

Bir ünlünün imajını "kaçırılmayacak" bir Bitcoin teklifi için tanıtım malzemesine ekleme yeteneğinin çok ötesine geçiyorlar ve bunun elbette bir aldatmaca olduğu ortaya çıkıyor. Özellikle deepfake videoları dolandırıcıların radarında. Onlara otomatik kimlik ve KYC kontrollerinden geçmeleri için bir yol sağlıyorlar ve korkutucu derecede etkili olduklarını kanıtladılar.

Mayıs 2022 olarak, Verge bildirdi”canlılık testleriBankalar ve diğer kurumlar tarafından kullanıcıların kimliklerini doğrulamaya yardımcı olmak için kullanılan '', derin sahtekarlıklarla kolayca kandırılabiliyor. İlgili çalışma, test edilen kimlik doğrulama sistemlerinin %90'ının savunmasız olduğunu ortaya çıkardı.

Peki cevap nedir? Siber suçluların, finansal kurumların kullandığı güvenlik önlemlerini alt etmek için derin sahte teknolojiyi kolaylıkla kullanabilecekleri bir döneme mi giriyoruz? Bu tür işletmeler otomatik sistemlerini bırakıp manuel, insan kontrollerine mi dönmek zorunda kalacak?

Basit cevap “muhtemelen hayır”. Tıpkı suçluların bu artıştan yararlanabileceği gibi AI gelişmeleriHedefledikleri şirketler de aynısını yapabilir. Şimdi savunmasız işletmelerin yapay zeka ile yapay zekayla nasıl savaşabileceğine bakalım.

Deepfake'ler, aşağıdakiler gibi çeşitli yapay zeka teknikleri kullanılarak üretilir:

  • üretici rakip ağlar (GAN'lar) 
  • kodlayıcı/kod çözücü çiftleri
  • birinci dereceden hareket modelleri

Görünüşte bu teknikler, yüksek giriş engelleri ve uzman teknik bilgisine duyulan ihtiyaçla tamamlanan, makine öğrenimi topluluğunun özel koruması gibi görünebilir. Ancak yapay zekanın diğer unsurları gibi bunlar da zamanla çok daha erişilebilir hale geldi.

Düşük maliyetli, kullanıma hazır araçlar artık teknik bilgisi olmayan kullanıcıların derin sahtekarlıklar oluşturmasına olanak tanıyor; tıpkı herkesin OpenAI'ye kaydolup ChatGPT'nin yeteneklerini test edebilmesi gibi.

2020 gibi yakın bir tarihte, Dünya Ekonomik Forumu, bir üretim maliyetinin “ustalık derecesiDeepfake 30,000 doların altında. Ancak 2023'te Wharton Okulu profesörü Ethan Mollick viral bir Twitter gönderisi aracılığıyla bir proje ürettiğini açıkladı. derin sahte video altı dakikadan kısa bir sürede ders veriyor.

Mollick'in toplam harcaması 10.99 dolardı. Sesini neredeyse mükemmel bir şekilde taklit etmek için ElevenLabs adlı bir hizmeti 5 $ karşılığında kullandı. D-ID adlı başka bir hizmet, ayda 5.99 dolara, yalnızca bir senaryo ve tek bir fotoğrafa dayalı bir video oluşturdu. Hatta betiği oluşturmak için ChatGPT'yi bile kullandı.

Deepfake'ler ilk ortaya çıkmaya başladığında, asıl odak noktası sahte siyasi videolar (ve sahte pornografi) idi. O günden bu yana dünya şunu gördü:

  • BuzzFeedVideos, aktör Jordon Peele tarafından taklit edilen Barack Obama'nın "öne çıktığı" derin sahte bir kamu hizmeti duyurusu oluşturuyor.
  • Donald Trump'ın bir ren geyiği hakkında hikaye anlattığını gösteren sahte bir YouTube videosu.
  • Hilary Clinton'un Saturday Night Live'da gösterilen ve aslında bir oyuncu tarafından taklit edildiği derin sahte bir video.

Bu örnekler deepfake'lerin "eğlenceli" yanını gösterse ve belki de teknolojinin yetenekleri konusunda gerçekleri ortaya koysa da, dolandırıcılar bunları kötü amaçlarla kullanmakta hiç vakit kaybetmediler. 

Deepfake teknikleri kullanılarak sürdürülen gerçek hayattaki dolandırıcılık örnekleri çoktur.

Derin sahte dolandırıcılıklardan kaynaklanan kayıplar yüz binlerce ila milyonlarca arasında değişmektedir. 2021'de, 35 milyon dolarlık sahte banka transferlerini düzenlemek için bir yapay zeka ses klonlama dolandırıcılığı kullanıldı. Bu çok büyük bir mali kazançtı, hatta gerektirir video kullanımı.

Yapay zeka çıktısının kalitesi, özellikle de video, büyük ölçüde farklılık gösterebilir. Bazı videoların insanlar için sahte olduğu açıktır. Ancak yukarıda belirtildiği gibi, bankalar ve fintech tarafından kullanılanlar gibi otomatik sistemlerin geçmişte kolayca kandırıldığı kanıtlanmıştır.

Yapay zeka yetenekleri gelişmeye devam ettikçe dengenin daha da değişmesi muhtemeldir. Son zamanlardaki bir gelişme, tespit mekanizmalarını yanıltmak amacıyla derin sahtekarlıklara "hedefli görünmez "gürültü"nün eklendiği "karşı adli tıp"ın dahil edilmesidir.

Peki ne yapılabilir?

Dolandırıcıların finansal kazanç elde etmek için en son yapay zeka teknolojisini kullanmaya çalışması gibi, teknoloji firmaları gibi işletmeler de suçluları yakalamak için teknolojiden yararlanmanın yollarını bulmak için yoğun bir şekilde çalışıyor.

Yapay zekayla savaşmak için yapay zekayı kullanan şirketlere birkaç örnek:

2022'nin sonlarında Intel, "Sahte Yakalayıcı”. Intel'in bildirdiği %96 güvenilirlik oranıyla, fotopletismografi (PPG) olarak bilinen bir teknolojiyi kullanıyor.

Teknoloji, yapay olarak oluşturulmuş videolarda bulunmayan bir şeyden yararlanıyor: kan akışı. Yasal videolarla eğitilen derin öğrenme algoritması, kan vücutta hareket ettikçe renk değiştiren kan damarları tarafından emilen veya yansıtılan ışığı ölçer.

Intel'in Sorumlu Yapay Zeka girişiminin bir parçası olan FakeCatcher, "milisaniyeler içinde sonuç veren dünyanın ilk gerçek zamanlı derin sahte dedektörü" olarak tanımlanıyor. Bu, videoda gösterilen kişinin gerçekten insan olduğuna dair işaretleri arayan yenilikçi bir teknolojidir. "Yanlış" olan bir şeyi vurgulamak için verileri analiz etmek yerine "doğru" olan bir şeyi arar. Sahte olma olasılığını bu şekilde gösterir.

Bu arada Buffalo Üniversitesi (UB) bilgisayar bilimcileri de kendilerine ait bir deepfake tespit teknolojisi üzerinde çalışıyorlar. Tutkulu PC oyuncularının taklit etmek için muazzam bir işlem gücü gerektirdiğini bildiği bir şeyi kullanıyor: ışık.

UB'nin sahte fotoğraflar üzerinde %94 etkili olduğu iddia edilen yapay zeka aracı, ışığın kişinin gözünde nasıl yansıdığını inceliyor. Korneanın yüzeyi bir ayna görevi görür ve “yansıtıcı desenler” oluşturur.

Bilim adamlarının "Tutarsız Korneal Speküler Vurguları Kullanarak GAN Tarafından Oluşturulan Yüzleri Açığa Çıkarma" başlıklı çalışması, "GAN ile sentezlenen yüzlerin, iki göz arasındaki tutarsız kornea speküler vurgularıyla açığa çıkarılabileceğini" gösteriyor.

Yapay zeka sistemlerinin gerçek öne çıkanları taklit etmesinin "önemsiz" olacağını öne sürüyor. Gerçekçi ışık efektlerini deneyimlemek için sıklıkla en yeni ışın izlemeli grafik kartlarına yatırım yapan PC oyuncuları, buradaki zorlukları içgüdüsel olarak fark edeceklerdir.

Belki de dolandırıcılığın tespit edilmesindeki en büyük zorluk, dolandırıcılarla onları engellemek için çalışanlar arasındaki bitmek bilmeyen "kedi-fare" oyunudur. Yukarıdakilere benzer duyuruların ardından, insanların bu tür tespit mekanizmalarını atlatabilecek ve yenebilecek teknolojiler üzerinde halihazırda çalışıyor olmaları kuvvetle muhtemeldir.

Bu tür mekanizmaların mevcut olması da bir şeydir, ancak bunların işletmelerin kullandığı çözümlere rutin olarak entegre edildiğini görmek başka bir şeydir. Daha önce çözümlerin %90'ının "kolayca kandırılabileceğini" öne süren bir istatistiğe değinmiştik. En azından bazı finansal kurumların hâlâ bu tür sistemleri kullanıyor olması muhtemeldir.

Bir bilge dolandırıcılık izleme Strateji, şirketlerin derin sahtekarlıkları kendilerinin tespit etmesinin ötesine bakmalarını gerektiriyor. Çok şey yapılabilir önce Bir dolandırıcı, video tabanlı kimlik doğrulamaya veya KYC sürecine katılabilecek kadar sisteme girer. Süreçte daha erken yer bulan önlemler aynı zamanda yapay zeka ve makine öğreniminin bir unsurunu da içerebilir.

Örneğin, makine öğrenimi hem gerçek zamanlı dolandırıcılık izleme hem de kural kümeleri oluşturma için kullanılabilir. Bunlar, bir insanın kolayca gözden kaçırabileceği kalıpları tespit ederek tarihsel dolandırıcılık olaylarına bakabilir. Yüksek riskli olduğu düşünülen işlemler doğrudan reddedilebilir veya manuel incelemeye alınabilir ulaşmadan önce Kimlik kontrolünün yapılabileceği ve dolayısıyla dolandırıcının deepfake teknolojisinden yararlanma fırsatının olabileceği bir aşama.

Bir sistem bir siber suçluyu ne kadar erken tespit ederse o kadar iyidir. Bir suçun devam ettirilmesi ve işletmenin daha fazla kontrole harcama yapma şansı daha azdır. Video tabanlı kimlik kontrolleri, derin sahtekarlıkları tespit etmek için yapay zeka teknolojisi kullanılmasa bile maliyetlidir.

Eğer dolandırıcılar bu noktaya gelmeden dijital ayak izi gibi tekniklerle tespit edilebilirse, daha sınırda vakaların kontrollerini optimize etmek için daha fazla kaynak kalacaktır.

Makine öğreniminin doğası gereği, zamanla anormallikleri tespit etme ve sahtekarlıkla mücadele etme konusunda daha iyi hale gelecektir. Yapay zeka destekli sistemler yeni kalıplardan öğrenebilir ve potansiyel olarak sahte işlemleri sürecin erken bir aşamasında filtreleyebilir.

Özellikle deepfake söz konusu olduğunda yukarıdaki örnek umut için özel bir neden sunuyor. Bilim insanları, ışık yansımalarını kullanarak deepfake'lerin büyük çoğunluğunu tespit etmenin bir yolunu buldu. Bunun gibi gelişmeler, dolandırıcılığın önlenmesinde ileriye doğru atılmış önemli bir adımı ve siber suçlular için önemli bir engeli temsil ediyor.

Teorik olarak, bu tür bir algılama teknolojisini kullanmak, dolandırıcıların bunu atlatmanın bir yolunu bulmasından (örneğin, ışığın davranışını hızlı ve geniş ölçekte kopyalamak) çok daha kolaydır. "Kedi ve fare" oyunu muhtemelen sonsuza kadar devam edecek gibi görünüyor, ancak büyük teknoloji ve büyük finans, en azından teoride, küçük bir adım önde olmak için gerekli kaynaklara ve derin ceplere sahip.
 
 
Jimmy Fong SEON'un CCO'sudur ve dolandırıcılıkla mücadele konusundaki derin deneyimini her yerdeki dolandırıcılık ekiplerine yardımcı olmak için kullanıyor.
 

Zaman Damgası:

Den fazla KDNuggets