Sıkılmış Maymunlar Geliştiricileri ABD-İngiltere Askeri Eğitim Sistemini Terk Ediyor

Sıkılmış Maymunlar Geliştiricileri ABD-İngiltere Askeri Eğitim Sistemini Terk Ediyor

Kaynak Düğüm: 1772253

Facebook, Instagram, Tik Tok ve diğerleri gibi sosyal medya platformlarında hiç kendi fotoğraflarınızı yayınladınız mı? Eğer öyleyse, belki de bu gönderileri yeniden gözden geçirmenin zamanı gelmiştir.

Bunun nedeni, yeni bir AI görüntü oluşturma teknolojisinin artık kullanıcıların bir grup fotoğrafınızı ve video karenizi kaydetmesine ve ardından onu, sizi düpedüz utanç verici, yasadışı ve bazen uzlaşmacı konumlarda tasvir eden "gerçekçi" sahte fotoğraflarınızı oluşturmak için eğitmesine izin vermesidir.

Herkes risk altında değil ama tehdit gerçek.

Her ne kadar fotoğraflar her zaman eğilimli olsa da manipülasyon ve filmlerin makasla manipüle edildiği ve yapıştırıldığı karanlık odalar çağından bugün piksellerin fotoşoplanmasına kadar sahtecilik.

O günlerde göz korkutucu bir görev ve bir ölçüde uzmanlık becerisi gerektirse de, bu günlerde inandırıcı fotogerçekçi sahtekarlıklar yapmak çok kolay hale getirildi.

Öncelikle bir AI modeli, yazılım aracılığıyla bir 2D veya 3D modelden birinin görüntüsünü nasıl oluşturacağını veya bir fotoğrafa sentezleyeceğini öğrenmelidir. Görüntü başarılı bir şekilde oluşturulduktan sonra, görüntü doğal olarak teknoloji için bir oyuncak haline gelir ve sonsuz miktarda görüntü üretme kapasitesine sahiptir.

Biri AI modelini paylaşmayı seçtiğinde, diğer insanlar da katılabilir ve o kişinin görüntülerini oluşturmaya başlayabilir.

Yaşamı Mahveden Derin Sahte Görüntüler Yaratan Yapay Zeka Teknolojisi

Gerçek mi yapay zeka tarafından mı üretildi?

Sosyal Medya Vaka çalışmaları

tarafından “cesur” olarak tanımlanan bir gönüllü Ars TechnicaBaşlangıçta şirketin görüntülerini sahte oluşturmak için kullanmasına izin veren bir teknoloji yayını olan , fikrini değiştirdi.

Bunun nedeni, AI Modeli'nden oluşturulan görüntülerin sonuçlarının çok kısa sürede çok ikna edici ve gönüllü için itibar açısından çok zarar verici olmasıdır.

Yüksek itibar riski göz önüne alındığında, yapay zeka tarafından üretilen hayali bir kişi olan John, doğal bir seçim haline geldi.

Hayali adam John, bir ilkokul öğretmeniydi ve diğer birçok insan gibi iş yerinde, evde ürperirken ve buna benzer bazı etkinliklerde Facebook'ta resimlerini paylaşıyordu.

"John" un büyük ölçüde zararsız görüntüleri oluşturuldu ve ardından yapay zekayı onu daha uzlaşmacı pozisyonlara sokması için eğitmek için kullanıldı.

Yalnızca yedi görüntüden yapay zeka, John'un ikili ve gizli bir hayat yaşıyormuş gibi görünmesini sağlayan görüntüler oluşturmak üzere eğitilebilir. Örneğin, sınıfında özçekimler için çıplak poz vermekten hoşlanan biri olarak göründü.

Geceleri palyaço gibi barlara gitti.

Hafta sonları aşırılık yanlısı bir paramiliter grubun parçasıydı.

AI ayrıca, yasadışı bir uyuşturucu suçundan hapis yattığı, ancak bu gerçeği işvereninden gizlediği izlenimini de yarattı.

Bir başka fotoğrafta evli olan John, bir ofiste karısı olmayan çıplak bir kadının yanında poz verirken görülüyor.

adlı bir AI görüntü oluşturucu kullanma Kararlı Difüzyon (sürüm 1.5) ve Dreambooth adlı bir teknikle Ars Technica, yapay zekayı John'un herhangi bir tarzda nasıl fotoğraflanacağını eğitmeyi başardı. John hayali bir yaratım olmasına rağmen, teorik olarak herkes beş veya daha fazla görüntüden aynı sonuçlara ulaşabilirdi. Bu görüntüler sosyal medya hesaplarından alınabilir veya bir videodan hareketsiz kareler olarak alınabilir.

Yapay zekaya John'un görüntülerini nasıl oluşturacağını öğretme süreci yaklaşık bir saat sürdü ve bir Google bulut bilgi işlem hizmeti sayesinde ücretsizdi.

Yayın, eğitim tamamlandığında görüntülerin oluşturulmasının birkaç saat sürdüğünü söyledi. Ve bunun nedeni, görüntüleri oluşturmanın biraz yavaş bir süreç olması değil, en iyi görüntüleri bulmak için bir dizi "kusurlu resmi" tarama ve "deneme yanılma" türünden bir yönlendirme kullanma ihtiyacının olmasıydı.

Çalışma, Photoshop'ta sıfırdan fotogerçekçi bir "John" sahtekarlığı yaratmaya çalışmakla karşılaştırıldığında, dikkate değer ölçüde çok daha kolay olduğunu buldu.

Teknoloji sayesinde, John gibi insanlar yasa dışı hareket etmiş veya ev hırsızlığı, yasa dışı uyuşturucu kullanma ve bir öğrenciyle çıplak duş alma gibi ahlaksız eylemlerde bulunmuş gibi gösterilebilir. AI modelleri pornografi için optimize edilirse, John gibi insanlar neredeyse bir gecede porno yıldızı olabilir.

John'un görünüşte zararsız şeyler yaptığı ve ayık olma sözü verdiğinde bir barda içki içerken gösterilmesi durumunda yıkıcı olabilecek görüntüler de yaratılabilir.

Orada bitmiyor.

Bir kişi, daha hafif bir anda bir ortaçağ şövalyesi veya astronot olarak da görünebilir. Bazı durumlarda, insanlar hem genç hem yaşlı olabilir, hatta giyinebilir.

Ancak, işlenen görüntüleri mükemmel olmaktan uzaktır. Daha yakından bakıldığında sahte oldukları anlaşılır.

Dezavantajı, bu görüntüleri oluşturan teknolojinin önemli ölçüde yükseltilmesi ve sentezlenmiş bir fotoğraf ile gerçek bir fotoğraf arasında ayrım yapılmasını imkansız hale getirebilmesidir.

Yine de kusurlarına rağmen, sahte ürünler John'a şüphe gölgesi düşürebilir ve potansiyel olarak itibarını zedeleyebilir.

Son zamanlarda, birkaç kişi aynı tekniği (gerçek insanlarla) kendilerine ait ilginç ve sanatsal profil fotoğrafları oluşturmak için kullandı.

Ayrıca ticari hizmetler ve uygulamalar gibi mercek eğitimi idare eden mantarlar var.

Nasıl Çalışır?

Trendleri takip etmeyen biri için John üzerine yapılan çalışma dikkate değer görünebilir. Bugün yazılım mühendisleri, hayal edebileceğiniz her şeyin yeni fotogerçekçi görüntülerini nasıl oluşturacaklarını biliyorlar.

Yapay zeka, fotoğrafların yanı sıra, tartışmalı bir şekilde, insanların mevcut sanatçıların çalışmalarını izinleri olmadan klonlayan yeni sanat eserleri yaratmalarına izin verdi.

Etik kaygılar nedeniyle askıya alındı

ABD'li bir teknoloji avukatı olan Mitch Jackson, derin sahte teknolojinin piyasada çoğalmasından duyduğu endişeyi dile getirdi ve 2023'ün büyük bölümünde teknolojinin yasal etkilerini inceleyeceğini söyledi.

"Neyin gerçek neyin sahte olduğunu ayırt etmek çoğu tüketici için sonunda imkansız hale gelecek.”

Adobe, herkesin tam olarak başka biri gibi ses çıkarmasını sağlayan Adobe VoCo adlı ses teknolojisine zaten sahiptir. Adobe VoCo üzerindeki çalışmalar, etik kaygılar nedeniyle askıya alındı, ancak düzinelerce başka şirket, bugün bazıları alternatifler sunarak teknolojiyi mükemmelleştiriyor. Bir göz atın veya kendiniz dinleyin, ”Mitchum şuraya.

Derin sahte videoların resim ve video versiyonlarının giderek daha iyi hale geldiğini söylüyor.

"Bazen sahte videoları gerçek videolardan ayırmak imkansız" diye ekliyor.

Stable Diffusion, metin açıklamalarından yeni görüntüler oluşturabilen ve Windows veya Linux PC'de, Mac'te veya kiralık bilgisayar donanımında bulutta çalışabilen derin öğrenme görüntü sentezi modelini kullanır.

Stable Diffusion'ın sinir ağı, yoğun öğrenmenin yardımıyla sözcükleri ilişkilendirmede ve görüntülerdeki piksellerin konumları arasındaki genel istatistiksel ilişkilendirmede ustalaştı.

Bu nedenle, Stable Diffusion'a "Tom Hanks sınıfta" gibi bir bilgi istemi verilebilir ve kullanıcıya sınıftaki Tom Hanks'in yeni bir görüntüsünü verir.

Tom Hank'in durumunda, bu parkta bir yürüyüş gibidir çünkü onun yüzlerce fotoğrafı Stable Difusion'ı eğitmek için kullanılan veri setinde zaten bulunmaktadır. Ancak John gibi insanların resimlerini yapmak için yapay zekanın biraz yardıma ihtiyacı olacak.

Dreambooth burada devreye giriyor.

Google araştırmacıları tarafından 30 Ağustos'ta kullanıma sunulan Dreambooth, Stable Diffusion'ları "ince ayar" adı verilen bir süreçle eğitmek için özel bir teknik kullanıyor.

İlk başta Dreambooth, Stable Diffusion ile ilişkili değildi ve Google, kötüye kullanım korkusuyla kaynak kodunu kullanıma sunmamıştı.

Kısa sürede birisi Dreambooth tekniğini Stable Diffusion ile çalışacak şekilde uyarlamanın bir yolunu buldu ve kodu bir açık kaynak projesi olarak ücretsiz olarak yayınladı;

Dünya çapında etki

Dünya çapında tahminen 4 milyar insan sosyal medyayı kullanıyor. Birçoğumuz kendimize ait bir avuçtan fazla fotoğraf yüklediğimiz için, bu tür saldırılara karşı hepimiz savunmasız hale gelebiliriz.

İmge sentezleme teknolojisinin etkisi bir erkeğin bakış açısından anlatılmış olsa da kadınlar da bunun yükünü taşıma eğiliminde.

Bir kadının yüzü veya vücudu resmedildiğinde, kimliği yaramaz bir şekilde pornografik görüntülere eklenebilir.

Bu, AI eğitiminde kullanılan veri setlerinde bulunan çok sayıda cinselleştirilmiş görüntü ile mümkün olmuştur.

Başka bir deyişle, bu, AI'nın bu pornografik görüntülerin nasıl oluşturulacağına fazlasıyla aşina olduğu anlamına gelir.

Bu etik sorunlardan bazılarını ele almak amacıyla Stability AI, NSFW materyalini daha yeni 2.0 sürümü için eğitim veri setinden çıkarmak zorunda kaldı.

Yazılım lisansı, insanların izinleri olmadan insanların görüntülerini çekmek için AI oluşturucuyu kullanmalarını engellese de, yaptırım potansiyeli çok azdır veya hiç yoktur.

Çocuklar ayrıca sentezlenmiş görüntülere karşı güvende değildir ve resimlerin manipüle edilmediği durumlarda bile bu teknoloji kullanılarak zorbalığa maruz kalabilirler.

Yaşamı Mahveden Derin Sahte Görüntüler Yaratan Yapay Zeka Teknolojisi

İnsanlar tarafından mı yapıldı?

Bu konuda yapabileceğimiz bir şey var mı?

Yapılacaklar listesi kişiden kişiye değişir. Bunun bir yolu, görüntüleri çevrimdışından hep birlikte kaldırmak gibi sert bir adım atmaktır.

Bu sıradan insanlar için işe yarasa da, ünlüler ve diğer kamuya mal olmuş kişiler için pek bir çözüm değil.

Ancak gelecekte insanlar teknik yollarla kendilerini fotoğraf istismarından koruyabilirler. Geleceğin yapay zeka görüntü oluşturucuları, yasal olarak çıktılarına görünmez filigranlar yerleştirmeye zorlanabilir.

Bu şekilde filigranları daha sonra okunabilir ve insanların sahte olduklarını anlamalarını kolaylaştırır.

"Kapsamlı bir düzenleme gereklidir. Filmdeki gibi (G, PG, R ve X), herhangi bir değiştirilmiş veya sahte içeriğin belirgin bir şekilde bir harf veya uyarı göstermesi gerekir. Belki Digitally Altertered veya DA gibi bir şey,başlıklı bir kılavuz yayınladı Mitchum diyor.

Stability AI, Stable Diffusion'ı bu yıl bir açık kaynak projesi olarak başlattı.

Kredisine göre, Stable Diffusion zaten varsayılan olarak gömülü filigranları kullanıyor, ancak açık kaynak sürümüne erişen insanlar, yazılımın filigran bileşenini devre dışı bırakarak veya tamamen kaldırarak onu aşma eğilimindedir.

hafifletmek için MİT

Bu tamamen spekülatif olsa da kişisel fotoğraflara gönüllü olarak eklenen bir filigran Dreambooth eğitim sürecini sekteye uğratabilir. Bir grup MIT araştırmacısı, Fotoğraf Koruması, görünmez bir filigran yöntemi kullanarak yapay zekayı küçük değişiklikler yoluyla mevcut bir fotoğrafı sentezlemekten korumayı ve korumayı amaçlayan düşmanca bir süreç. Ancak bu, yalnızca AI düzenleme (genellikle "iç boyama" olarak adlandırılır) kullanım durumlarıyla sınırlıdır ve eğitim veya görüntü oluşturmayı içerir.

"AI yazma ve resim yapmayı devralıyor! Derin sahte videolar videoyu mahvedecek!
İyi.
Bu, canlı performansın daha da değerli hale geldiği anlamına gelir. Fuarlar gelişecek. İnsanlar insanlarla iş yapmak istiyor.
Et alanı hala en iyi alanbaşlıklı bir kılavuz yayınladı Jonathan Pitchard diyor.

Son zamanlarda, yazan AI teknolojisinde bir çoğalma oldu. şiirler, tekerlemeler ve şarkılar. Ve bazıları masteringler oyunlar.

Eleştirmenler, teknolojik gelişmeleri olumsuz karşıladılar ve yapay zekaların insan işlerini devraldığına inanıyorlar.

/MetaNews.

Zaman Damgası:

Den fazla MetaHaberler