Hindistan Başbakanı'nın danışmanları yapay zekanın 'kitlesel şizofreniye' neden olabileceğini söylüyor

Hindistan Başbakanı'nın danışmanları yapay zekanın 'kitlesel şizofreniye' neden olabileceğini söylüyor

Kaynak Düğüm: 3091579

Hindistan'ın Başbakanlık Ekonomik Danışma Konseyi (EACPM), mevcut küresel yapay zeka düzenlemelerinin muhtemelen etkisiz olacağına dair uyarıda bulunan bir belge kaleme aldı ve teknolojinin, finansal piyasalarda kullanılanlar gibi alternatif taktiklerle düzenlenmesini tavsiye etti.

Konsey yapay zeka konusunda oldukça endişeli. Belge şu uyarıda bulunuyor: "Gözetleme, ikna edici mesajlaşma ve sentetik medya üretiminin bir kombinasyonu yoluyla, kötü niyetli yapay zeka, bilgi ekosistemlerini giderek daha fazla kontrol edebilir ve hatta insan davranışını zorlamak için özelleştirilmiş aldatıcı gerçeklikler üretebilir ve kitlesel şizofreniyi tetikleyebilir."

Kuruluş, ABD'nin yapay zekaya yaklaşımını fazla müdahaleci olmakla, Birleşik Krallık'ın yenilik yanlısı ve laissez-faire olarak risk teşkil etmesini ve AB'nin yapay zeka kurallarının, blok üye ülkelerinin parçalanması ve farklı yapay zeka vurguları ve uygulamaları benimsemesi nedeniyle kusurlu olması nedeniyle eleştiriyor. uygulama tedbirleri.

Belge ayrıca Çin'in "çok güçlü bir merkezi bürokratik sistem" ile düzenleme yapma eğiliminin kusurlu olduğunu ileri sürüyor - "COVID-19'un muhtemel laboratuvar sızıntısı kaynağının" gösterdiği gibi.

Burada aynanın içinden geçiyoruz millet.

(Kayıt olarak belirtmek isterim ki, ABD Ulusal İstihbarat Direktörü Ofisi hiçbir belirti bulunamadı virüsün Çin'deki bir laboratuvardan sızdığı.)

Ama dalıyoruz.

Konsey, yapay zekanın "geri bildirim döngüleri, aşama geçişleri ve başlangıç ​​koşullarına duyarlılık yoluyla gelişen, merkezi olmayan, kendi kendini organize eden bir sistem" olarak görülmesini öneriyor ve bu tür sistemlerin diğer örneklerini (finansal piyasalarda görülen doğrusal olmayan varlıklar, karınca kolonilerinin davranışları gibi) öne sürüyor veya trafik düzenleri.

“Geleneksel yöntemler, yapay zekanın doğrusal olmayan, öngörülemez doğası nedeniyle yetersiz kalıyor. Yapay zeka sistemleri, bileşenlerin öngörülemeyen şekillerde etkileşime girdiği ve geliştiği Karmaşık Uyarlanabilir Sistemlere (CAS) benziyor." açıkladı [PDF] konsey.

Konsey, bir yapay zeka sisteminin oluşturacağı riski önceden bilmek imkansız olduğundan "önceden" önlemlere güvenme konusunda istekli değil; davranışı çok fazla faktörün sonucudur.

Bu nedenle belge, Hindistan'ın beş düzenleyici önlem almasını öneriyor:

  • Korkulukların ve bölmelerin oluşturulmasıYapay zeka teknolojilerinin amaçlanan işlevlerini aşmamasını veya nükleer silahlanma karar alma gibi tehlikeli bölgelere tecavüz etmemesini sağlamalıdır. Bir sistemdeki korkuluğu bir şekilde ihlal ederlerse, bölmeler yayılmamasını sağlamak için oradadır.
  • Manuel geçersiz kılmaların ve yetkilendirme geçiş noktalarının sağlanması İnsanları kontrol altında tutan ve çok faktörlü kimlik doğrulama ve insan karar vericiler için çok katmanlı bir inceleme süreciyle onları güvende tutan bir sistem.
  • Şeffaflık ve açıklanabilirlik Denetim dostu bir ortam sağlamak amacıyla temel algoritmalar için açık lisanslama, düzenli denetimler ve değerlendirmeler ve standartlaştırılmış geliştirme belgeleri gibi önlemlerle.
  • Farklı sorumluluk önceden tanımlanmış sorumluluk protokolleri, zorunlu standartlaştırılmış olay raporlama ve soruşturma mekanizmaları aracılığıyla.
  • Uzmanlaşmış bir düzenleyici organın yürürlüğe konulmasıGeniş kapsamlı bir yetki verilen, geri bildirime dayalı bir yaklaşım benimseyen, yapay zeka sistem davranışını izleyen ve takip eden, otomatik uyarı sistemlerini entegre eden ve ulusal bir kayıt oluşturan.

Konsey, fikirlerinin nasıl iletileceği konusunda fikir edinmek için diğer CAS sistemlerine, özellikle de finansal piyasalara bakmayı tavsiye etti.

Belgede, "Finansal piyasalar gibi kaotik sistemlerin yönetilmesinden elde edilen bilgiler, karmaşık teknolojiler için uygulanabilir düzenleme yaklaşımlarını gösteriyor" ifadesine yer veriliyor ve özel yapay zeka düzenleyicilerinin Hindistan'ın SEBI veya ABD'nin SEC'i gibi finansal düzenleyicilerin modellenebileceği öne sürülüyor.

Tıpkı bu kurumların piyasalar tehlikede olduğunda ticareti durdurma kararı vermesi gibi, düzenleyiciler de yapay zekanın dizginleneceği benzer "dar noktalar" benimseyebilir. Zorunlu mali raporlama, yapay zeka operatörlerinin dosyalaması gerekebilecek açıklama türü için iyi bir modeldir.

Yazarların endişeleri, yapay zekanın artan yaygınlığının (çalışmalarının şeffaflığıyla birleştiğinde) kritik altyapının, savunma operasyonlarının ve diğer birçok alanın risk altında olduğu anlamına geldiği inancından besleniyor.

Ana hatlarını çizdikleri tehlikeler arasında, sistemlerin yinelemeli olarak insan kontrolünün ötesinde kendini geliştirebileceği ve "insan refahıyla uyumsuzluk" yaratabileceği "kaçak yapay zeka" ve "küçük değişikliklerin önemli, öngörülemeyen sonuçlara yol açabileceği" bir senaryo olan kelebek etkisi yer alıyor.

Konsey, "Bu nedenle, çıkarları en üst düzeye çıkarmayı amaçlayan, algoritmalar, eğitim setleri ve modeller üzerinde şeffaf olmayan bir devlet kontrolü sistemi, felaketle sonuçlanabilecek sonuçlara yol açabilir" uyarısında bulundu.

Belgede, önerilen düzenlemelerin bazı senaryoların göz ardı edilmesi gerektiği anlamına gelebileceği belirtiliyor.

Konsey, "Her şeyin süper bağlantılı bir internete asla izin vermeyebiliriz" diye kabul ediyor. Ancak insanlığın güçlü düzenlemelerden daha fazla kazanabileceği sonucuna varılıyor.

“Yapay zeka araçlarını yaratanlar, sözde istenmeyen sonuçlar nedeniyle kolayca serbest bırakılmayacaklar; dolayısıyla, önceden bir 'Oyuna Görünüm' ekleyecekler. İnsanlar geçersiz kılma ve yetkilendirme yetkilerini elinde tutacak. Düzenli zorunlu denetimlerin açıklanabilirliği zorunlu kılması gerekecek.” ®

Zaman Damgası:

Den fazla Kayıt