OpenAI, küresel ajansı süper zekayı düzenlemeye çağırıyor

OpenAI, küresel ajansı süper zekayı düzenlemeye çağırıyor

Kaynak Düğüm: 2674707

GPT-4 üreticisi OpenAI'nin üst düzey yöneticilerine göre, teknolojinin insanlık için güvenli olduğundan emin olmak için yapay genel zekayı teftiş ve denetlemeden uluslararası bir kurum sorumlu olmalıdır.

CEO Sam Altman ve kurucu ortaklar Greg Brockman ve Ilya Sutskever, yapay zekanın önümüzdeki on yıl içinde insanları aşan olağanüstü yetenekler elde etmesinin “akla yatkın” olduğunu söyledi.

"Hem potansiyel olumlu hem de olumsuz yönler açısından, süper zeka, insanlığın geçmişte uğraşmak zorunda kaldığı diğer teknolojilerden daha güçlü olacak. Çok daha müreffeh bir geleceğe sahip olabiliriz; ama oraya ulaşmak için riski yönetmeliyiz," üçlü yazdı Salı günü.

Bu kadar güçlü bir teknolojiyi inşa etmenin maliyetinin, yalnızca daha fazla insan onu ilerletmek için çalıştıkça azaldığını savundular. İlerlemeyi kontrol etmek için, geliştirme Uluslararası Atom Enerjisi Ajansı (IAEA) gibi uluslararası bir kuruluş tarafından denetlenmelidir.

IAEA, hükümetlerin Soğuk Savaş sırasında nükleer silahların geliştirileceğinden korktuğu bir dönemde 1957'de kuruldu. Ajans, nükleer enerjinin düzenlenmesine yardımcı olur ve nükleer enerjinin askeri amaçlarla kullanılmamasını sağlamak için güvenlik önlemleri alır.

“Eninde sonunda süper istihbarat çabaları için bir IAEA gibi bir şeye ihtiyacımız olacak; Belirli bir yetenek (veya bilgi işlem gibi kaynaklar) eşiğinin üzerindeki herhangi bir çabanın, sistemleri denetleyebilen, denetim gerektirebilen, güvenlik standartlarına uygunluğu test edebilen, dağıtım dereceleri ve güvenlik seviyelerine kısıtlamalar getirebilen vb. uluslararası bir otoriteye tabi olması gerekecektir. " dediler.

Böyle bir grup, büyük ve güçlü modelleri eğitmek ve çalıştırmak için gereken hayati kaynaklar olan bilgi işlem ve enerji kullanımını izlemekten sorumlu olacaktır.

OpenAI'nin üst düzey yöneticilerinden biri, "Sınırdaki AI kapasitesindeki büyüme oranının yıllık belirli bir oranla sınırlı olduğu konusunda toplu olarak anlaşabiliriz" dedi. Şirketler teftişleri gönüllü olarak kabul etmek zorunda kalacak ve kurum, bir ülkenin ayrı kanunları tarafından tanımlanan ve belirlenen düzenleyici konulara değil, “varoluşsal riski azaltmaya” odaklanmalıdır.

Geçen hafta Altman, şirketlerin Senato'da belirli bir eşiğin üzerinde gelişmiş yeteneklere sahip modeller oluşturmak için lisans alması gerektiği fikrini ortaya attı. işitme. Önerisi daha sonra, yasal gereklilikleri karşılayacak kaynaklara sahip olma olasılığı daha düşük olan daha küçük şirketler veya açık kaynak topluluğu tarafından oluşturulan yapay zeka sistemlerini haksız yere etkileyebileceği için eleştirildi.

"Şirketlerin ve açık kaynak projelerinin, burada tanımladığımız türde bir düzenleme olmaksızın (lisanslar veya denetimler gibi külfetli mekanizmalar dahil) önemli bir yetenek eşiğinin altında modeller geliştirmesine izin vermenin önemli olduğunu düşünüyoruz" dediler.

Mart ayı sonlarında Elon Musk, insanlığa yönelik potansiyel riskler nedeniyle GPT1,000'ten daha güçlü yapay zeka geliştirme ve eğitmede altı aylık bir duraklama çağrısı yapan bir açık mektubu imzalayan 4 kişiden biriydi. onaylı Nisan ortasında yapıyordu.

Mektupta, "Güçlü yapay zeka sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir" deniyordu.

Alphabet ve Google CEO'su Sundar Pichai, hafta sonu Financial Times'ta bir makale yazdı: söz: "Yapay zekanın düzenleme yapamayacak kadar önemli ve iyi düzenleme yapamayacak kadar önemli olduğuna hâlâ inanıyorum". ®

Zaman Damgası:

Den fazla Kayıt