OpenAI menyerukan badan global untuk mengatur superintelligence

OpenAI menyerukan badan global untuk mengatur superintelligence

Node Sumber: 2674707

Sebuah badan internasional harus bertanggung jawab untuk memeriksa dan mengaudit kecerdasan umum buatan untuk memastikan teknologi tersebut aman bagi umat manusia, menurut eksekutif puncak pembuat GPT-4 OpenAI.

CEO Sam Altman dan co-founder Greg Brockman dan Ilya Sutskever mengatakan "dapat dibayangkan" AI akan memperoleh kemampuan luar biasa yang melebihi manusia selama dekade berikutnya.

“Dalam hal potensi keuntungan dan kerugian, kecerdasan super akan lebih kuat daripada teknologi lain yang harus dihadapi umat manusia di masa lalu. Kita dapat memiliki masa depan yang jauh lebih sejahtera; tapi kami harus mengelola risiko untuk sampai ke sana,” ketiganya menulis Selasa.

Biaya membangun teknologi yang begitu kuat hanya berkurang karena lebih banyak orang bekerja untuk memajukannya, kata mereka. Untuk mengontrol kemajuan, pengembangan harus diawasi oleh organisasi internasional seperti Badan Energi Atom Internasional (IAEA).

IAEA didirikan pada tahun 1957 pada saat pemerintah khawatir bahwa senjata nuklir akan dikembangkan selama Perang Dingin. Badan tersebut membantu mengatur tenaga nuklir, dan menetapkan perlindungan untuk memastikan energi nuklir tidak digunakan untuk tujuan militer.

“Kita pada akhirnya akan membutuhkan sesuatu seperti IAEA untuk upaya superintelijen; upaya apa pun di atas ambang batas kemampuan (atau sumber daya seperti komputasi) tertentu harus tunduk pada otoritas internasional yang dapat memeriksa sistem, mewajibkan audit, menguji kepatuhan terhadap standar keselamatan, membatasi tingkat penyebaran dan tingkat keamanan, dll. " mereka berkata.

Kelompok seperti itu akan bertugas melacak komputasi dan penggunaan energi, sumber daya vital yang dibutuhkan untuk melatih dan menjalankan model yang besar dan kuat.

“Kami secara kolektif dapat menyetujui bahwa tingkat pertumbuhan kemampuan AI di garis depan dibatasi pada tingkat tertentu per tahun,” saran petinggi OpenAI. Perusahaan harus secara sukarela menyetujui inspeksi, dan agensi harus fokus pada "mengurangi risiko eksistensial", bukan masalah peraturan yang ditentukan dan ditetapkan oleh undang-undang masing-masing negara.

Pekan lalu, Altman mengajukan gagasan bahwa perusahaan harus mendapatkan lisensi untuk membuat model dengan kemampuan canggih di atas ambang batas tertentu di Senat. pendengaran. Sarannya kemudian dikritik karena dapat berdampak tidak adil pada sistem AI yang dibangun oleh perusahaan kecil atau komunitas open source yang cenderung tidak memiliki sumber daya untuk memenuhi persyaratan hukum.

“Kami pikir penting untuk mengizinkan perusahaan dan proyek open source mengembangkan model di bawah ambang batas kemampuan yang signifikan, tanpa jenis regulasi yang kami jelaskan di sini (termasuk mekanisme yang memberatkan seperti lisensi atau audit),” kata mereka.

Elon Musk pada akhir Maret adalah salah satu dari 1,000 penandatangan surat terbuka yang menyerukan jeda enam bulan dalam pengembangan dan pelatihan AI yang lebih kuat daripada GPT4 karena potensi risiko terhadap kemanusiaan, sesuatu yang Altman dikonfirmasi pada pertengahan April itu dilakukan.

“Sistem AI yang kuat harus dikembangkan hanya setelah kami yakin bahwa efeknya akan positif dan risikonya dapat dikelola,” kata surat itu.

Alphabet dan CEO Google Sundar Pichai menulis artikel di Financial Times pada akhir pekan, mengatakan: “Saya masih yakin AI terlalu penting untuk tidak diatur, dan terlalu penting untuk tidak diatur dengan baik”. ®

Stempel Waktu:

Lebih dari Pendaftaran