Para ahli memperingatkan kepunahan dari AI jika tindakan tidak diambil sekarang

Para ahli memperingatkan kepunahan dari AI jika tindakan tidak diambil sekarang

Node Sumber: 2688105

Ada lagi surat terbuka yang mengabarkan tentang AI yang membuat putaran. Kali ini sejumlah besar pemimpin teknologi, tokoh ML, dan bahkan beberapa selebritas telah mendaftar untuk mendesak dunia agar menanggapi dugaan ancaman tingkat kepunahan yang ditimbulkan oleh kecerdasan buatan secara lebih serius. 

Lebih tepatnya pernyataan, pesan dari Center for AI Safety (CAIS) ditandatangani oleh individu seperti pelopor AI Geoffrey Hinton, CEO OpenAI Sam Altman, ahli enkripsi Martin Hellman, CTO Microsoft Kevin Scott, dan lainnya adalah a kalimat deklaratif tunggal memprediksi kiamat jika diabaikan:

“Mengurangi risiko kepunahan AI harus menjadi prioritas global di samping risiko skala sosial lainnya seperti pandemi dan perang nuklir.” 

Mengapa begitu singkat? Tujuannya adalah “untuk menunjukkan koalisi yang luas dan berkembang dari ilmuwan AI, pemimpin teknologi, dan profesor yang peduli dengan risiko kepunahan AI. Kami membutuhkan pengakuan luas atas pertaruhannya sehingga kami dapat melakukan diskusi kebijakan yang berguna, ”kata direktur CAIS Dan Hendrycks. Pendaftaran.

CAIS tidak menyebutkan kecerdasan umum buatan (AGI) di dalamnya daftar risiko AI, kami mencatat. Dan model generasi saat ini, seperti ChatGPT, bukanlah ancaman apokaliptik bagi umat manusia, kata Hendrycks kepada kami. Peringatan minggu ini adalah tentang apa yang mungkin terjadi selanjutnya.

“Jenis-jenis ancaman bencana yang dirujuk oleh pernyataan ini terkait dengan sistem AI canggih di masa depan,” kata Hendrycks. Dia menambahkan bahwa kemajuan yang diperlukan untuk mencapai tingkat "ancaman apokaliptik" mungkin hanya dua hingga 10 tahun lagi, bukan beberapa dekade. “Kita harus bersiap sekarang. Namun, sistem AI yang dapat menyebabkan bencana tidak harus berupa AGI,” katanya. 

Karena bagaimanapun juga manusia sangat damai

Salah satunya ancaman adalah persenjataan, atau gagasan bahwa seseorang dapat mengubah AI yang baik hati menjadi sangat merusak, seperti menggunakan bot penemuan obat untuk mengembangkan senjata kimia atau biologi, atau menggunakan pembelajaran penguatan untuk pertempuran berbasis mesin. Konon, Manusia sudah cukup mampu membuat senjata semacam itu, yang bisa membunuh seseorang, lingkungan, kota, atau negara.

AI juga dapat dilatih untuk mengejar tujuannya tanpa memperhatikan nilai-nilai individu atau masyarakat, kami diperingatkan. Itu bisa "melemahkan" manusia yang akhirnya menyerahkan keterampilan dan kemampuan ke mesin otomatis, menyebabkan ketidakseimbangan kekuatan antara pengontrol AI dan mereka yang digantikan oleh otomatisasi, atau digunakan untuk menyebarkan disinformasi, sengaja atau tidak. jika tidak.

Sekali lagi, tidak ada AI yang terlibat dalam hal itu yang perlu bersifat umum, dan tidak terlalu sulit untuk melihat potensi AI generasi sekarang untuk berevolusi untuk menimbulkan jenis risiko yang dikhawatirkan CAIS. Anda mungkin memiliki pendapat sendiri tentang seberapa destruktif atau mampunya perangkat lunak tersebut, dan apa yang sebenarnya dapat dicapainya.

Sangat penting, lanjut argumen CAIS, untuk memeriksa dan mengatasi dampak negatif AI yang sudah dirasakan, dan mengubah dampak yang masih ada itu menjadi pandangan ke depan. “Saat kita bergulat dengan risiko AI langsung… industri AI dan pemerintah di seluruh dunia juga perlu secara serius menghadapi risiko bahwa AI di masa depan dapat menimbulkan ancaman bagi keberadaan manusia,” Hendrycks tersebut dalam sebuah pernyataan.

“Dunia telah berhasil bekerja sama untuk memitigasi risiko terkait perang nuklir. Tingkat upaya yang sama diperlukan untuk mengatasi bahaya yang ditimbulkan oleh sistem AI di masa depan, ”desak Hendrycks, dengan daftar pemimpin perusahaan, akademisi, dan pemikir yang mendukungnya. 

Musk tidak ikut

Penandatangan lainnya termasuk ilmuwan utama Google DeepMind Ian Goodfellow, filsuf David Chalmers dan Daniel Dennett, penulis dan blogger Sam Harris dan mantan musisi/Elon Musk, Grimes. Berbicara tentang pria itu sendiri, tanda tangan Musk tidak ada. 

CEO Twitter adalah di antara mereka yang menandatangani Surat terbuka diterbitkan oleh Future of Life Institute Maret lalu mendesak a jeda enam bulan tentang pelatihan sistem AI "lebih kuat dari GPT-4". Tidak mengherankan, tanda tangan CEO OpenAI Altman tidak ada bahwa surat tertentu, seolah-olah karena langsung memanggil perusahaannya. 

OpenAI sejak itu dikeluarkan peringatannya sendiri tentang ancaman yang ditimbulkan oleh AI tingkat lanjut dan menyerukan pembentukan pengawas global yang serupa dengan Badan Energi Atom Internasional untuk mengatur penggunaan AI.

Panggilan peringatan dan pengaturan itu, dalam kasus waktu yang buruk secara historis, datang pada hari yang sama dengan Altman terancam untuk menarik OpenAI, dan ChatGPT dengannya, dari UE melalui blok tersebut UU AI. Aturan yang dia dukung adalah satu hal, tetapi Altman memberi tahu Brussel bahwa gagasan mereka tentang pembatasan AI terlalu jauh menjembatani peraturan, terima kasih banyak. 

anggota parlemen Uni Eropa menanggapi dengan mengatakan bahwa mereka tidak akan didikte oleh OpenAI, dan bahwa jika perusahaan tidak dapat mematuhi aturan dasar tata kelola dan transparansi, "sistem mereka tidak cocok untuk pasar Eropa," tegas MEP Belanda Kim van Sparrentak. 

Kami telah meminta OpenAI untuk klarifikasi tentang posisi Altman dan akan memperbarui cerita ini jika kami mendengarnya kembali. ®

Stempel Waktu:

Lebih dari Pendaftaran