ChatGPT Tidak Dapat Berpikir—Kesadaran Adalah Sesuatu Yang Sama Sekali Berbeda dengan AI Saat Ini

ChatGPT Tidak Dapat Berpikir—Kesadaran Adalah Sesuatu Yang Sama Sekali Berbeda dengan AI Saat Ini

Node Sumber: 2674703

Telah ada kejutan di seluruh dunia pada tingkat kemajuan yang pesat ChatGPT dan kecerdasan buatan lainnya yang dibuat dengan apa yang dikenal sebagai model bahasa besar (LLM). Sistem ini dapat menghasilkan teks yang seolah-olah menampilkan pemikiran, pemahaman, dan bahkan kreativitas.

Tapi bisakah sistem ini benar-benar berpikir dan mengerti? Ini bukanlah pertanyaan yang dapat dijawab melalui kemajuan teknologi, tetapi analisis dan argumen filosofis yang cermat memberi tahu kita bahwa jawabannya adalah tidak. Dan tanpa membahas masalah filosofis ini, kita tidak akan pernah sepenuhnya memahami bahaya dan manfaat revolusi AI.

Pada tahun 1950, bapak komputer modern, Alan Turing, menerbitkan sebuah makalah yang meletakkan cara untuk menentukan apakah komputer berpikir. Ini sekarang disebut "tes Turing." Turing membayangkan seorang manusia terlibat dalam percakapan dengan dua lawan bicara yang tersembunyi dari pandangan: satu lagi manusia, yang lain komputer. Permainannya adalah untuk mencari tahu yang mana.

Jika sebuah komputer dapat membodohi 70 persen juri dalam percakapan 5 menit dengan berpikir bahwa itu adalah seseorang, komputer tersebut lulus ujian. Apakah lulus tes Turing—sesuatu yang sekarang tampaknya sudah dekat—menunjukkan bahwa AI telah mencapai pemikiran dan pemahaman?

Tantangan Catur

Turing menolak pertanyaan ini sebagai sangat kabur, dan menggantinya dengan definisi pragmatis tentang "pemikiran", di mana berpikir berarti lulus ujian.

Turing salah, bagaimanapun, ketika dia mengatakan satu-satunya gagasan yang jelas tentang "pemahaman" adalah murni perilaku yang lulus ujiannya. Meskipun cara berpikir seperti ini sekarang mendominasi ilmu pengetahuan kognitif, ada juga gagasan sehari-hari yang jelas tentang “pemahaman” yang terkait dengan kesadaran. Memahami dalam pengertian ini berarti secara sadar menangkap beberapa kebenaran tentang realitas.

Dalam 1997, yang Deep Blue AI mengalahkan grandmaster catur Garry Kasparov. Pada konsepsi pemahaman perilaku murni, Deep Blue memiliki pengetahuan tentang strategi catur yang melampaui manusia mana pun. Tetapi ia tidak sadar: ia tidak memiliki perasaan atau pengalaman apa pun.

Manusia secara sadar memahami aturan catur dan alasan strategi. Deep Blue, sebaliknya, adalah mekanisme yang tidak berperasaan yang telah dilatih untuk bekerja dengan baik di game tersebut. Demikian juga, ChatGPT adalah mekanisme tidak berperasaan yang telah dilatih pada data buatan manusia dalam jumlah besar untuk menghasilkan konten yang sepertinya ditulis oleh seseorang.

Itu tidak secara sadar memahami arti dari kata-kata yang dilontarkannya. Jika "berpikir" berarti tindakan refleksi sadar, maka ChatGPT tidak memikirkan apa pun.

Saatnya Membayar

Bagaimana saya bisa begitu yakin bahwa ChatGPT tidak sadar? Pada 1990-an, ahli saraf Christof Koch Taruhan filsuf David Chalmers sekotak anggur berkualitas bahwa para ilmuwan akan sepenuhnya menemukan "korelasi kesadaran saraf" dalam 25 tahun.

Dengan ini, maksudnya mereka akan mengidentifikasi bentuk aktivitas otak yang diperlukan dan cukup untuk pengalaman sadar. Sudah waktunya Koch membayar, karena tidak ada konsensus bahwa ini telah terjadi.

Hal ini karena kesadaran tidak dapat diamati dengan melihat ke dalam kepala Anda. Dalam upaya mereka untuk menemukan hubungan antara aktivitas otak dan pengalaman, ahli saraf harus bergantung pada kesaksian subjek mereka, atau penanda kesadaran eksternal. Tetapi ada banyak cara untuk menafsirkan data.

Beberapa ilmuwan percaya ada hubungan erat antara kesadaran dan kognisi reflektif—kemampuan otak untuk mengakses dan menggunakan informasi untuk membuat keputusan. Hal ini membuat mereka berpikir bahwa korteks prefrontal otak—tempat berlangsungnya proses tingkat tinggi untuk memperoleh pengetahuan—pada dasarnya terlibat dalam semua pengalaman sadar. Yang lain menyangkal ini, berdebat bukan itu itu terjadi di wilayah otak lokal mana pun tempat pemrosesan sensorik yang relevan terjadi.

Para ilmuwan memiliki pemahaman yang baik tentang kimia dasar otak. Kami juga telah membuat kemajuan dalam memahami fungsi tingkat tinggi dari berbagai bagian otak. Tapi kita hampir tidak tahu apa-apa tentang bagian di antaranya: bagaimana fungsi otak tingkat tinggi diwujudkan pada tingkat sel.

Orang menjadi sangat bersemangat tentang potensi pemindaian untuk mengungkap cara kerja otak. Tetapi fMRI (pencitraan resonansi magnetik fungsional) memiliki resolusi yang sangat rendah: setiap piksel pada pemindaian otak sesuai dengan 5.5 juta neuron, yang berarti ada batasan seberapa banyak detail yang dapat ditampilkan oleh pemindaian ini.

Saya percaya kemajuan kesadaran akan datang ketika kita lebih memahami bagaimana otak bekerja.

Jeda dalam Pengembangan

Saat saya berdebat dalam buku saya yang akan datang Mengapa? Tujuan Alam Semesta, kesadaran pasti telah berevolusi karena itu membuat perbedaan perilaku. Sistem dengan kesadaran harus berperilaku berbeda, dan karenanya bertahan lebih baik, daripada sistem tanpa kesadaran.

Jika semua perilaku ditentukan oleh kimia dan fisika yang mendasarinya, seleksi alam tidak akan memiliki motivasi untuk membuat organisme sadar; kita akan berevolusi sebagai mekanisme bertahan hidup yang tidak berperasaan.

Taruhan saya, kemudian, adalah ketika kita belajar lebih banyak tentang cara kerja otak yang terperinci, kita akan secara tepat mengidentifikasi area otak mana yang mewujudkan kesadaran. Ini karena daerah tersebut akan menunjukkan perilaku yang tidak dapat dijelaskan dengan kimia dan fisika yang diketahui saat ini. Sudah, beberapa ahli saraf sedang mencari penjelasan baru yang potensial bagi kesadaran untuk melengkapi persamaan dasar fisika.

Sementara pemrosesan LLM sekarang terlalu rumit untuk kita pahami sepenuhnya, kita tahu bahwa pada prinsipnya hal itu dapat diprediksi dari fisika yang diketahui. Atas dasar ini, kami dapat dengan yakin menyatakan bahwa ChatGPT tidak sadar.

Ada banyak bahaya yang ditimbulkan oleh AI, dan saya sepenuhnya mendukung panggilan baru-baru ini oleh puluhan ribu orang, termasuk pemimpin teknologi Steve Wozniak dan Elon Musk, untuk menjeda pengembangan untuk mengatasi masalah keamanan. Potensi penipuan, misalnya, sangat besar. Namun, argumen bahwa keturunan jangka pendek dari sistem AI saat ini akan sangat cerdas, dan karenanya menjadi ancaman besar bagi umat manusia, adalah terlalu dini.

Ini tidak berarti sistem AI saat ini tidak berbahaya. Namun kami tidak dapat menilai ancaman dengan benar kecuali kami mengkategorikannya secara akurat. LLM tidak cerdas. Mereka adalah sistem yang dilatih untuk memberikan tampilan luar kecerdasan manusia. Menakutkan, tapi tidak terlalu menakutkan.Percakapan

Artikel ini diterbitkan kembali dari Percakapan di bawah lisensi Creative Commons. Membaca Artikel asli.

Gambar Kredit: Gerd Altmann dari Pixabay

Stempel Waktu:

Lebih dari Hub Singularity