Kecerdasan buatan adalah sebuah tanggung jawab

Kecerdasan buatan adalah sebuah tanggung jawab

Node Sumber: 3029233

Pesan Kecerdasan buatan, yang berarti model dasar besar yang memprediksi teks dan dapat mengkategorikan gambar dan ucapan, lebih terlihat seperti sebuah liabilitas daripada aset.

Sejauh ini, kerugian dolar masih kecil. Pada tahun 2019, seorang pengemudi Tesla yang mengoperasikan kendaraannya dengan bantuan perangkat lunak Autopilot pembuat mobil tersebut menerobos lampu merah dan menabrak kendaraan lain. Penghuninya meninggal dunia dan pengendara Tesla pekan lalu meninggal dunia dipesan membayar ganti rugi sebesar $23,000.

Tesla sekitar waktu yang sama dikeluarkan sebuah ingatan dari dua juta kendaraan untuk merevisi perangkat lunak Autopilot sebagai tanggapan atas investigasi Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional (NHTSA) AS yang menemukan bahwa kontrol keselamatan Autopilot kurang.

Dua puluh tiga ribu dolar tidaklah banyak untuk dua nyawa, namun keluarga yang terlibat mengajukan tuntutan perdata terhadap pengemudi dan Tesla, sehingga biayanya mungkin meningkat. Dan setidaknya dikatakan ada selusin tuntutan hukum melibatkan Autopilot di AS.

Sedangkan di industri kesehatan, UnitedHealthcare sedang dituntut karena Model AI nH Predict yang diperolehnya melalui pembelian Navihealth pada tahun 2020 diduga menolak perawatan pasca-akut yang diperlukan untuk lansia yang diasuransikan.

Diperlukan pengekangan

Perusahaan yang menjual model dan layanan AI memahami dengan jelas bahwa ada masalah. Mereka mengacu pada “pagar pembatas” yang dipasang di sekitar model dasar untuk membantu mereka tetap berada di jalurnya – meskipun demikian tidak bekerja sangat baik. Tindakan pencegahan semacam ini tidak diperlukan jika model ini tidak memuatnya materi pelecehan seksual anak dan sejumlah besar konten beracun lainnya.

Seolah-olah pengembang AI membaca karya penulis Alex Blechman postingan viral tentang perusahaan teknologi yang menafsirkan kisah peringatan “Jangan Ciptakan Nexus yang Menyiksa” sebagai peta jalan produk dan berkata, “Kelihatannya bagus bagi saya.”

Tentu saja ada referensi literatur lama yang sesuai dengan AI, seperti Frankenstein karya Mary Shelley atau Kotak Pandora – yang sangat cocok mengingat model AI sering disebut sebagai kotak hitam karena kurangnya transparansi mengenai materi pelatihan.

Sejauh ini, model komersial yang dipenuhi konten berbahaya tidak terlalu berdampak buruk pada bisnis. Ada yang terbaru klaim oleh Chris Bakke, pendiri dan CEO di Laskie (diakuisisi tahun ini oleh perusahaan yang menamakan dirinya X), bahwa chatbot GM yang digunakan oleh dealer mobil Watsonville, California, dibujuk untuk menyetujui penjualan Chevy Tahoe 2024 untuk $ 1 dengan sedikit rekayasa cepat. Namun dealer kemungkinan besar tidak akan menindaklanjuti komitmen tersebut.

Namun, risiko mengandalkan model AI sudah cukup besar Google, Microsoft, dan Antropik telah menawarkan untuk mengganti kerugian pelanggan dari klaim hak cipta (yang banyak jumlahnya dan sebagian besar belum terselesaikan). Itu bukan sesuatu yang Anda lakukan kecuali ada kemungkinan tanggung jawab.

Regulasi

Pihak berwenang masih mencoba mencari tahu bagaimana tanggung jawab AI harus dinilai. Pertimbangkan bagaimana Komisi Eropa membingkai permasalahan ini saat mereka berupaya merumuskan kerangka hukum yang bisa diterapkan untuk kecerdasan buatan:

“Peraturan tanggung jawab saat ini, khususnya peraturan nasional yang berdasarkan kesalahan, tidak disesuaikan untuk menangani klaim kompensasi atas kerugian yang disebabkan oleh produk/layanan yang mendukung AI,” Komisi tersebut [PDF] tahun lalu. “Dalam aturan seperti itu, korban perlu membuktikan tindakan salah/kelalaian seseorang yang menyebabkan kerugian. Karakteristik spesifik AI, termasuk otonomi dan opasitas (yang disebut efek ‘kotak hitam’), menyulitkan atau sangat mahal untuk mengidentifikasi pihak yang bertanggung jawab dan membuktikan persyaratan agar klaim tanggung jawab dapat berhasil.”

Dan anggota parlemen AS telah melakukannya diusulkan Kerangka Kerja AI Bipartisan untuk “memastikan bahwa perusahaan AI dapat dimintai pertanggungjawaban melalui penegakan badan pengawas dan hak bertindak pribadi ketika model dan sistem mereka melanggar privasi, melanggar hak-hak sipil, atau menyebabkan kerugian yang dapat dikenali.”

Jangan terlalu bersemangat melihat para eksekutif perusahaan AI berada di balik jeruji besi: Keterlibatan para pemimpin industri AI dalam proses ini menunjukkan bahwa peraturan apa pun yang muncul akan sama efektifnya dengan kerangka peraturan lain yang telah dirusak oleh para pelobi.

Namun kegembiraan adalah bagian dari masalahnya: Ada begitu banyak hype tentang burung beo stokastik, sebutan untuk model AI.

Model AI memiliki nilai nyata dalam beberapa konteks, seperti yang dicatat oleh perusahaan keamanan Socket, yang telah menggunakan ChatGPT bendera bantuan kerentanan perangkat lunak. Mereka telah melakukan keajaiban dalam pengenalan suara, terjemahan, dan pengenalan gambar, sehingga merugikan penyalin dan teka-teki CAPTCHA. Mereka telah mengingatkan para veteran industri tentang betapa menyenangkannya memainkannya eliza, chatbot awal. Mereka tampak memiliki kegunaan nyata dalam pekerjaan pendukung keputusan, asalkan ada manusia yang terlibat. Dan mereka telah menggunakan mantra baris perintah yang rumit, dengan berbagai macam tanda dan parameter, dan mengubahnya menjadi perintah teks yang sama rumitnya yang dapat digunakan untuk paragraf.

Namun otomatisasi yang dimungkinkan oleh AI memerlukan biaya. Baru-baru ini artikel untuk majalah perdagangan fiksi ilmiah Locus, penulis dan aktivis Cory Doctorow berpendapat, “Perusahaan AI secara implisit bertaruh bahwa pelanggan mereka akan membeli AI untuk otomatisasi yang sangat penting, pemadam kebakaran, dan sebagai akibatnya menyebabkan kerugian fisik, mental, dan ekonomi bagi pelanggan mereka sendiri. , entah bagaimana menghindari tanggung jawab atas kerugian ini.”

Doctorow skeptis bahwa ada pasar yang berarti bagi layanan AI di bisnis bernilai tinggi, karena risikonya dan yakin kita berada dalam situasi yang sulit. Gelembung AI. Dia menunjuk GM Cruise sebagai contoh, mencatat bahwa model bisnis perusahaan mobil self-driving – di limbo karena cedera pejalan kaki dan penarikan kembali – berarti mengganti setiap pengemudi berupah rendah dengan 1.5 pengawas jarak jauh yang lebih mahal, tanpa menutup kemungkinan kecelakaan dan tuntutan hukum terkait.

Overload

Setidaknya ada potensi bisnis bernilai rendah yang terkait dengan AI. Hal ini melibatkan pembayaran bulanan untuk mengakses API untuk obrolan yang tidak akurat, pembuatan gambar algoritmik yang mengkooptasi gaya artis tanpa izin, atau menghasilkan ratusan dari situs berita palsu (atau buku-buku) sedemikian rupa sehingga “membanjiri zona tersebut” dengan informasi yang salah.

Tampaknya tidak mungkin seperti Grup Arena klaim bahwa platform AI-nya dapat mengurangi waktu yang diperlukan untuk membuat artikel untuk publikasi seperti Sports Illustrated sebesar 80-90 persen akan meningkatkan kepuasan pembaca, loyalitas merek, atau kualitas konten. Namun mungkin menghasilkan lebih banyak artikel dari ratusan judul perusahaan akan menghasilkan lebih banyak tampilan halaman oleh bot dan lebih banyak pendapatan iklan terprogram dari pembeli iklan yang terlalu naif untuk ditangkap.

Salah satu masalahnya adalah promotor AI utama – Amazon, Google, Nvidia, dan Microsoft – mengoperasikan platform cloud atau menjual perangkat keras GPU. Mereka adalah vendor yang handal dalam demam emas AI, yang hanya ingin menjual layanan cloud atau perangkat penghitung angka mereka. Mereka semua mendukung blockchain ekspres dan supremasi mata uang kripto sampai khayalan itu mereda.

Mereka bahkan lebih antusias dalam membantu perusahaan menjalankan beban kerja AI, baik berguna atau tidak. Mereka hanya melakukan penyemaian cloud, berharap dapat mendorong bisnis ke operasi sewa prosesor mereka. Demikian pula, startup pembelajaran mesin tanpa infrastruktur berharap pembicaraan hangat tentang teknologi transformasional akan meningkatkan penilaian perusahaan mereka untuk memberi penghargaan kepada investor awal.

Kegilaan terhadap AI juga dapat dikaitkan dengan upaya terus-menerus dari industri teknologi untuk menjawab “Apa yang akan terjadi selanjutnya?” selama masa stasis berkepanjangan. Apple, Google, Amazon, meta, Microsoft, dan Nvidia semuanya telah melakukan yang terbaik untuk mencegah persaingan yang berarti dan sejak dimulainya era cloud dan seluler pada pertengahan tahun 2000an, mereka telah melakukannya dengan cukup baik. Perilaku anti-persaingan bukanlah sesuatu yang baru – ingat industri pada tahun 2010 penyelesaian dengan Departemen Kehakiman AS atas perjanjian antara Adobe, Google, Intel, Intuit, dan Pixar untuk menghindari perburuan bakat satu sama lain.

Microsoft memanfaatkan sebagian besar integrasi AI-nya dengan Bing, yang telah lama dibayangi oleh Google Penelusuran, dengan mengklaim bahwa “menciptakan kembali pencarian.” Namun tidak banyak yang berubah sejak saat itu – Bing kabarnya telah gagal mengambil pangsa pasar apa pun dari Google, pada saat terdapat sentimen luas bahwa Google Penelusuran – yang juga kini dilengkapi dengan AI – menjadi semakin buruk.

Ayo tahun 2024

Untuk mengetahui apa yang akan terjadi selanjutnya, kita harus menunggu Departemen Kehakiman dan regulator di seluruh dunia untuk memaksakan perubahan. antitrust penegakan hukum dan tuntutan hukum. Karena meskipun Google mengunci distribusi pencarian – melalui kesepakatan dengan Apple dan lainnya – dan periklanan digital – melalui kesepakatannya dengan Meta (dibersihkan di AS, masih sedang dalam investigasi di Eropa dan Inggris) dan kegiatan lain yang kesal kepentingan Departemen Kehakiman – baik bisnis penelusuran maupun bisnis iklan tampaknya tidak bisa menerima penantang baru, tidak peduli berapa banyak saus AI yang ditambahkan.

AI merupakan tanggung jawab tidak hanya dalam arti finansial tetapi juga dalam arti etika. Ini menjanjikan penghematan upah – meskipun demikian menjadi sangat mahal dari segi Pelatihan dan dampak lingkungan – sambil mendorong ketidakpedulian terhadap tenaga kerja manusia, kekayaan intelektual, hasil yang merugikan, dan keakuratan informasi. AI mengundang perusahaan-perusahaan untuk menghilangkan orang-orang dari persamaan ketika mereka sering kali memberikan nilai tambah yang tidak terlihat dari neraca.

Ada ruang bagi AI untuk benar-benar berguna, namun AI perlu diterapkan untuk membantu manusia, bukan menghilangkannya. ®

Stempel Waktu:

Lebih dari Pendaftaran