Kita Membutuhkan Regulasi Untuk Menyelamatkan Kemanusiaan Dari AI... Dan Untuk Menyelamatkan Saham AI - CryptoInfoNet

Kita Membutuhkan Regulasi Untuk Menyelamatkan Kemanusiaan Dari AI… Dan Untuk Menyelamatkan Saham AI – CryptoInfoNet

Node Sumber: 2968903

Sebagai kecerdasan buatan (AI) perkembangan teknologi menjadi pusat perhatian, investor secara alami mencium peluang yang ada. Mereka juga mencium formulir yang baru dicetak dan birokrasi yang menunggu untuk mengambil keputusan dan menghambat mesin inovasi AI yang menderu-deru. Namun bagi mereka yang khawatir bahwa Paman Sam dapat menghancurkan industri ini melalui peraturan dan pembatasan baru, saya berpendapat bahwa yang terjadi justru sebaliknya: Peraturan dapat menyelamatkan industri dari dirinya sendiri. Dan lebih jauh lagi, lebih banyak peraturan bagi industri yang melindungi, bukan merugikan, investor. 

Di sebagian besar industri baru, kata “regulasi” adalah hal yang tabu. Saat ini, industri AI bukanlah hal baru. Konsep modern ini dimulai pada tahun 1950-an, dan baik investasi swasta maupun publik di bidang ini telah meningkat dan menyusut selama sekitar 70 tahun terakhir. Pada tahun 1980an dan awal 1990an terjadi a siklus boom-and-bust dalam investasi kecerdasan buatan. Investasi pemerintah Jepang pada tahun 80an mengawali ledakan besar AI komersial yang pertama. Namun, pada tahun 1993, “lebih dari 300 perusahaan menutup usahanya” ketika gelembung tersebut muncul. Namun, kemajuan modern dalam daya komputasi dan model bahasa besar (LLM) telah memberikan kehidupan baru bagi industri ini, dan potensinya tidak hanya menarik investor tetapi juga regulator.

Peraturan AI: Kekacauan Kepentingan dan Risiko

Pertanyaan tentang apa yang seharusnya atau bahkan bisa menjadi “regulasi AI” adalah pertanyaan yang diajukan oleh para politisi, pembuat kebijakan, dan ahli etika. Yang ingin diketahui investor tentu saja adalah apa pengaruhnya terhadap portofolio mereka. Apa risiko terbesarnya? Dan di sinilah hukum dan peraturan dapat memberikan perlindungan dan membantu mengelola risiko-risiko tersebut.

Risiko terbesar bagi investor terbagi menjadi tiga permasalahan utama yang saling tumpang tindih: penipuan, perlindungan hak kekayaan intelektual, dan privasi. Tentu saja, sudah ada undang-undang yang mengatur ketiga permasalahan ini satu per satu. Namun masalahnya adalah AI mewakili perpaduan unik dan rumit dari ketiga risiko yang, tanpa kerangka kerja, undang-undang, dan peraturan yang jelas, akan mengancam kemajuan industri secara keseluruhan.

Kekhawatiran paling mendesak bagi investor dalam daftar tersebut adalah penipuan. Hampir semua orang setuju bahwa pencegahan penipuan adalah peran regulasi yang penting dan vital.

Kera Penunggang Kawat Penipu: Dua Studi Kasus

Dua studi kasus menunjukkan potensi masa depan regulasi AI, risiko penipuan, dan jangka waktu regulasi yang diharapkan investor. Keduanya juga menunjukkan bagaimana penipuan akan mempengaruhi tindakan regulasi di masa depan.

Yang pertama adalah dunia cryptocurrency dan non-fungible token (NFT). Sebuah industri yang jauh lebih baru daripada AI, kripto telah mengalami banyak pasang surut dan, yang paling penting, penipuan. Komisi Sekuritas dan Bursa (SEC) dan Komisi Perdagangan Federal (FTC) telah menghabiskan satu dekade mencoba mencari cara untuk memasukkan kripto ke dalam skema peraturan mereka. Kongres belum meloloskan undang-undang eksplisit terkait kripto beberapa upaya.

Pada saat itu, banyak bursa yang bangkit dan runtuh. NFT berubah dari populer pada tahun 2021 dan 2022 menjadi kehilangan 95% nilainya, membawa miliaran dolar investor bersama mereka. Yang paling terkenal adalah runtuhnya FTX dan percobaan baru-baru ini Sam Bankman-Fried melibatkan miliaran dolar dana yang digunakan secara curang.

Studi kasus kedua di sini adalah keamanan siber. Berbeda dengan kripto, ada beberapa undang-undang inti yang ditetapkan untuk industri ini. Dua undang-undang keamanan siber pertama yang “benar” adalah Undang-undang Penipuan dan Penyalahgunaan Komputer tahun 1986 dan Undang-undang Pengendalian Kejahatan Komprehensif tahun 1984. Keduanya mengandalkan pemahaman yang kreatif dan relatif baru tentang “kabel” (seperti dalam kabel telegraf) dan penipuan kawat.

Dalam beberapa dekade setelahnya, Kongres telah mengeluarkan undang-undang sedikit demi sedikit mengenai topik siber hasil yang beragam. Hal ini mengakibatkan negara-negara bagian mengambil alih tanggung jawab tersebut. Dunia keamanan siber juga memberikan contoh sebuah industri dengan kepentingan yang sangat saling bersinggungan, banyak di antaranya memiliki risiko dan kelemahan peraturan yang dihadapi industri kecerdasan buatan. Salah satu yang paling menonjol adalah privasi. Kekhawatiran terhadap privasi individu, yang umumnya dikaitkan dengan media sosial dan Internet of Things (IoT), juga muncul pada model pelatihan AI.

Kedua contoh di sini memberikan pelajaran bagi industri AI yang berkembang pesat. Lingkungan dunia kripto yang berisiko tinggi, imbalan tinggi, dan peraturan rendah penuh dengan penipuan dan ketidakstabilan. Keamanan siber adalah industri yang jauh lebih tua dan mapan, namun peraturan yang ada masih belum merata, terutama terkait privasi.

Status Peraturan AI Saat Ini

Jadi, untuk mendapatkan gambaran tentang jalur peraturan mana yang diharapkan oleh investor, mari kita lihat lingkungan peraturan untuk kecerdasan buatan saat ini.

Mulai dari kancah dalam negeri, ya… tidak banyak, setidaknya secara legislatif. Sebaliknya, Presiden Joe Biden sedang sibuk merancang jalur regulasi melalui janji sukarela dan, yang paling baru dan penting, Perintah Eksekutif yang penting dan menyeluruh.

Awal tahun ini, Gedung Putih mengumumkan janji sukarela yang tidak mengikat “mengelola risiko yang ditimbulkan oleh AI.” Di antara penandatangan ikrar ini adalah beberapa nama besar seperti Amazon (NASDAQ:AMZN), Platform Meta (NASDAQ:META), Alfabet (NASDAQ:GOOG,NASDAQ:GOOGL) dan OpenAI. Kantor Kebijakan Sains dan Teknologi (OSTP), sebuah departemen di Gedung Putih, juga telah menerbitkan a “Cetak Biru untuk AI Bill of Rights.” Kerangka kerja sukarela lainnya untuk penggunaan AI yang aman dan etis.

Menurut Gedung Putih, “penggunaan AI yang aman dan etis” memerlukan “pengujian pra-penerapan” yang ketat dan dibuat dengan “konsultasi dari berbagai komunitas, pemangku kepentingan, dan pakar domain untuk mengidentifikasi kekhawatiran, risiko, dan potensi dampak sistem.” Sistem AI juga harus memiliki “evaluasi dan pelaporan independen” untuk memastikan bahwa sistem tersebut tetap aman dalam jangka panjang.

Perintah Eksekutif AI Biden

Pada dini hari tanggal 30 Oktober, Gedung Putih mengumumkan dorongan regulasi paling komprehensif terkait AI. Yang mendorong upaya ini adalah a menyapu Perintah Eksekutif (dan yang baru dan ramping situs web) mencakup segala hal mulai dari keselamatan dan keamanan hingga privasi, hak-hak sipil, dan banyak lagi. Perintah Eksekutif ini dibuat berdasarkan janji sukarela dan Undang-undang Hak Asasi Manusia (AI) yang telah disebutkan di atas, dan perintah ini terutama berfokus pada apa yang sebagian besar Perintah Eksekutif lakukan: memobilisasi banyak departemen dan badan di Cabang Eksekutif untuk mengambil tindakan.

Ada banyak rincian yang harus diselesaikan mengenai bagaimana Perintah Eksekutif ini akan berdampak pada industri, namun hal yang paling penting bagi investor adalah:

1. Diperlukan waktu yang cukup lama bagi regulator untuk mengembangkan pedoman dan kebijakan baru ini.

2. Peraturan spesifik apa pun yang dihasilkan oleh EO ini akan dibuat berdasarkan landasan hukum yang lemah hingga Kongres mengesahkan undang-undang terkait AI. Hal ini masih bergantung pada kepatuhan sukarela, dengan satu pengecualian utama: Undang-Undang Produksi Pertahanan (DPA).

Permintaan Biden terhadap DPA sangatlah penting dan membingungkan. DPA adalah satu-satunya undang-undang eksplisit yang dirujuk oleh EO dengan beberapa implikasi yang berpotensi kuat. DPA baru-baru ini digunakan dalam konteks pandemi Covid-19 tetapi biasanya dikaitkan dengan produksi pada masa perang. Biden menggunakannya di sini murni dalam konteks keamanan nasional:

“…Perintah tersebut akan mengharuskan perusahaan yang mengembangkan model landasan apa pun yang menimbulkan risiko serius terhadap keamanan nasional, keamanan ekonomi nasional, atau kesehatan dan keselamatan masyarakat nasional harus memberi tahu pemerintah federal ketika melatih model tersebut, dan harus membagikan hasil semua upaya red- tes keamanan tim.”

Tidak jelas siapa yang tercakup dalam “proses peninjauan” yang didukung DPA ini karena lembaga lain memiliki tanggung jawab peraturan yang lebih spesifik. Misalnya, Institut Standar dan Teknologi Nasional (NIST) sedang mengembangkan standar keselamatan AI dan Departemen Keamanan Dalam Negeri (DHS) adalah menerapkannya untuk infrastruktur penting. Mungkin yang lebih penting, diperlukan klarifikasi mengenai lembaga mana yang akan menerapkan kebijakan ini.

Ada satu kandidat penting yang hampir pasti akan dicakup oleh DPA karena kontrak pertahanan yang ada: Palantir (NYSE:PLTR). Big Data dan kontraktor pertahanan yang semakin berfokus pada AI tidak ikut menandatangani perjanjian Gedung Putih janji sukarela. Hal ini mungkin lebih berkaitan dengan kecenderungan politik konservatif-libertarian Ketua Palantir Peter Thiel dan dukungannya terhadap mantan Presiden Donald Trump daripada penolakan langsung terhadap peraturan lebih lanjut. Namun, kelalaian ini penting karena Palantir mempunyai rencana besar “mengambil seluruh pasar AI.”

Secara keseluruhan, kerangka peraturan yang ditetapkan oleh Perintah Eksekutif Biden merupakan terobosan baru dan mendorong Kongres untuk membangun badan pengawas lainnya.

Sayangnya, kita mungkin harus menunggu cukup lama hingga anggota parlemen mulai “menuangkan beton.”

Bagaimana dengan Kongres?

Perintah Eksekutif AI dari Gedung Putih hanya menyebutkan dua referensi ke Kongres, namun keduanya merupakan seruan agar Kongres mengesahkan undang-undang bipartisan mengenai AI (salah satunya secara eksplisit tentang mengesahkan undang-undang privasi).

Menurut Brennan Center For Justice, Kongres telah melakukannya sekitar 60 tagihan terkait AI duduk di berbagai komite.

Namun, saat artikel ini ditulis, Dewan Perwakilan Rakyat baru saja selesai menyepakati Ketua DPR yang baru dan memiliki “peluang yang lebih besar untuk digoreng” dengan tenggat waktu penutupan pemerintah yang akan datang dan disertai dengan pertarungan anggaran yang semakin dekat. Belum lagi rancangan undang-undang bantuan Israel dan Ukraina yang kontroversial dan sejumlah kekhawatiran lain yang lebih mendesak.

Hal ini menyisakan dua sumber lain untuk peraturan AI: masing-masing negara bagian AS dan aktor internasional. Kelompok pertama, yang hanya terdiri dari segelintir dari 50 negara bagian, telah melakukan hal tersebut melewati tambal sulam undang-undang yang relevan, dengan AI dan privasi konsumen menjadi fokus utama. Secara internasional, Tiongkok memimpin dalam membangun a set yang kompleks dan canggih peraturan AI. Kerangka peraturan komprehensif Uni Eropa, diberi judul sederhana “Undang-undang AI,” diharapkan dapat diselesaikan dan disahkan pada akhir tahun ini.

Peraturan AI dan Masa Depannya

Jadi, apa dampaknya bagi industri yang berkembang pesat dan berpotensi menimbulkan disruptif ini? Apakah ini akan mengambil jalur kripto menuju regulasi, yang penuh dengan penipuan dan ketidakstabilan? Atau jalur keamanan siber yang lebih lambat, lebih stabil namun masih tidak merata. Nah, untuk saat ini, setidaknya di Amerika Serikat, kemungkinan besar ini merupakan campuran dari keduanya.

AI mempunyai potensi disruptif dan menghasilkan uang yang hanya dapat diimpikan oleh industri kripto. Namun, hal ini juga memiliki potensi dan kegunaan utama yang disediakan oleh industri keamanan siber. Bagi investor, dan agar tidak terdengar terlalu sensasional di sini, bagi umat manusia, ini adalah kombinasi yang berisiko.

Ada banyak sekali potensi penerapan AI di dunia nyata, mulai dari pertanian, pertahanan, keuangan, dan perawatan kesehatan. Penarikan permadani kripto dapat menipu uang investor, atau peretas dapat mencuri uang dari bank, namun risikonya adalah kecelakaan AI atau perilaku jahat. bisa menjadi bencana besar.

Hipotesis mengenai apa yang salah tidak akan ada habisnya karena AI semakin dimasukkan ke dalam kehidupan sehari-hari. Namun kita sudah melihat kasus penggunaan AI yang berbahaya dan meresahkan. Awal perang Israel-Hamas baru-baru ini telah menyebabkan banjirnya informasi yang salah di platform media sosial seperti X, sebelumnya Twitter. Beberapa gambar palsu yang dibagikan secara online dihasilkan oleh AI, sering kali dibuat dengan alat yang mudah diakses seperti Bing's Image Generator. Dengan teknologi yang terus berkembang, mengidentifikasi gambar dan video palsu akan semakin sulit.

Kami juga menghadapi risiko yang sebelumnya hanya ditemukan dalam fiksi ilmiah, seperti “AI jahat”. Sementara perencana makanan AI secara tidak sengaja menyarankan resep gas klorin patut ditertawakan saat ini, akan jauh lebih tidak lucu jika itu adalah AI yang bertanggung jawab atas, katakanlah, pertanian otomatis berskala besar yang secara tidak sengaja (atau lebih buruk lagi, secara sengaja) mencemari tanaman sayuran.

Seperti kata pepatah: “Peraturan keselamatan ditulis dengan darah.” Dan kita tidak perlu menunggu sampai darah tertumpah sebelum mengambil tindakan.

Secara hukum, sudah ada “palu godam” dalam kasus melawan Google yang, menurut perusahaan, akan terjadi menghancurkan konsep AI generatif. Apa yang dibutuhkan industri untuk menghindari nasib buruk ini adalah peraturan yang jelas dan dapat ditegakkan yang dapat melindungi masyarakat dan perusahaan AI dari dampak hukum satu sama lain.

Demi investor dan semua orang, diperlukan lebih banyak pengawasan regulasi terhadap industri kecerdasan buatan sebelum terjadi kesalahan besar. Perintah Eksekutif Gedung Putih yang baru memberikan kerangka kerja yang sangat komprehensif mengenai berbagai masalah terkait AI dan merupakan awal yang baik. Namun, tanpa undang-undang yang disahkan oleh Kongres yang memberikan dasar yang kuat bagi regulator untuk membangunnya, kita akan berakhir dengan kekacauan regulator yang bingung. Hal ini hanya akan membuat pelaku pasar bingung dan investor bingung. Dan dengan potensi AI yang begitu besar dan berbahaya, hal tersebut bukanlah sesuatu yang diinginkan oleh siapa pun.

Jadi tidak, peraturan AI tidak "musuh," seperti yang diungkapkan dalam manifesto salah satu pemodal ventura, namun hal ini dapat bertindak sebagai jalur pengaman yang dapat membantu melindungi industri dan investor dari risiko yang sangat besar.

Apa yang Harus Dilakukan Investor Sekarang

Tanpa batasan yang jelas, berinvestasi di dunia kecerdasan buatan adalah bisnis yang berisiko. Investor yang tidak terlalu khawatir tentang dampak dari penghapusan peraturan ini dapat mengambil risiko lebih besar pada startup yang mencoba menjadi kaya. Atau pada drama yang sudah mapan namun meremehkan regulasi seperti Palantir.

Jika tidak, investor akan lebih baik melihat perusahaan mana yang “bermain-main” dengan janji sukarela Gedung Putih. Atau mereka yang beradaptasi dengan perubahan peraturan internasional yang muncul dari UE dan Tiongkok. Perusahaan-perusahaan ini kemungkinan besar melihat peraturan baru ini sebagai sesuatu yang dapat mereka patuhi atau sesuatu yang dapat mereka gunakan untuk keuntungan mereka.

Apa pun yang terjadi, peraturan akan runtuh suatu saat nanti. Akan lebih baik bagi semua orang, bukan hanya investor, jika hal ini dihentikan sebelum bagian kedua dari ekspresi “bergerak cepat dan hancurkan” menghancurkan industri AI.

Pada tanggal publikasi, Andrew Bush memegang posisi LONG di saham GOOGL dan AMZN. Pendapat yang diungkapkan dalam artikel ini adalah milik penulis, dan tunduk pada Pedoman Penerbitan InvestorPlace.com.

Andrew Bush adalah editor berita keuangan untuk InvestorPlace dan memegang dua gelar di bidang Hubungan Internasional. Dia pernah bekerja di bidang pendidikan, sektor teknologi, dan sebagai analis riset di perusahaan konsultan yang berfokus pada keamanan nasional yang berbasis di DC.

Link sumber

#Peraturan #Simpan #Kemanusiaan #AI.. #Simpan #Saham

Stempel Waktu:

Lebih dari KriptoInfonet