Urgensi Penanganan Diskriminasi AI: Transparansi, Akuntabilitas, dan Jadwal Regulasi

Urgensi Penanganan Diskriminasi AI: Transparansi, Akuntabilitas, dan Jadwal Regulasi

Node Sumber: 2747320

Kecerdasan buatan (AI) telah merevolusi berbagai industri, menawarkan banyak manfaat dan peluang. Namun, muncul kekhawatiran mengenai potensi AI untuk melanggengkan diskriminasi dan bias. Artikel ini membahas topik diskriminasi AI, menyoroti tantangan dalam mengidentifikasi dan mengatasi bias yang tertanam dalam sistem AI. Orang dalam industri ini menyatakan keraguannya mengenai implikasi moral dan etika dari AI, dengan alasan adanya kekhawatiran mengenai misinformasi, bias dalam algoritma, dan pembuatan konten yang menyesatkan. Ketika perdebatan seputar AI semakin meningkat, semakin banyak tuntutan akan peraturan yang bermakna untuk memastikan transparansi, akuntabilitas, dan perlindungan hak-hak dasar.

Tantangan bagi Industri Keuangan dengan AI

Menurut Nabil Manji, kepala kripto dan Web3 di Worldpay by FIS, efektivitas produk AI sangat bergantung pada kualitas materi sumber yang digunakan untuk pelatihan. Dalam wawancara dengan CNBC, Manji menjelaskan bahwa dua faktor utama berkontribusi terhadap kinerja AI: data yang dapat diakses dan kemampuan model bahasa besar.

Untuk mengilustrasikan pentingnya data, Manji menyebutkan bahwa perusahaan seperti Reddit telah secara terbuka menyatakan pembatasan pengumpulan data, sehingga memerlukan pembayaran untuk akses. Di sektor jasa keuangan, ia menyoroti tantangan sistem data yang terfragmentasi dalam berbagai bahasa dan format. Kurangnya konsolidasi dan harmonisasi membatasi efektivitas produk berbasis AI, terutama jika dibandingkan dengan industri dengan infrastruktur data yang terstandarisasi dan dimodernisasi.

Menurut Manji, pemanfaatan teknologi blockchain atau buku besar terdistribusi mungkin menawarkan solusi potensial untuk mengatasi masalah ini. Pendekatan inovatif ini dapat memberikan peningkatan transparansi pada data terfragmentasi yang disimpan dalam sistem rumit bank konvensional. Namun, ia mengakui bahwa sifat bank yang sangat teregulasi dan bergerak lambat mungkin menghambat kemampuan mereka untuk mengadopsi alat AI baru dengan cepat, tidak seperti perusahaan teknologi yang lebih gesit seperti Microsoft dan Google, yang telah berada di garis depan dalam mendorong inovasi selama beberapa waktu terakhir. dekade.

Mempertimbangkan faktor-faktor ini, menjadi jelas bahwa industri keuangan menghadapi tantangan unik dalam memanfaatkan AI karena kompleksitas integrasi data dan sifat yang melekat pada sektor perbankan.

Menurut Rumman Chowdhury, mantan kepala etika pembelajaran mesin, transparansi, dan akuntabilitas di Twitter, pemberian pinjaman adalah contoh penting tentang bagaimana bias dalam sistem AI dapat berdampak buruk pada komunitas yang terpinggirkan. Berbicara pada diskusi panel di Amsterdam, Chowdhury menyoroti praktik historis “redlining” di Chicago pada tahun 1930an. Redlining melibatkan penolakan pinjaman kepada lingkungan yang didominasi warga Afrika-Amerika berdasarkan demografi rasial.

Chowdhury menjelaskan bahwa meskipun algoritma modern mungkin tidak secara eksplisit memasukkan ras sebagai titik data, bias masih dapat dikodekan secara implisit. Ketika mengembangkan algoritma untuk menilai tingkat risiko daerah dan individu untuk tujuan pemberian pinjaman, data historis yang mengandung bias dapat melanggengkan diskriminasi.

Angle Bush, seorang visioner di balik Perempuan Kulit Hitam dalam Kecerdasan Buatan, menyoroti pentingnya mengakui bahaya yang terkait dengan reproduksi bias yang tertanam dalam data historis ketika menggunakan sistem AI untuk menentukan persetujuan pinjaman. Praktik seperti ini secara otomatis dapat menyebabkan penolakan permohonan pinjaman dari komunitas yang terpinggirkan, sehingga melanggengkan kesenjangan ras dan gender.

Frost Li, seorang pengembang AI berpengalaman, menunjukkan tantangan personalisasi di dalamnya Integrasi AI. Memilih “fitur inti” untuk melatih model AI terkadang melibatkan faktor-faktor yang tidak terkait sehingga dapat menyebabkan hasil yang bias. Li memberikan contoh bagaimana startup fintech yang menargetkan orang asing mungkin menghadapi kriteria penilaian kredit yang berbeda dibandingkan dengan bank lokal, yang lebih mengenal sekolah dan komunitas lokal.

Niklas Guske, COO Taktile, sebuah startup yang berspesialisasi dalam otomatisasi pengambilan keputusan untuk fintech, mengklarifikasi bahwa AI generatif biasanya tidak digunakan untuk menciptakan skor kredit atau penilaian risiko konsumen. Sebaliknya, kekuatannya terletak pada pra-pemrosesan data tidak terstruktur, seperti file teks, untuk meningkatkan kualitas data model penjaminan emisi konvensional.

Singkatnya, penggunaan AI dalam pemberian pinjaman dan jasa keuangan menimbulkan kekhawatiran tentang bias dan diskriminasi. Bias historis yang tertanam dalam data dan pemilihan fitur yang tidak relevan selama pelatihan AI dapat mengakibatkan hasil yang tidak adil. Penting bagi bank dan lembaga keuangan untuk mengenali dan mengatasi permasalahan ini guna mencegah berlanjutnya diskriminasi ketika menerapkan solusi AI.

Buktikan Diskriminasi AI

Membuktikan diskriminasi berbasis AI dapat menjadi sebuah tantangan, seperti yang ditunjukkan oleh contoh-contoh seperti kasus yang melibatkan Apple dan Goldman Sachs. Departemen Layanan Keuangan Negara Bagian New York menolak tuduhan penerapan batas bawah Apple Card bagi perempuan, dengan alasan kurangnya bukti yang mendukung.

Kim Smouter, direktur Jaringan Eropa Melawan Rasisme, menyatakan bahwa penerapan AI secara massal menimbulkan ketidakjelasan dalam proses pengambilan keputusan, sehingga menyulitkan individu untuk mengidentifikasi dan mengatasi diskriminasi.

Smouter menjelaskan bahwa individu seringkali memiliki pengetahuan yang terbatas tentang cara kerja sistem AI, sehingga sulit untuk mendeteksi diskriminasi atau bias sistemik. Hal ini menjadi lebih kompleks ketika diskriminasi menjadi bagian dari permasalahan yang lebih luas dan berdampak pada banyak orang. Smouter merujuk pada skandal kesejahteraan anak di Belanda, di mana sejumlah besar klaim tunjangan diberi label palsu sebagai penipuan karena bias institusional. Penemuan disfungsi-disfungsi tersebut merupakan sebuah tantangan, dan mendapatkan ganti rugi bisa jadi sulit dan memakan waktu, sehingga menyebabkan kerugian yang signifikan dan terkadang tidak dapat diperbaiki lagi.

Contoh-contoh ini menggambarkan kesulitan yang melekat dalam membuktikan diskriminasi berbasis AI dan mendapatkan solusi ketika diskriminasi tersebut terjadi. Kompleksitas sistem AI dan kurangnya transparansi dalam proses pengambilan keputusan dapat menyulitkan individu untuk mengenali dan mengatasi diskriminasi secara efektif.

Menurut Chowdhury, terdapat kebutuhan mendesak akan adanya badan pengatur global seperti PBB untuk mengatasi risiko yang terkait dengan AI. Meskipun AI telah menunjukkan inovasi yang luar biasa, kekhawatiran telah dikemukakan oleh para ahli teknologi dan ahli etika mengenai implikasi moral dan etika. Kekhawatiran ini mencakup masalah-masalah seperti misinformasi, bias rasial dan gender yang tertanam dalam algoritma AI, dan pembuatan konten yang menyesatkan oleh alat seperti ChatGPT.

Chowdhury mengungkapkan kekhawatirannya memasuki dunia pasca-kebenaran di mana informasi online, termasuk teks, video, dan audio, menjadi tidak dapat dipercaya karena AI generatif. Hal ini menimbulkan pertanyaan tentang bagaimana kita dapat memastikan integritas informasi dan bagaimana kita dapat mengandalkan informasi tersebut untuk mengambil keputusan yang tepat. Dengan contoh UU AI di Uni Eropa, regulasi AI yang bermakna sangatlah penting saat ini. Namun, ada kekhawatiran mengenai lamanya waktu yang dibutuhkan agar proposal peraturan menjadi efektif, sehingga berpotensi menunda tindakan yang diperlukan.

Smouter menekankan perlunya transparansi dan akuntabilitas yang lebih besar dalam algoritma AI. Hal ini termasuk membuat algoritme lebih mudah dipahami oleh non-ahli, melakukan pengujian dan mempublikasikan hasil, menetapkan proses pengaduan independen, melakukan audit dan pelaporan berkala, dan melibatkan komunitas rasial dalam desain dan penerapan teknologi. Penegakan UU AI, yang mengambil perspektif hak-hak dasar dan memperkenalkan konsep-konsep seperti ganti rugi, diperkirakan akan dimulai dalam waktu sekitar dua tahun. Mengurangi jangka waktu ini akan bermanfaat untuk menegakkan transparansi dan akuntabilitas sebagai aspek integral dari inovasi.

Stempel Waktu:

Lebih dari Berita Forex Sekarang