Pentingnya keberagaman dalam AI bukanlah opini, melainkan matematika - IBM Blog

Pentingnya keberagaman dalam AI bukanlah opini, melainkan matematika – IBM Blog

Node Sumber: 3084301


Pentingnya keberagaman dalam AI bukanlah opini, melainkan matematika – IBM Blog




Kita semua ingin melihat nilai-nilai kemanusiaan ideal kita tercermin dalam teknologi kita. Kami berharap teknologi seperti kecerdasan buatan (AI) tidak berbohong kepada kita, tidak melakukan diskriminasi, dan aman untuk digunakan oleh kita dan anak-anak kita. Namun banyak pembuat AI saat ini menghadapi reaksi balik atas bias, ketidakakuratan, dan praktik data bermasalah yang terungkap dalam model mereka. Masalah-masalah ini memerlukan lebih dari sekadar solusi teknis, algoritmik, atau berbasis AI. Pada kenyataannya, diperlukan pendekatan sosio-teknis yang holistik.

Matematika menunjukkan kebenaran yang kuat

Semua model prediktif, termasuk AI, akan lebih akurat jika menggabungkan beragam kecerdasan dan pengalaman manusia. Ini bukanlah sebuah opini; itu mempunyai validitas empiris. Pertimbangkan teorema prediksi keanekaragaman. Sederhananya, jika keberagaman dalam suatu kelompok besar, maka kesalahan yang dilakukan oleh kelompok tersebut akan kecil – hal ini mendukung konsep “kebijaksanaan kelompok”. Dalam sebuah penelitian yang berpengaruh, ditunjukkan bahwa beragam kelompok pemecah masalah berkemampuan rendah dapat mengungguli kelompok pemecah masalah berkemampuan tinggi (Hong & Halaman, 2004).

Dalam bahasa matematika: semakin luas variansnya, semakin standar rata-ratanya. Persamaannya terlihat seperti ini:

A pelajaran lanjutan memberikan lebih banyak perhitungan yang menyempurnakan definisi statistik dari kelompok yang bijaksana, termasuk ketidaktahuan terhadap prediksi anggota lain dan penyertaan mereka yang memilikinya berbeda secara maksimal (berkorelasi negatif) prediksi atau penilaian. Jadi, bukan hanya volume, namun keragaman yang meningkatkan prediksi. Bagaimana wawasan ini dapat memengaruhi evaluasi model AI?

Akurasi model (dalam).

Mengutip pepatah umum, semua model salah. Hal ini berlaku di bidang statistik, sains, dan AI. Model yang dibuat dengan kurangnya keahlian domain dapat menyebabkan keliru Output.

Saat ini, sekelompok kecil orang yang homogen menentukan data apa yang akan digunakan untuk melatih model AI generatif, yang diambil dari sumber yang sangat mewakili bahasa Inggris. “Untuk sebagian besar dari 6,000 bahasa di dunia, data teks yang tersedia tidak cukup untuk melatih model dasar skala besar” (dari “Tentang Peluang dan Risiko Model Fondasi,” Bomasani dkk., 2022).

Selain itu, modelnya sendiri dibuat dari arsitektur terbatas: “Hampir semua model NLP canggih kini diadaptasi dari salah satu dari beberapa model dasar, seperti BERT, RoBERTa, BART, T5, dll. Sementara homogenisasi ini menghasilkan leverage yang sangat tinggi (perbaikan apa pun pada model fondasi dapat memberikan manfaat langsung di seluruh NLP), ini juga merupakan liabilitas; semua sistem AI mungkin mewarisi bias bermasalah yang sama dari beberapa model dasar (Bomasani dkk.) "

Agar AI generatif dapat lebih mencerminkan beragam komunitas yang dilayaninya, data manusia yang jauh lebih beragam harus direpresentasikan dalam model.

Mengevaluasi keakuratan model berjalan seiring dengan mengevaluasi bias. Kita harus bertanya, apa maksud dari model tersebut dan untuk siapa model tersebut dioptimalkan? Misalnya, siapa yang paling diuntungkan dari algoritma rekomendasi konten dan algoritma mesin pencari. Para pemangku kepentingan mungkin mempunyai kepentingan dan tujuan yang sangat berbeda. Algoritma dan model memerlukan target atau proksi untuk kesalahan Bayes: kesalahan minimum yang harus diperbaiki oleh model. Proksi ini sering kali berupa orang, seperti pakar materi dengan keahlian domain.

Tantangan yang sangat manusiawi: Menilai risiko sebelum membuat model pengadaan atau pengembangan

Peraturan dan rencana aksi AI yang muncul semakin menekankan pentingnya formulir penilaian dampak algoritmik. Tujuan dari formulir ini adalah untuk mendapatkan informasi penting tentang model AI sehingga tim tata kelola dapat menilai dan mengatasi risikonya sebelum menerapkannya. Pertanyaan umum meliputi:

  • Apa kasus penggunaan model Anda?
  • Apa risiko dari dampak yang berbeda?
  • Bagaimana Anda menilai keadilan?
  • Bagaimana Anda membuat model Anda dapat dijelaskan?

Meskipun dirancang dengan niat baik, masalahnya adalah sebagian besar pemilik model AI tidak memahami cara mengevaluasi risiko untuk kasus penggunaan mereka. Pengulangan yang umum mungkin adalah, “Bagaimana model saya bisa menjadi tidak adil jika model saya tidak mengumpulkan informasi identitas pribadi (PII)?” Akibatnya, formulir-formulir tersebut jarang dilengkapi dengan ketelitian yang diperlukan agar sistem tata kelola dapat menandai faktor-faktor risiko secara akurat.

Dengan demikian, sifat sosio-teknis dari solusi tersebut digarisbawahi. Pemilik model—seorang individu—tidak bisa begitu saja diberikan daftar kotak centang untuk mengevaluasi apakah kasus penggunaannya akan menimbulkan kerugian. Sebaliknya, yang dibutuhkan adalah sekelompok orang dengan pengalaman hidup yang sangat beragam, berkumpul dalam komunitas yang menawarkan keamanan psikologis untuk melakukan diskusi yang sulit mengenai dampak yang berbeda-beda.

Menyambut perspektif yang lebih luas untuk AI yang dapat dipercaya

IBM® meyakini penerapan pendekatan “client zero”, yaitu menerapkan rekomendasi dan sistem yang akan dibuat untuk kliennya dalam bidang konsultasi dan solusi berbasis produk. Pendekatan ini meluas ke praktik etis, itulah sebabnya IBM menciptakan Pusat Keunggulan AI (COE) yang Dapat Dipercaya.

Seperti dijelaskan di atas, keragaman pengalaman dan keahlian sangat penting untuk mengevaluasi dampak AI dengan tepat. Namun prospek untuk berpartisipasi dalam Center of Excellence bisa jadi menakutkan jika perusahaan tersebut penuh dengan inovator AI, pakar, dan insinyur terkemuka, sehingga menumbuhkan komunitas yang memiliki keamanan psikologis sangat diperlukan. IBM mengkomunikasikan hal ini dengan jelas dengan mengatakan, “Tertarik dengan AI? Tertarik dengan etika AI? Anda dapat duduk di meja ini.”

COE menawarkan pelatihan etika AI kepada praktisi di setiap tingkatan. Program pembelajaran sinkron (guru dan siswa di kelas) dan program asinkron (panduan mandiri) ditawarkan.

Tapi itu COE terapan pelatihan yang memberikan para praktisi kami wawasan terdalam, saat mereka bekerja dengan tim global, beragam, dan multidisiplin dalam proyek nyata untuk lebih memahami dampak yang berbeda. Mereka juga memanfaatkan kerangka pemikiran desain yang dimiliki IBM Desain untuk AI kelompok menggunakan secara internal dan dengan klien untuk menilai dampak yang tidak diinginkan dari model AI, sehingga mereka yang sering terpinggirkan selalu diingat. (Lihat karya Sylvia Duckworth Roda Kekuasaan dan Hak Istimewa sebagai contoh bagaimana karakteristik pribadi bersinggungan dengan hak istimewa atau marginalisasi orang.) IBM juga menyumbangkan banyak kerangka kerja tersebut kepada komunitas sumber terbuka Desain Secara Etis.

Berikut adalah beberapa laporan yang diterbitkan IBM secara publik mengenai proyek-proyek ini:

Alat tata kelola model AI otomatis diperlukan untuk mendapatkan wawasan penting tentang kinerja model AI Anda. Namun perlu diingat, menangkap risiko jauh sebelum model Anda dikembangkan dan diproduksi adalah hal yang optimal. Dengan menciptakan komunitas yang terdiri dari praktisi multidisiplin dan beragam yang menawarkan ruang aman bagi orang-orang untuk berdiskusi mengenai dampak yang berbeda-beda, Anda dapat memulai perjalanan Anda dalam mengoperasionalkan prinsip-prinsip Anda dan mengembangkan AI secara bertanggung jawab.

Dalam praktiknya, saat Anda merekrut praktisi AI, pertimbangkan bahwa lebih dari 70% upaya dalam membuat model adalah mengumpulkan data yang benar. Anda ingin mempekerjakan orang-orang yang tahu cara mengumpulkan data yang representatif dan juga dikumpulkan dengan persetujuan. Anda juga ingin orang-orang yang berpengetahuan bekerja sama dengan pakar domain untuk memastikan bahwa mereka memiliki pendekatan yang tepat. Memastikan para praktisi ini memiliki kecerdasan emosional untuk menghadapi tantangan dalam melakukan kurasi AI secara bertanggung jawab dengan kerendahan hati dan kebijaksanaan adalah kuncinya. Kita harus sungguh-sungguh mempelajari cara mengenali bagaimana dan kapan sistem AI dapat memperburuk kesenjangan, sama seperti sistem tersebut dapat meningkatkan kecerdasan manusia.

Temukan kembali cara bisnis Anda bekerja dengan AI

Apakah artikel ini berguna?

YesTidak


Lebih banyak dari kecerdasan buatan




Menyeimbangkan AI: Berbuat baik dan hindari bahaya

5 min merah - Saat tumbuh dewasa, ayah saya selalu berkata, “berbuat baik.” Sebagai seorang anak, saya pikir itu adalah tata bahasa yang jelek dan saya akan mengoreksinya, bersikeras bahwa itu harus “lakukan dengan baik.” Bahkan anak-anak saya menggoda saya ketika mereka mendengar nasihatnya “berbuat baik” dan saya akui saya membiarkan dia lulus dalam bidang tata bahasa. Dalam hal kecerdasan buatan (AI) yang bertanggung jawab, organisasi harus memprioritaskan kemampuan untuk menghindari bahaya sebagai fokus utama. Beberapa organisasi mungkin juga bertujuan untuk menggunakan…




Bagaimana perusahaan asuransi bekerja sama dengan IBM untuk menerapkan solusi generatif berbasis AI

7 min merah - IBM bekerja dengan klien asuransi kami melalui berbagai bidang, dan data dari IBM Institute for Business Value (IBV) mengidentifikasi tiga hal penting yang memandu keputusan manajemen perusahaan asuransi: Mengadopsi transformasi digital untuk memungkinkan perusahaan asuransi menghadirkan produk baru, mendorong pertumbuhan pendapatan, dan meningkatkan kualitas pelanggan pengalaman. Meningkatkan produktivitas inti (bisnis dan TI) sekaligus mengurangi biaya. Merangkul modernisasi aplikasi dan data secara bertahap dengan memanfaatkan hybrid cloud dan AI yang aman. Perusahaan asuransi harus memenuhi persyaratan utama berikut untuk memfasilitasi transformasi…




Membuka kekuatan chatbots: Manfaat utama bagi bisnis dan pelanggan

6 min merah - Chatbots dapat membantu pelanggan dan calon klien Anda menemukan atau memasukkan informasi dengan cepat dengan langsung merespons permintaan yang menggunakan masukan audio, masukan teks, atau kombinasi keduanya, sehingga menghilangkan kebutuhan akan campur tangan manusia atau penelitian manual. Chatbots ada dimana-mana, memberikan dukungan layanan pelanggan dan membantu karyawan yang menggunakan speaker pintar di rumah, SMS, WhatsApp, Facebook Messenger, Slack dan banyak aplikasi lainnya. Chatbot kecerdasan buatan (AI) terbaru, juga dikenal sebagai asisten virtual cerdas atau agen virtual, tidak hanya…




Bergabunglah bersama kami di garis depan AI untuk bisnis: Think 2024

<1 min merah - Anda ingin menggunakan AI untuk mempercepat produktivitas dan inovasi bisnis Anda. Anda perlu beralih dari sekadar eksperimen ke penskalaan. Anda harus bergerak cepat. Bergabunglah bersama kami di Boston untuk Think 2024, pengalaman unik dan menarik yang akan memandu Anda dalam AI untuk perjalanan bisnis, di mana pun Anda berada. Mulai dari membangun kesiapan AI dengan pendekatan hybrid cloud yang bijaksana, hingga menskalakan AI di seluruh fungsi bisnis inti dan kebutuhan industri, hingga menanamkan AI ke dalam…

Buletin IBM

Dapatkan buletin dan pembaruan topik kami yang menyampaikan kepemimpinan pemikiran terkini dan wawasan tentang tren yang sedang berkembang.

Berlangganan sekarang

Lebih banyak buletin

Stempel Waktu:

Lebih dari IBM IoT