Menggunakan data Anda sendiri untuk mengurangi masalah privasi AI dan meningkatkan kepercayaan AI | IoT Now Berita & Laporan

Menggunakan data Anda sendiri untuk mengurangi masalah privasi AI dan meningkatkan kepercayaan AI | IoT Now Berita & Laporan

Node Sumber: 3068504

Dengan model AI yang mampu mendeteksi pola dan membuat prediksi yang sulit atau tidak mungkin dilakukan manusia secara manual, potensi penerapan alat seperti ChatGPT industri kesehatan, keuangan, dan layanan pelanggan sangatlah besar.

Meskipun prioritas organisasi seputar AI adalah menilai peluang yang ditawarkan alat AI generatif kepada bisnis mereka dalam hal keunggulan kompetitif, topik privasi data telah menjadi perhatian utama. Mengelola penggunaan AI yang bertanggung jawab, yang berpotensi menghasilkan hasil yang bias, memerlukan pertimbangan yang cermat. 

Meskipun potensi manfaat dari model ini sangat besar, organisasi harus mempertimbangkan dengan cermat pertimbangan etis dan praktis dalam menggunakan AI secara bertanggung jawab dengan perlindungan data AI yang aman dan terjamin. Dengan mengoptimalkan pengalaman pengguna mereka secara keseluruhan dengan ChatGPT, organisasi dapat meningkatkan pengalaman mereka Kepercayaan AI

Masalah privasi AI 

Sama seperti banyak teknologi mutakhir lainnya, AI pasti akan menimbulkan beberapa pertanyaan dan tantangan bagi mereka yang ingin menerapkannya dalam rangkaian teknologi mereka. Faktanya, survei yang dilakukan oleh Kemajuan mengungkapkan bahwa 65% pelaku bisnis dan eksekutif TI saat ini meyakini adanya bias data di organisasi mereka masing-masing dan 78% mengatakan hal ini akan memburuk seiring dengan meningkatnya adopsi AI. 

Mungkin masalah privasi terbesar adalah penggunaan data perusahaan swasta bersama-sama dengan platform AI internal dan publik. Misalnya, ini mungkin organisasi layanan kesehatan yang menyimpan data rahasia pasien atau data penggajian karyawan sebuah perusahaan besar. 

Agar AI menjadi paling efektif, Anda memerlukan sampel data publik dan/atau pribadi berkualitas tinggi dalam jumlah besar dan organisasi yang memiliki akses ke data rahasia, seperti perusahaan layanan kesehatan yang memiliki rekam medis, memiliki keunggulan kompetitif ketika membangun solusi berbasis AI. Yang terpenting, organisasi-organisasi yang memiliki data sensitif tersebut harus mempertimbangkan persyaratan etika dan peraturan di sekitarnya privasi data, keadilan, penjelasan, transparansi, ketahanan dan akses.  

Model bahasa besar (LLM) adalah model AI canggih yang dilatih pada data teks untuk melakukan berbagai tugas pemrosesan bahasa alami, termasuk terjemahan bahasa, menjawab pertanyaan, ringkasan, dan analisis sentimen. Model-model ini dirancang untuk menganalisis bahasa dengan cara yang meniru kecerdasan manusia, sehingga memungkinkan mereka memproses, memahami, dan menghasilkan ucapan manusia. 

Risiko terhadap data pribadi saat menggunakan AI 

Namun, model yang rumit ini menimbulkan tantangan etika dan teknis yang dapat menimbulkan risiko terhadap keakuratan data, pelanggaran hak cipta, dan potensi kasus pencemaran nama baik. Beberapa tantangan dalam menggunakan AI chatbot secara efektif meliputi: 

  • Halusinasi – Dalam AI, halusinasi terjadi ketika ia melaporkan jawaban yang berisi kesalahan kepada pengguna dan ini semua sangat umum terjadi. Cara LLM memprediksi kata berikutnya membuat jawaban terdengar masuk akal, sedangkan informasinya mungkin tidak lengkap atau salah. Misalnya, jika pengguna menanyakan pendapatan rata-rata pesaing kepada chatbot, angka tersebut mungkin jauh berbeda.  
  • bias data – LLM juga dapat memamerkan bias, yang berarti mereka dapat memberikan hasil yang mencerminkan bias dalam data pelatihan, bukan realitas objektif. Misalnya, model bahasa yang dilatih dengan kumpulan data yang didominasi laki-laki mungkin menghasilkan keluaran yang bias mengenai topik gender. 
  • Penalaran/Pemahaman – LLM mungkin juga memerlukan bantuan untuk tugas-tugas yang memerlukan penalaran lebih dalam atau pemahaman konsep kompleks. LLM dapat dilatih untuk menjawab pertanyaan yang memerlukan pemahaman berbeda tentang budaya atau sejarah. Model mungkin saja melanggengkan stereotip atau memberikan informasi yang salah jika tidak dilatih dan dipantau secara efektif. 

Selain itu, risiko lain dapat mencakup Data Cutoffs, yaitu ketika memori model cenderung ketinggalan zaman. Tantangan lain yang mungkin terjadi adalah memahami bagaimana LLM menghasilkan respons karena AI tidak dilatih secara efektif untuk menunjukkan alasan yang digunakan untuk menyusun respons. 

Menggunakan pengetahuan semantik untuk menyampaikan data yang dapat dipercaya 

Tim teknologi mencari bantuan dalam menggunakan data pribadi untuk ChatGPT. Meskipun ada peningkatan dalam akurasi dan efisiensi, LLM, belum lagi penggunanya, masih memerlukan bantuan untuk mendapatkan jawaban. Terutama karena datanya mungkin kurang konteks dan makna. Solusi manajemen pengetahuan AI yang kuat, aman, transparan, dan terkelola adalah jawabannya. Dengan platform data semantik, pengguna dapat meningkatkan akurasi dan efisiensi sekaligus memperkenalkan tata kelola.  

Dengan mendapatkan jawaban yang merupakan kombinasi jawaban ChatGPT yang divalidasi dengan pengetahuan semantik dari platform data semantik, hasil gabungan akan memungkinkan LLM dan pengguna dengan mudah mengakses dan memeriksa fakta hasilnya terhadap konten sumber dan pengetahuan UKM yang ditangkap. 

Hal ini memungkinkan alat AI untuk menyimpan dan mengkueri data terstruktur dan tidak terstruktur serta menangkap konten pakar materi pelajaran (UKM) melalui GUI intuitifnya. Dengan mengekstrak fakta yang ditemukan dalam data dan menandai data pribadi dengan pengetahuan semantik, pertanyaan atau masukan pengguna dan jawaban ChatGPT tertentu juga dapat ditandai dengan pengetahuan ini.  

Melindungi data sensitif dapat membuka potensi AI yang sebenarnya 

Seperti halnya semua teknologi, menjaga terhadap masukan atau situasi yang tidak terduga bahkan lebih penting lagi dalam LLM. Jika kita berhasil mengatasi tantangan-tantangan ini, kepercayaan terhadap solusi kami akan meningkat seiring dengan kepuasan pengguna yang pada akhirnya akan mengarah pada keberhasilan solusi tersebut. 

Sebagai langkah pertama dalam mengeksplorasi penggunaan AI untuk organisasi mereka, para profesional TI dan keamanan harus mencari cara untuk melindungi data sensitif sekaligus memanfaatkannya untuk mengoptimalkan hasil bagi organisasi dan pelanggannya. 

Matthieu Jonglez, VP teknologi - aplikasi dan platform data di Progress.Matthieu Jonglez, VP teknologi - aplikasi dan platform data di Progress.

Artikel oleh Matthieu Jonglez, VP teknologi – aplikasi dan platform data di kemajuanss.

Komentari artikel ini di bawah atau melalui X: @Iotnow_

Stempel Waktu:

Lebih dari IoT Sekarang