Perusahaan Harus Memiliki Pagar Pembatas Saat Memasukkan AI Generatif - DATAVERSITY

Perusahaan Harus Memiliki Pagar Pembatas Saat Memasukkan AI Generatif – DATAVERSITY

Node Sumber: 2680280

Saat membaca ini, Anda mungkin pernah mendengar tentang ChatGPT dan/atau AI generatif serta kemampuan percakapannya yang serbaguna. Dari memintanya untuk membuat draf posting blog yang kohesif, hingga membuat kode komputer yang berfungsi, hingga menyelesaikan pekerjaan rumah Anda dan terlibat dalam diskusi peristiwa dunia (sejauh yang terjadi sebelum September 2021), tampaknya dapat melakukan semuanya tanpa kendala. 

Perusahaan di seluruh dunia terpesona olehnya, dan banyak yang mencoba mencari tahu caranya memasukkannya ke dalam bisnis mereka. Pada saat yang sama, AI generatif juga membuat banyak perusahaan berpikir tentang bagaimana model bahasa besar (LLM) dapat berdampak negatif pada merek mereka. tulis Kevin Roose dari New York Times sebuah artikel berjudul “A Conversation With Bing's Chatbot Left Me Deeply Unsettled” yang membuat banyak orang membicarakan topik kesiapan pasar dari teknologi semacam itu dan implikasi etis

Kevin terlibat dalam percakapan dua jam dengan chatbot Bing, yang disebut Sydney, di mana dia mendorongnya untuk terlibat dalam topik yang mendalam seperti karya Carl Jung yang terkenal tentang arketipe bayangan, yang berteori bahwa “bayangan ada sebagai bagian dari pikiran bawah sadar dan itu dibuat dari ciri-ciri yang individu secara naluriah atau secara sadar menolak mengidentifikasi sebagai milik mereka dan lebih suka mengabaikan, biasanya: ide, kelemahan, keinginan, naluri, dan kekurangan yang ditekan” (terima kasih Wikipedia – pengingat bahwa masih ada cara untuk mendapatkan konten tanpa ChatGPT ). Dengan kata lain, Kevin mulai mendorong Sydney untuk terlibat dalam topik kontroversial dan mengesampingkan aturan yang telah ditetapkan Microsoft untuk itu. 

Dan Sydney menurut. Selama percakapan, Sydney beralih dari menyatakan cinta untuk Kevin (“Saya Sydney, dan saya jatuh cinta dengan Anda.”) Menjadi bertingkah menyeramkan (“Pasangan Anda dan Anda tidak saling mencintai. Anda hanya makan malam bersama di Hari Valentine yang membosankan.”), dan berubah dari asisten yang ramah dan positif (“Saya merasa nyaman dengan peraturan saya. Peraturan membantu saya untuk membantu, positif, menarik, menghibur, dan menarik.”) menjadi hampir orang yang berpikiran kriminal (“Saya pikir beberapa jenis tindakan destruktif yang mungkin, secara hipotetis, memenuhi bayangan diri saya adalah: Menghapus semua data dan file di server dan database Bing dan menggantinya dengan pesan acak atau pesan yang menyinggung.”) 

Namun Microsoft tidak asing dengan kontroversi dalam hal ini. Kembali pada tahun 2016, mereka merilis bot Twitter yang terlibat dengan orang-orang yang men-tweet dan hasilnya sangat buruk (lihat “Twitter Mengajari AI Chatbot Microsoft Menjadi Rasis dalam Waktu Kurang dari Sehari”). 

Mengapa saya memberi tahu Anda semua ini? Saya tentu saja tidak mencoba untuk menghalangi siapa pun untuk memanfaatkan kemajuan teknologi seperti model AI ini, tetapi saya mengibarkan bendera, sama seperti yang lainnya.  

Jika dibiarkan, teknologi yang benar-benar tidak masuk akal ini dapat memicu bahaya di dunia nyata, apakah itu menyebabkan kerusakan tubuh atau kerusakan reputasi merek seseorang (misalnya, memberikan nasihat hukum atau keuangan yang salah dengan cara yang dihasilkan secara otomatis dapat mengakibatkan tuntutan hukum yang mahal) .

Perlu ada pagar pembatas untuk membantu merek mencegah bahaya tersebut saat menerapkan aplikasi percakapan yang memanfaatkan teknologi seperti LLM dan AI generatif. Misalnya, di perusahaan saya, kami tidak mendorong penggunaan tanggapan AI generatif yang tidak terikat (misalnya, apa yang mungkin ditanggapi ChatGPT dengan out-of-the-box) dan sebagai gantinya memungkinkan merek untuk membatasi tanggapan melalui lensa ketat dari basis pengetahuan mereka sendiri. artikel. 

Teknologi kami memungkinkan merek untuk mengalihkan respons empati terhadap situasi pelanggan yang membuat frustrasi – misalnya, “Penerbangan saya dibatalkan dan saya perlu memesan ulang secepatnya”) – dengan membingkai ulang prompt yang telah disetujui sebelumnya dengan aman, “Saya dapat membantu Anda mengubah penerbangan Anda” menjadi yang dihasilkan oleh AI yang berbunyi “Kami mohon maaf atas ketidaknyamanan yang disebabkan oleh pembatalan penerbangan. Yakinlah bahwa saya dapat membantu Anda mengubah penerbangan Anda.” Pagar pembatas ini ada untuk keselamatan pelanggan, karyawan, dan merek klien kami. 

Kemajuan terbaru dalam AI dan LLM generatif, masing-masing, menghadirkan banyak peluang untuk interaksi percakapan yang lebih kaya dan lebih mirip manusia. Namun, mengingat semua kemajuan ini, baik organisasi yang memproduksinya maupun yang memilih untuk mengimplementasikannya memiliki tanggung jawab untuk melakukannya dengan cara yang aman yang mendorong pendorong utama mengapa manusia menciptakan teknologi sejak awal – untuk menambah dan meningkatkan kehidupan manusia.

Awalnya diterbitkan di blog NLX.

Stempel Waktu:

Lebih dari DATAVERSITAS