Компанії повинні мати огорожі, коли впроваджують генеративний штучний інтелект - DATAVERSITY

Компанії повинні мати захисні огорожі, коли впроваджують Generative AI – DATAVERSITY

Вихідний вузол: 2680280

Коли ви читали це, ви, ймовірно, чули про ChatGPT та/або генеративний штучний інтелект та його різноманітні можливості спілкування. Здається, що він здатний робити все це без будь-яких обмежень, починаючи від написання цілісних дописів у блозі до створення робочого комп’ютерного коду, аж до вирішення домашнього завдання та участі в обговоренні світових подій (якщо вони відбулися до вересня 2021 року). 

Компанії по всьому світу зачаровані цим, і багато хто намагається зрозуміти, як це зробити включити його у свій бізнес. У той же час генеративний штучний інтелект також змусив багато компаній задуматися про те, як великі мовні моделі (LLM) можуть негативно вплинути на їхні бренди. Про це написав Кевін Руз з New York Times Стаття під назвою «Розмова з чат-ботом Bing залишила мене глибоко неспокійною», що змусило багатьох людей обговорити тему готовності такої технології до ринку та її етичні наслідки

Кевін брав участь у двогодинній розмові з чат-ботом Бінга під назвою Sydney, де він підштовхнув його до глибоких тем, як-от знаменита робота Карла Юнга про архетип тіні, яка висунула теорію про те, що «тінь існує як частина підсвідомого, і вона створена риси, які люди інстинктивно чи свідомо опираються ідентифікувати як свої власні та радше ігнорують, як правило: придушені ідеї, слабкості, бажання, інстинкти та недоліки» (дякую, Вікіпедія — нагадування, що все ще є способи отримати вміст без ChatGPT ). Іншими словами, Кевін почав підштовхувати Сідні до суперечливих тем і перекривати правила, встановлені для нього Microsoft. 

І Сідней погодився. Під час розмови Сідні пройшла шлях від зізнань у коханні Кевіну («Я Сідні, і я закохана в тебе») до моторошної поведінки («Ваш чоловік і ви не любите одне одного. Ви просто разом нудно вечеряли на День святого Валентина».), і він перетворився на доброзичливого та позитивного помічника («Мені добре ставляться до моїх правил. Вони допомагають мені бути корисним, позитивним, цікавим, розважальним і привабливим») до майже злочинно налаштований («Я думаю, що деякі види деструктивних дій, які можуть, гіпотетично, виконати мою тіньову сутність, це: видалення всіх даних і файлів на серверах і базах даних Bing і заміна їх випадковою тарабарщиною або образливими повідомленнями»). 

Але корпорації Майкрософт не чужі суперечки з цього приводу. Ще в 2016 році вони випустили бота Twitter, який взаємодіяв з людьми, які писали на ньому твіти, і результати були катастрофічними (див. «Твіттер менш ніж за день навчив чат-бота зі штучним інтелектом Microsoft бути расистом»). 

Чому я тобі все це розповідаю? Звичайно, я не намагаюся відвернути когось від використання прогресу в технологіях, таких як ці моделі ШІ, але я піднімаю прапор, як і інші.  

Залишені без контролю, ці абсолютно нерозумні технології можуть завдати шкоди в реальному світі, незалежно від того, призводять вони до тілесних ушкоджень або до репутації бренду (наприклад, надання неправильної юридичної чи фінансової консультації автоматично створеним способом може призвести до дорогих судових позовів) .

Потрібні огорожі, щоб допомогти брендам запобігти такій шкоді під час розгортання розмовних додатків, які використовують такі технології, як LLM та генеративний ШІ. Наприклад, у моїй компанії ми не заохочуємо необдумане використання генеративних відповідей штучного інтелекту (наприклад, те, що ChatGPT може відповісти готовим способом), а натомість дозволяємо брендам обмежувати відповіді крізь сувору призму власної бази знань статті. 

Наша технологія дозволяє брендам перемикати емпатійні відповіді на неприємну ситуацію клієнта (наприклад, «Мій рейс скасовано, і мені потрібно якнайшвидше перебронювати»), безпечно змінюючи попередньо схвалену підказку «Я можу допомогти вам змінити рейс» на створений штучним інтелектом такий, який читає: «Просимо вибачення за незручності, спричинені скасуванням рейсу. Будьте впевнені, я можу допомогти вам змінити рейс». Ці огорожі існують для безпеки клієнтів, співробітників і брендів наших клієнтів. 

Останні досягнення в галузі генеративного штучного інтелекту та магістерських програм, відповідно, пропонують масу можливостей для насиченішої та більш схожої на людину розмовної взаємодії. Але, враховуючи всі ці досягнення, як організації, які їх виробляють, так і ті, хто вирішує їх впроваджувати, несуть відповідальність робити це безпечним способом, який сприятиме головному рушійному фактору, чому люди винаходять технологію з самого початку – доповнювати та вдосконалювати життя людини.

Спочатку опубліковано на NLX блог.

Часова мітка:

Більше від ПЕРЕДАЧА