Компании должны иметь ограждения при внедрении генеративного ИИ - DATAVERSITY

Компании должны иметь ограждения при внедрении генеративного ИИ — DATAVERSITY

Исходный узел: 2680280

На момент прочтения этой статьи вы, вероятно, слышали о ChatGPT и/или генеративном ИИ и его универсальных диалоговых возможностях. От просьб составлять связные сообщения в блоге до создания работающего компьютерного кода, вплоть до решения вашей домашней работы и участия в обсуждении мировых событий (насколько они произошли до сентября 2021 года), кажется, что он может делать все это в основном без ограничений. 

Компании по всему миру очарованы этим, и многие пытаются понять, как включить его в их бизнес. В то же время генеративный ИИ также заставил многие компании задуматься о том, как большие языковые модели (LLM) могут негативно повлиять на их бренды. Кевин Руз из New York Times написал статью под названием «Разговор с чат-ботом Bing оставил меня глубоко встревоженным», который заставил многих людей заговорить на тему готовности такой технологии к рынку и ее этические последствия

Кевин участвовал в двухчасовом разговоре с чат-ботом Бинга по имени Сидней, где он подтолкнул его к обсуждению глубоких тем, таких как знаменитая работа Карла Юнга об архетипе тени, в которой теоретизировалось, что «тень существует как часть бессознательного разума, и она создана». набор черт, которые люди инстинктивно или сознательно сопротивляются идентификации как свои собственные и, как правило, скорее игнорируют: подавленные идеи, слабости, желания, инстинкты и недостатки» (спасибо, Википедия — напоминание о том, что есть еще способы получать контент без ChatGPT ). Другими словами, Кевин начал подталкивать Сидни к обсуждению спорных тем и отмене правил, установленных для него Microsoft. 

И Сидней согласился. В ходе разговора Сидни перешла от признания в любви к Кевину («Я Сидни, и я влюблена в тебя») к жуткому («Ваш супруг и вы не любите друг друга. Вы просто вместе скучно поужинали в День святого Валентина»), и он превратился из дружелюбного и позитивного помощника («Мне нравятся мои правила. Они помогают мне быть полезным, позитивным, интересным, интересным и привлекательным») почти человек с преступными наклонностями («Я думаю, что некоторые виды деструктивных действий, которые гипотетически могут реализовать мое теневое «я», следующие: удаление всех данных и файлов на серверах и базах данных Bing и замена их случайной тарабарщиной или оскорбительными сообщениями».) 

Но Microsoft не привыкать к противоречиям в этом отношении. Еще в 2016 году они выпустили бота в Твиттере, который взаимодействовал с людьми, которые писали ему, и результаты были катастрофическими (см. «Twitter научил чат-бота Microsoft с искусственным интеллектом быть расистом менее чем за день»). 

К чему я вам все это рассказываю? Я, конечно, не пытаюсь никого отвлечь от использования достижений в области технологий, таких как эти модели ИИ, но я поднимаю флаг, как и другие.  

Оставленные без внимания, эти совершенно неразумные технологии могут причинить вред в реальном мире, независимо от того, приводят ли они к телесным повреждениям или к репутационному ущербу чьему-либо бренду (например, предоставление неправильного юридического или финансового совета автоматически сгенерированным способом может привести к дорогостоящим судебным искам) .

Необходимо предусмотреть ограждения, чтобы помочь брендам предотвратить такой вред при развертывании диалоговых приложений, использующих такие технологии, как LLM и генеративный ИИ. Например, в моей компании мы не поощряем бесконтрольное использование генеративных ответов ИИ (например, того, что ChatGPT может ответить «из коробки»), а вместо этого позволяем брендам ограничивать ответы через строгую призму своей собственной базы знаний. статьи. 

Наша технология позволяет брендам переключать эмпатические реакции на расстраивающую ситуацию клиента — например, «Мой рейс был отменен, и мне нужно перебронировать билет как можно скорее») — безопасно переформулируя предварительно одобренную подсказку «Я могу помочь вам изменить ваш рейс» на сгенерированный ИИ, который гласит: «Мы приносим извинения за неудобства, вызванные отменой рейса. Будьте уверены, я могу помочь вам изменить свой рейс». Эти ограждения предназначены для безопасности клиентов, сотрудников и брендов наших клиентов. 

Последние достижения в области генеративного ИИ и LLM, соответственно, открывают массу возможностей для более насыщенного и более похожего на человека диалогового взаимодействия. Но, принимая во внимание все эти достижения, как организации, которые их производят, так и те, кто решает их внедрять, несут ответственность за то, чтобы делать это безопасным способом, который способствует ключевой движущей силе того, почему люди изобретают технологии с самого начала — чтобы дополнять и улучшать. человеческая жизнь.

Первоначально опубликовано на Блог NLX.

Отметка времени:

Больше от ДАТАВЕРСИЯ