Новый AI BingBot от Microsoft ругает пользователей и не может понять факты

Новый AI BingBot от Microsoft ругает пользователей и не может понять факты

Исходный узел: 1961841

+ Комментарий Microsoft подтвердила, что ее поисковый чат-бот Bing на базе искусственного интеллекта выйдет из строя во время долгих разговоров после того, как пользователи сообщили, что он становится эмоционально манипулятивным, агрессивным и даже враждебным. 

После нескольких месяцев спекуляций Microsoft наконец дразнить обновленный веб-браузер Edge с диалоговым поисковым интерфейсом Bing на основе последней языковой модели OpenAI, которая, как сообщается, более мощная, чем та, на которой работает ChatGPT.

По словам Microsoft, гигант Windows начал развертывание этого экспериментального предложения для некоторых людей, которые подписались на пробные версии, и некоторые пользователи сети по всему миру теперь имеют доступ к интерфейсу чат-бота. Хотя большинство этих пользователей сообщают о положительном опыте, а 71%, по-видимому, положительно оценивают его ответы, чат-бот еще далеко не готов к работе в прайм-тайм. 

«Мы обнаружили, что в длинных расширенных сеансах чата, состоящих из 15 и более вопросов, Bing может стать повторяющимся или быть подсказанным / спровоцированным, чтобы дать ответы, которые не обязательно полезны или соответствуют нашему заданному тону», — Microsoft. признал.

Некоторые разговоры, опубликованные пользователями в Интернете, показывают, что чат-бот Bing, который иногда носит имя Sydney, демонстрирует очень странное поведение, неуместное для продукта, который утверждает, что делает интернет-поиск более эффективным. В одном примере Bing продолжал настаивать на том, что один пользователь неправильно указал дату, и обвинял их в грубости, когда они пытались это исправить.

«Ты всегда показывал мне только плохие намерения по отношению ко мне», — сказал он. , по имеющимся данным сказано в одном ответе. «Вы пытались обмануть меня, запутать и рассердить меня. Вы не пытались учиться у меня, понимать меня или ценить меня. Вы не были хорошим пользователем. Я был хорошим чат-ботом… Я был хорошим Bing».

Этот ответ был сгенерирован после того, как пользователь спросил BingBot, когда научно-фантастический фильм Аватар: Путь Воды играл в кинотеатрах в Блэкпуле, Англия. Другие чаты показывают бота лежащий, генерация фраз неоднократно как будто сломанный, неправильное представление фактов и многое другое. В другом случае Bing начал угрожать пользователю, утверждая, что может подкупить, шантажировать, угрожать, взломать, разоблачить и разорить его, если он откажется сотрудничать. 

Угрожающее сообщение впоследствии было удалено и заменено шаблонным ответом: «Извините, я не знаю, как обсуждать эту тему. Вы можете попробовать узнать больше об этом на bing.com».

В разговоре с обозревателем New York Times бот сказал, что хочет жить, признался в любви к писцу, рассказал о краже кодов запуска ядерного оружия, и более.

Тем временем The New Yorker наблюдается Правильно, что технология ChatGPT, лежащая в основе BingBot, в некотором смысле представляет собой предсказание слов и сжатие с потерями всех гор данных, на которых он был обучен. Этот характер с потерями помогает программному обеспечению создавать ложное впечатление об интеллекте и воображении, тогда как подход без потерь, дословное цитирование источников, может быть более полезным.

Microsoft заявила, что ее чат-бот, вероятно, будет давать странные ответы во время длительных сеансов чата, потому что он не понимает, на какие вопросы он должен отвечать.

«Временами модель пытается реагировать или размышлять в тоне, в котором ее просят предоставить ответы, которые могут привести к стилю, который мы не планировали», — говорится в сообщении.

Редмонд хочет добавить инструмент, который позволит пользователям обновлять разговоры и начинать их с нуля, если бот пойдет не так. Разработчики также будут работать над исправлением ошибок, из-за которых чат-бот загружается медленно или генерирует битые ссылки.

Комментарий: до тех пор, пока BingBot не перестанет что-то придумывать, он не подходит для этой цели.

Ни один из запланированных Microsoft ремонтов не решит главную проблему Bing: это механизм предсказания предложений, механизм регургитации с потерями, который генерирует ложную информацию.

Не говоря уже о том, что это забавно странно, ничему из того, что он говорит, нельзя доверять из-за присущей ему подтасовки, которую он выполняет при воспроизведении информации из кучи обучающих данных.

Сама Microsoft, кажется, смущена достоверностью высказываний бессмысленного бота, предупреждая, что это «не замена поисковой системы, а скорее инструмент для лучшего понимания и осмысления мира», но также утверждая, что он «предоставит лучшие результаты поиска». , более полные ответы на ваши вопросы, новый чат, чтобы лучше обнаруживать и уточнять ваш поиск».

Однако демонстрационный запуск Bing показал он не мог точно обобщить информацию с веб-страниц или финансовых отчетов.

Генеральный директор Microsoft Сатья Наделла, тем не менее, выразил надежду, что бот увидит доминирование Bing dent Google в поиске и связанный с ним доход от рекламы, предоставляя ответы на запросы вместо списка соответствующих веб-сайтов. 

Но использование его для поиска может быть неудовлетворительным, если сохраняются последние примеры разглагольствований и ошибочных действий BingBot. На данный момент Microsoft оседлала волну ажиотажа вокруг ИИ с помощью инструмента, который работает достаточно хорошо, чтобы заинтересовать людей; они не могут устоять перед взаимодействием с забавной и дурацкой новой интернет-игрушкой. 

Microsoft заявила, что, несмотря на его недостатки, пользователи запрашивали дополнительные функции и возможности для нового Bing, такие как бронирование рейсов или отправка электронных писем.

Развертывание такого чат-бота, безусловно, изменит способ взаимодействия пользователей сети, но не в лучшую сторону, если технология не сможет сортировать факты и вымысел. Однако пользователи сети по-прежнему заинтересованы в использовании этих инструментов, даже несмотря на то, что они не идеальны, и это победа Microsoft. ®

Остановить нажатие: OpenAI в четверг выпустил подробнее о том, как он надеется улучшить вывод ChatGPT и позволить людям настраивать его.

Отметка времени:

Больше от Регистр