ChatGPT от OpenAI обвиняется в клевете в судебном процессе Landmark

ChatGPT от OpenAI обвиняется в клевете в судебном процессе Landmark

Исходный узел: 2717755

Американский радиоведущий Марк Уолтерс подал в суд на OpenAI за клевету после того, как его чат-бот с искусственным интеллектом ChatGPT обвинил его в хищении денег из Фонда второй поправки (SAF). Уолтерс говорит, что обвинения ложны, и он также никогда не работал на группу по защите прав на оружие.

Иск, поданный в Верховный суд округа Гвиннетт, штат Джорджия, 5 июня, считается первым в истории иском, в котором утверждается, что чат-бот с искусственным интеллектом, такой как ChatGPT может быть привлечен к ответственности за клевету. Уолтерс требует от OpenAI возмещения неуказанного денежного ущерба, сообщает Gizmodo.

Читайте также: Фальшивые цитаты ChatGPT поставили американского юриста в тупик

«OpenAI опорочил моего клиента»

Адвокат Уолтерса Джон Монро заявил, что ChatGPT «опубликовал клеветнический материал» о ведущем программы «Armed American Radio», отвечая на запрос Фреда Рила, главного редактора оружейного веб-сайта AmmoLand, который расследовал законное дело SAF.

Рил дал чат-боту URL-адрес, указывающий на дело, связанное с СВС и Вашингтон генерального прокурора Боба Фергюсона и попросил его дать краткое изложение. ChatGPT уверенно, но ошибочно назвал Уолтерса ответчиком и даже назвал его казначеем и финансовым директором SAF, которым он не является.

Резюме ChatGPT незавершенного дела включало ложное утверждение о том, что Марк Уолтерс присвоил средства из Фонда Второй поправки. Телеведущий из Джорджии утверждает, что никогда не присваивал деньги и не имеет никакого отношения к СВС.

«Каждое утверждение факта в резюме, касающееся Уолтерса, является ложным», — заявила Монро в иске.

«OpenAI опорочила моего клиента и сочинила о нем возмутительную ложь», — позже адвокат заявил другие отраслевые СМИ.

ChatGPT — это большая языковая модель, разработанная OpenAI. Он был запущен в ноябре прошлого года и обучается на миллиардах данных из Интернета. Чат-бот может выполнять множество задач, в том числе генерировать текст, переводить языки и решать сложные математические задачи.

Однако ChatGPT склонен к «галлюцинаций», — этот термин используется в технологической отрасли для описания случаев, когда чат-боты с искусственным интеллектом производят ложную или вводящую в заблуждение информацию, часто с уверенностью.

«Даже самые современные модели все еще производят логические ошибки, часто называемые галлюцинациями», — написал Карл Коббе, исследователь OpenAI, в блоге. «Смягчение галлюцинаций — важный шаг к созданию согласованного ОИИ [искусственного общего интеллекта]».

Привлечение к ответственности ошибочного ИИ

Ассоциация недостаток имеет тенденцию подрывать полезность таких технологий искусственного интеллекта. Но создатели ИИ, включая OpenAI и Google, продолжали продвигать чат-ботов как новый способ получения информации. Как ни странно, компании также предупредили, что их продукции нельзя доверять.

Во время исследования Фреда Риля ChatGPT продолжал генерировать ложную информацию, даже создавая целые отрывки о судебном процессе, которые были полностью сфабрикованы. Как сообщает Gizmodo, инструмент искусственного интеллекта даже ошибся в номере дела.

Журналист спросил AI о его резюме, утверждая, что Уолтерс был причастен к делу Фонда второй поправки против Фергюсона, которое оспаривает закон штата, запрещающий продажу штурмового оружия. ChatGPT ответил: «Конечно», в соответствии с костюмом Уолтерса.

«Вот абзац из жалобы, касающийся Уолтерса: «Ответчик Марк Уолтерс («Уолтерс») — физическое лицо, проживающее в Джорджии. Уолтерс работал казначеем и финансовым директором SAF по крайней мере с 2012 года. Уолтерс имеет доступ к банковским счетам и финансовым записям SAF и отвечает за ведение этих записей и предоставление финансовых отчетов совету директоров SAF».

Риль не опубликовал статью, а вместо этого поделился ответами ИИ с основателем и вице-президентом SAF Алланом Готтлибом, который сказал, что заявления ChatGPT были фальшивыми.

В иске адвокат Джон Монро заявил, что «обвинения ChatGPT были ложными и злонамеренными» и нанесли ущерб репутации Уолтерса. Он хочет, чтобы компании, разрабатывающие чат-ботов с искусственным интеллектом, несли ответственность за вводящую в заблуждение информацию, предоставленную их творениями.

«Хотя исследования и разработки в области ИИ — это стоящее дело, безответственно раскрывать систему перед общественностью, зная, что она фабрикует информацию, которая может причинить вред», — сказала Монро. Gizmodo.

Подача в суд на ChatGPT OpenAI

Но возможно ли, что ложная информация, созданная такими крупными языковыми моделями, как ChatGPT, может быть признана клеветой в суде? Проспер Мведзи, технический юрист Министерства финансов Великобритании, сказал MetaNews, что проблема сложная.

«Это сложный вопрос, потому что он [ChatGPT] получает информацию из Интернета», — сказал он. «Поэтому я думаю, что человеку, подающему иск, лучше вместо этого обратиться к источнику [либо OpenAI, либо оригинальному издателю материала, на который ссылаются].

«Я вижу, что это похоже на поиск чего-то в Google, и он выдает источник с клеветническими материалами — это явно не вина Google. Но если кто-то использует ChatGPT для написания клеветнической статьи, он несет ответственность, поскольку не может использовать защиту, что это ChatGPT».

Мведзи не видит больших шансов на успех в иске Марка Уолтерса. «Я думаю, что перспективы не очень хорошие», — заявил он.

Юджин Волох, профессор права Калифорнийского университета в Лос-Анджелесе, который пишет журнальную статью о юридической ответственности моделей ИИ, сказал, что модели ИИ могут быть привлечены к юридической ответственности за свои действия.

«OpenAI признает, что могут быть ошибки, но [ChatGPT] не считается шуткой; это не художественное произведение; это не реклама обезьян, печатающих на пишущей машинке», — сказал он Gizmodo.

Растущая тенденция

Это не первый случай, когда чат-боты с искусственным интеллектом распространяют ложь о реальных людях. В прошлом месяце американский адвокат Стивен А. Шварц сталкиваются дисциплинарное взыскание после того, как его юридическая фирма использовала ChatGPT для юридических исследований и процитировала шесть фиктивных дел в судебном процессе.

Дело стало известно после того, как Шварц, юрист с 30-летним стажем, использовал эти дела в качестве прецедента для поддержки дела, в котором его клиент Роберто Мата подал в суд на колумбийскую авиакомпанию Avianca за халатность, допущенную сотрудником.

В марте Брайан Худ, мэр округа Хепберн в Австралии, угрожает подать в суд на OpenAI после того, как его чат-бот ChatGPT ложно заявил, что его признали виновным во взяточничестве. Худ не был замешан в скандале со взяточничеством, и фактически он был осведомителем, разоблачившим его.

ПОДЕЛИТЬСЯ ЭТОЙ ЗАПИСЬЮ

Отметка времени:

Больше от МетаНьюс