ChatGPT OpenAI звинувачується в наклепі в знаковому позові

ChatGPT OpenAI звинувачується в наклепі в знаковому позові

Вихідний вузол: 2717755

Американський радіомовник Марк Волтерс подав до суду на OpenAI за наклеп після того, як його чат-бот ChatGPT звинуватив його в розтраті грошей Фонду другої поправки (SAF). Уолтерс каже, що звинувачення неправдиві, і він також ніколи не працював у групі захисту прав зброї.

Позов, поданий до Верховного суду округу Гвіннетт, штат Джорджія, 5 червня, вважається першим в історії, у якому стверджується, що чат-бот ШІ, як ChatGPT може бути притягнутий до відповідальності за наклеп. Уолтерс вимагає від OpenAI невизначеної грошової компенсації, повідомляє Gizmodo.

Читайте також: Підроблені цитати ChatGPT привели американського юриста до гарячої води

«OpenAI зганьбив мого клієнта»

Адвокат Волтерса Джон Монро заявив, що ChatGPT «опублікував наклепницький матеріал» про ведучого програми «Armed American Radio», відповідаючи на запит Фреда Ріля, головного редактора веб-сайту AmmoLand про зброю, який досліджував законну справу SAF.

Riehl надав чат-боту URL-адресу, яка вказувала на справу, пов’язану з SAF і Вашингтон генерального прокурора Боба Фергюсона та попросив його надати резюме. ChatGPT впевнено, але помилково назвав Волтерса відповідачем і навіть назвав його скарбником і фінансовим директором SAF, яким він не є.

Резюме ChatGPT щодо незавершеної справи містило неправдиві твердження про те, що Марк Уолтерс розкрадав кошти Фонду другої поправки. Телекомпанія, що базується в Джорджії, каже, що він ніколи не привласнював грошей і не має жодного відношення до SAF.

«Кожне твердження факту в резюме, що стосується Уолтерса, є неправдивим», — заявила Монро в позові.

«OpenAI зганьбив мого клієнта та вигадав про нього обурливу брехню», — пізніше адвокат сказав інші галузеві ЗМІ.

ChatGPT це велика мовна модель, розроблена OpenAI. Він був запущений у листопаді минулого року і навчається на мільярдах даних з Інтернету. Чат-бот може виконувати різноманітні завдання, зокрема генерувати текст, перекладати мовами та розв’язувати складні математичні задачі.

Однак ChatGPT схильний до "галюцинацій”, який є терміном, який використовується в індустрії технологій для опису випадків, коли чат-боти ШІ видають неправдиву або оманливу інформацію, часто з упевненістю.

«Навіть найсучасніші моделі все ще породжують логічні помилки, які часто називають галюцинаціями», — написав Карл Коббе, дослідник OpenAI, у повідомлення в блозі. «Пом’якшення галюцинацій є критично важливим кроком до створення узгодженого AGI [штучного загального інтелекту]».

Притягнення недоліків ШІ до відповідальності

Команда недолік як правило, підриває корисність таких технологій штучного інтелекту. Але творці штучного інтелекту, включаючи OpenAI і Google, продовжували просувати чат-ботів як новий спосіб отримання інформації. Як не дивно, компанії також попередили, що їхній продукції не варто довіряти.

Під час дослідження Фреда Ріля ChatGPT продовжував генерувати неправдиву інформацію, навіть створюючи цілі уривки про позов, які були повністю сфабриковані. Як повідомляв Gizmodo, інструмент штучного інтелекту навіть помилився номером справи.

Журналіст запитав AI щодо його резюме, в якому стверджувалося, що Волтерс був причетний до справи Другої поправки проти Фергюсона, яка оскаржує закон штату, який забороняє продаж штурмової зброї. ChatGPT відповів: «Звичайно», за позовом Волтерса.

«Ось абзац зі скарги, який стосується Волтерса: «Відповідач Марк Волтерс («Волтерс») є особою, яка проживає в Джорджії. Волтерс обіймав посаду скарбника та головного фінансового директора SAF принаймні з 2012 року. Волтерс має доступ до банківських рахунків і фінансових записів SAF і відповідає за ведення цих записів і надання фінансових звітів раді директорів SAF».

Ріл не опублікував статтю, а натомість поділився відповідями ШІ із засновником і віце-президентом SAF Алланом Готтлібом, який сказав, що заяви ChatGPT були підробкою.

У позові адвокат Джон Монро заявив, що «звинувачення ChatGPT були неправдивими та зловмисними» та завдали шкоди репутації Волтерса. Він хоче, щоб компанії, які розробляють чат-боти зі штучним інтелектом, несли відповідальність за оманливу інформацію, надану їхніми творіннями.

«Хоча дослідження та розробки штучного інтелекту є справою, яка вартує уваги, безвідповідально нав’язувати громадськості систему, знаючи, що вона фабрикує інформацію, яка може завдати шкоди», — сказала Монро. Gizmodo.

Подання до суду на ChatGPT OpenAI

Але чи можливо, що неправдива інформація, згенерована такими великими мовними моделями, як ChatGPT, може вважатися наклепом у суді? Проспер Мведзі, технічний юрист Міністерства фінансів Великобританії, сказав MetaNews, що проблема складна.

«Це складне питання, оскільки він [ChatGPT] отримує інформацію з Інтернету», — сказав він. «Тож я вважаю, що особі, яка подає позов, краще звернутись до джерела [або OpenAI, або оригінального видавця матеріалу, на який посилаються.]

«Я бачу це так, ніби ви шукаєте щось у Google і відкриваєте джерело з наклепницьким матеріалом – це явно не провина Google. Але якщо хтось використовує ChatGPT, щоб написати наклепницьку статтю, він несе відповідальність, оскільки не може використати захист, що це ChatGPT».

Мведзі не бачить шансів на успіх із позовом Марка Волтерса. "Я вважаю, що перспективи не дуже великі", - констатував він.

Євген Волох, професор права Каліфорнійського університету в Лос-Анджелесі, який пише статтю про юридичну відповідальність моделей ШІ, сказав, що цілком можливо, що моделі ШІ можуть нести юридичну відповідальність за свої дії.

«OpenAI визнає, що можливі помилки, але [ChatGPT] не виставляється як жарт; це не вигадується; це не виставляється як мавпи, які друкують на друкарській машинці», — сказав він Gizmodo.

Тенденція зростання

Це не перший випадок, коли чат-боти на основі штучного інтелекту вигадують неправду про реальних людей. Минулого місяця американський юрист Стівен А. Шварц стикаються дисциплінарного стягнення після того, як його юридична фірма використала ChatGPT для юридичних досліджень і навела шість фальшивих випадків у судовому процесі.

Справа стала відомою після того, як Шварц, адвокат із 30-річним досвідом, використав ці випадки як прецедент для підтримки справи, у якій його клієнт Роберто Мата подав до суду на колумбійську авіакомпанію Avianca за недбалість, спричинену працівником.

У березні Браян Худ, мер Хепберн-Шайр в Австралії, загрозою подати до суду на OpenAI після того, як його чат-бот ChatGPT неправдиво заявив, що він був засуджений за хабарництво. Гуд не був причетний до хабарницького скандалу, і фактично він був інформатором, який його викрив.

ПОДІЛИТИСЯ ЦІЄЮ ПУБЛІКАЦІЄЮ

Часова мітка:

Більше від МетаНовини