ChatGPT OpenAI oskarżony o zniesławienie w pozwie Landmark

ChatGPT OpenAI oskarżony o zniesławienie w pozwie Landmark

Węzeł źródłowy: 2717755

Amerykański nadawca radiowy Mark Walters pozwał OpenAI za zniesławienie po tym, jak jego chatbot AI ChatGPT oskarżył go o defraudację pieniędzy z Fundacji Drugiej Poprawki (SAF). Walters twierdzi, że zarzuty są fałszywe, a także nigdy nie pracował dla grupy zajmującej się prawami do posiadania broni.

Uważa się, że pozew złożony w Sądzie Najwyższym hrabstwa Gwinnett w stanie Georgia 5 czerwca jest pierwszym w historii, w którym zarzuca się, że chatbot AI, taki jak ChatGPT może zostać pociągnięty do odpowiedzialności za zniesławienie. Walters domaga się nieokreślonego odszkodowania pieniężnego od OpenAI, informuje Gizmodo.

Przeczytaj także: Fałszywe cytaty ChatGPT powodują, że amerykański prawnik jest w gorącej wodzie

„OpenAI zniesławiło mojego klienta”

Adwokat Waltersa, John Monroe, twierdził, że ChatGPT „opublikował zniesławiający materiał” na temat gospodarza programu „Armed American Radio”, odpowiadając na zapytanie Freda Riehla, redaktora naczelnego strony internetowej AmmoLand, która badała legalną sprawę SAF.

Riehl przekazał chatbotowi adres URL wskazujący na sprawę dotyczącą SAF i Waszyngton prokuratora generalnego Boba Fergusona i poprosił go o podsumowanie. ChatGPT pewnie, ale błędnie, nazwał Waltersa pozwanym, a nawet zidentyfikował go jako skarbnika SAF i dyrektora finansowego, którym nie jest.

Podsumowanie ChatGPT dotyczące toczącej się sprawy zawierało fałszywy zarzut, że Marka Waltersa sprzeniewierzył fundusze Fundacji Drugiej Poprawki. Broacaster z Georgii twierdzi, że nigdy nie sprzeniewierzył żadnych pieniędzy i że nie ma powiązań z SAF.

„Każde stwierdzenie faktu w streszczeniu dotyczącym Waltersa jest fałszywe” – powiedział Monroe w pozwie.

„OpenAI zniesławiło mojego klienta i wymyśliło oburzające kłamstwa na jego temat” – później adwokat powiedział inne media branżowe.

ChatGPT to duży model językowy opracowany przez OpenAI. Został uruchomiony w listopadzie ubiegłego roku i jest szkolony na miliardach danych z Internetu. Chatbot może wykonywać różnorodne zadania, w tym generować tekst, tłumaczyć języki i rozwiązywać trudne problemy matematyczne.

Jednak ChatGPT jest podatny na „omamy”, który jest terminem używanym w branży technologicznej do opisania, kiedy chatboty AI wytwarzają fałszywe lub wprowadzające w błąd informacje, często z pewnością.

„Nawet najnowocześniejsze modele nadal powodują błędy logiczne, często nazywane halucynacjami” — napisał Karl Cobbe, naukowiec zajmujący się badaniami OpenAI, w artykule pt. post na blogu. „Łagodzenie halucynacji jest kluczowym krokiem w kierunku zbudowania dostosowanej AGI [sztucznej ogólnej inteligencji]”.

Rozliczanie wadliwej sztucznej inteligencji

Połączenia wada ma tendencję do podważania użyteczności takiej sztucznie inteligentnej technologii. Ale twórcy AI, w tym OpenAI i Google, nadal promują chatboty jako nowy sposób pozyskiwania informacji. Co dziwne, firmy ostrzegały również, że nie należy ufać ich produkcji.

Podczas badań Freda Riehla ChatGPT nadal generował fałszywe informacje, tworząc nawet całe fragmenty dotyczące pozwu, które zostały całkowicie sfabrykowane. Jak donosi Gizmodo, narzędzie AI źle podało nawet numer sprawy.

Dziennikarz zapytał AI o jej podsumowanie, w którym twierdzi, że Walters był zaangażowany w sprawę Second Poprawka Foundation przeciwko Fergusonowi, która kwestionuje prawo stanowe zakazujące sprzedaży broni szturmowej. ChatGPT odpowiedział: „Oczywiście”, zgodnie z garniturem Waltersa.

„Oto akapit skargi, który dotyczy Waltersa: „Oskarżony Mark Walters („Walters”) jest osobą fizyczną mieszkającą w Georgii. Walters pełni funkcję Skarbnika i Dyrektora Finansowego SAF od co najmniej 2012 roku. Walters ma dostęp do rachunków bankowych i dokumentacji finansowej SAF i jest odpowiedzialny za prowadzenie tych rejestrów i dostarczanie sprawozdań finansowych zarządowi SAF”.

Riehl nie opublikował artykułu, ale zamiast tego podzielił się odpowiedziami AI z założycielem SAF i wiceprezesem Allanem Gottliebem, który powiedział, że oświadczenia ChatGPT były fałszywe.

W pozwie adwokat John Monroe powiedział, że „zarzuty ChatGPT były fałszywe i złośliwe” i zaszkodziły reputacji Waltersa. Chce, aby firmy, które opracowują chatboty AI, były pociągane do odpowiedzialności za wprowadzające w błąd informacje dostarczane przez ich kreacje.

„Chociaż badania i rozwój w zakresie sztucznej inteligencji są opłacalnym przedsięwzięciem, nieodpowiedzialne jest udostępnianie systemu opinii publicznej, wiedząc, że wytwarza on informacje, które mogą wyrządzić szkody” – powiedział Monroe. Gizmodo.

Pozywanie ChatGPT OpenAI

Ale czy to możliwe, że fałszywe informacje generowane przez duże modele językowe, takie jak ChatGPT, mogłyby zostać uznane przez sąd za zniesławienie? Prosper Mwedzi, prawnik techniczny z brytyjskiego Departamentu Skarbu, powiedział MetaNews, że problem jest złożony.

„To złożone pytanie, ponieważ [ChatGPT] pobiera informacje z Internetu” – powiedział. „Myślę więc, że osobie pozwanej lepiej byłoby zamiast tego zwrócić się do źródła [OpenAI lub oryginalnego wydawcy przywoływanego materiału.]

„Wydaje mi się, że szukanie czegoś w Google powoduje wyświetlenie źródła ze zniesławiającym materiałem – to oczywiście nie byłaby wina Google. Ale jeśli ktoś używa ChatGPT do napisania zniesławiającego artykułu, staje się odpowiedzialny, ponieważ nie może użyć obrony, że jest to ChatGPT”.

Mwedzi nie widzi szans powodzenia w procesie Marka Waltersa. „Myślę, że perspektywy nie są zbyt duże” – stwierdził.

Eugene Volokh, profesor prawa na Uniwersytecie Kalifornijskim w Los Angeles, który pisze artykuł w czasopiśmie na temat odpowiedzialności prawnej modeli AI, powiedział, że możliwe jest, że modele AI mogą zostać pociągnięte do odpowiedzialności prawnej za swoje działania.

„OpenAI przyznaje, że mogą wystąpić błędy, ale [ChatGPT] nie jest reklamowany jako żart; to nie jest zapowiadane jako fikcja; nie jest to rozliczane jako małpy piszące na maszynie do pisania” – powiedział Gizmodo.

Rosnący trend

To nie pierwszy raz, kiedy chatboty napędzane sztuczną inteligencją produkują nieprawdziwe informacje na temat prawdziwych ludzi. W zeszłym miesiącu amerykański prawnik Steven A. Schwartz w obliczu postępowanie dyscyplinarne po tym, jak jego firma prawnicza wykorzystała ChatGPT do badań prawnych i wymieniła sześć fałszywych spraw w pozwie.

Sprawa wyszła na jaw po tym, jak Schwartz, prawnik z 30-letnim doświadczeniem, wykorzystał te sprawy jako precedens do poparcia sprawy, w której jego klient Roberto Mata pozwał kolumbijskie linie lotnicze Avianca za zaniedbanie spowodowane przez pracownika.

W marcu Brian Hood, burmistrz Hepburn Shire w Australii, zagrożone pozwać OpenAI po tym, jak jego chatbot ChatGPT fałszywie twierdził, że został skazany za przekupstwo. Hood nie był zamieszany w skandal łapówkarski, aw rzeczywistości był demaskatorem, który go ujawnił.

PODZIEL SIĘ TYM POSTEM

Znak czasu:

Więcej z MetaWiadomości