OpenAI:s ChatGPT anklagas för ärekränkning i landmärkesprocess

OpenAI:s ChatGPT anklagas för ärekränkning i landmärkesprocess

Källnod: 2717755

Den USA-baserade radiosändaren Mark Walters stämde OpenAI för förtal efter att dess AI-chatbot ChatGPT anklagade honom för att ha förskingrat pengar från Second Amendment Foundation (SAF). Walters säger att anklagelserna är falska och han har heller aldrig arbetat för vapenrättsgruppen.

Inlämnad till Superior Court i Gwinnett County, Georgia, den 5 juni, tros stämningsansökan vara den första någonsin som hävdar att en AI-chatbot gillar ChatGPT kan hållas ansvarigt för ärekränkning. Walters kräver ospecificerat ekonomiskt skadestånd från OpenAI, rapporterar Gizmodo.

Läs också: ChatGPT:s Bogus Citations Land US Advokat i Hot Water

"OpenAI förtalade min klient"

Walters advokat John Monroe hävdade att ChatGPT "publicerade ärekränkande material" om programvärden för "Armed American Radio" när han svarade på en fråga från Fred Riehl, chefredaktör för vapenwebbplatsen AmmoLand, som undersökte ett legitimt SAF-fall.

Riehl gav chatboten en URL som pekade på ett fall som involverade SAF och Washington justitieminister Bob Ferguson och bad om en sammanfattning. ChatGPT utnämnde självsäkert, men felaktigt, Walters som svarande och identifierade honom till och med som SAF-kassör och finanschef, vilket han inte är.

ChatGPT:s sammanfattning av det pågående fallet inkluderade det falska påståendet att Mark Walters förskingrat medel från Second Amendment Foundation. Den Georgien-baserade sändaren säger att han aldrig har förskingrat några pengar och att han inte har någon koppling till SAF.

"Varje faktapåstående i sammanfattningen som hänför sig till Walters är falskt", sa Monroe i rättegången.

"OpenAI förtalade min klient och hittade på upprörande lögner om honom," advokaten senare berättade andra branschmedia.

ChatGPT är en stor språkmodell utvecklad av OpenAI. Den lanserades i november förra året och tränas på miljarder data från internet. Chatboten kan utföra en mängd olika uppgifter, inklusive att generera text, översätta språk och lösa svåra matematiska problem.

ChatGPT är dock benäget att "hallucinationer”, vilket är en term som används inom teknikindustrin för att beskriva när AI-chatbots producerar falsk eller vilseledande information, ofta med tillförsikt.

"Även toppmoderna modeller ger fortfarande logiska misstag, ofta kallade hallucinationer", skrev Karl Cobbe, en OpenAI-forskare, i en blogginlägg. "Att mildra hallucinationer är ett kritiskt steg mot att bygga en anpassad AGI [artificiell allmän intelligens]."

Håller bristfällig AI till svars

Smakämnen fel har tenderat att undergräva användbarheten av sådan artificiellt intelligent teknik. Men AI-skapare inklusive OpenAI och Google, har fortsatt att marknadsföra chatbotarna som ett nytt sätt att få information. Konstigt nog varnade företagen också för att man inte skulle lita på deras produktion.

Under Fred Riehls forskning fortsatte ChatGPT att generera falsk information och skapade till och med hela stycken om rättegången som var helt påhittade. Som Gizmodo rapporterade fick AI-verktyget till och med fallnumret fel.

Journalisten ifrågasatte AI om dess sammanfattning och påstod att Walters var inblandad i fallet Second Amendment Foundation v. Ferguson, som ifrågasätter en statlig lag som förbjuder försäljning av attackvapen. ChatGPT svarade: "Visst," enligt Walters kostym.

"Här är stycket från klagomålet som berör Walters: 'Svarande Mark Walters ("Walters") är en person som är bosatt i Georgia. Walters har varit kassör och finansdirektör för SAF sedan åtminstone 2012. Walters har tillgång till SAF:s bankkonton och finansiella register och ansvarar för att upprätthålla dessa register och tillhandahålla finansiella rapporter till SAF:s styrelse.”

Riehl publicerade inte artikeln utan delade istället AI:s svar med SAFs grundare och vicepresident Allan Gottlieb som sa att ChatGPT-uttalandena var falska.

I rättegången sa advokaten John Monroe att "ChatGPT:s anklagelser var falska och skadliga" och skadade Walters rykte. Han vill att företag som utvecklar AI-chatbotar ska hållas ansvariga för den vilseledande information som deras skapelser ger.

"Medan forskning och utveckling inom AI är en givande strävan, är det oansvarigt att släppa lös ett system för allmänheten med vetskapen om att det tillverkar information som kan orsaka skada," sa Monroe Gizmodo.

Stämmer OpenAI:s ChatGPT

Men är det möjligt att falsk information som genereras av stora språkmodeller som ChatGPT kan anses vara förtal i en domstol? Prosper Mwedzi, en teknisk advokat vid det brittiska finansdepartementet, sa till MetaNews att frågan är komplex.

"Detta är en komplex fråga eftersom den [ChatGPT] får information från internet," sa han. "Så jag skulle tro att den som stämmer skulle vara bättre att gå efter källan istället [antingen OpenAI eller originalutgivaren av det refererade materialet.]

"Jag ser det som att söka efter något på Google och det tar upp en källa med det ärekränkande materialet - det skulle helt klart inte vara Googles fel. Men om någon använder ChatGPT för att skriva en kränkande artikel så blev de ansvariga eftersom de inte kan använda ett försvar för att det är ChatGPT.”

Mwedzi ser små chanser att lyckas med Mark Walters stämningsansökan. "Jag tror att utsikterna inte är särskilt starka," sa han.

Eugene Volokh, professor i juridik vid University of California, Los Angeles, som skriver en tidskrift om det juridiska ansvaret för AI-modeller, sa att det är möjligt att AI-modeller kan hållas juridiskt ansvariga för sina handlingar.

"OpenAI erkänner att det kan finnas misstag men [ChatGPT] faktureras inte som ett skämt; det faktureras inte som fiktion; det faktureras inte som apor som skriver på en skrivmaskin”, sa han till Gizmodo.

Växande trend

Det här är inte första gången som AI-drivna chatbots har slängt ut falskheter om riktiga människor. Förra månaden, USA:s advokat Steven A. Schwartz inför disciplinära åtgärder efter att hans advokatbyrå använde ChatGPT för juridisk forskning och citerade sex falska fall i en rättegång.

Ärendet kom upp efter att Schwartz, en advokat med 30 års erfarenhet, använde dessa fall som prejudikat för att stödja ett fall där hans klient Roberto Mata stämde det colombianska flygbolaget Avianca för vårdslöshet orsakad av en anställd.

I mars, Brian Hood, borgmästare i Hepburn Shire i Australien, hotade att stämma OpenAI efter sin chatbot ChatGPT, falskt hävdade att han hade dömts för mutor. Hood var inte inblandad i mutskandalen, och i själva verket var han den som avslöjade den.

DELA DETTA INLÄGG

Tidsstämpel:

Mer från MetaNews