OpenAI's ChatGPT anklaget for ærekrænkelse i en skelsættende retssag

OpenAI's ChatGPT anklaget for ærekrænkelse i landemærke-retssag

Kildeknude: 2717755

Den amerikanske radiostation Mark Walters sagsøgte OpenAI for injurier, efter at dens AI-chatbot ChatGPT anklagede ham for at underslæbe penge fra Second Amendment Foundation (SAF). Walters siger, at påstandene er falske, og han har heller aldrig arbejdet for våbenrettighedsgruppen.

Indgivet i Superior Court i Gwinnett County, Georgia, den 5. juni, menes retssagen at være den første nogensinde til at hævde, at en AI-chatbot som ChatGPT kan holdes ansvarlig for ærekrænkelse. Walters søger uspecificeret økonomisk erstatning fra OpenAI, rapporterer Gizmodo.

Læs også: ChatGPT's Bogus Citations Land amerikansk advokat i varmt vand

'OpenAI bagtalte min klient'

Walters' advokat John Monroe hævdede, at ChatGPT "offentliggjorde injurierende materiale" om "Armed American Radio"-programværten, da han svarede på en forespørgsel fra Fred Riehl, chefredaktør på våbenwebstedet AmmoLand, som undersøgte en legitim SAF-sag.

Riehl gav chatbotten en URL, der pegede på en sag, der involverede SAF og Washington generaladvokat Bob Ferguson, og bad det om et resumé. ChatGPT navngav selvsikkert, men forkert, Walters som anklaget og identificerede ham endda som SAF-kasserer og finansdirektør, hvilket han ikke er.

ChatGPT's resumé af den verserende sag inkluderede den falske påstand om, at Mark Walters underslæbte midler fra Second Amendment Foundation. Den Georgia-baserede tv-station siger, at han aldrig har underslæbt nogen penge, og at han ikke har nogen forbindelse til SAF.

"Enhver kendsgerning i resuméet vedrørende Walters er falsk," sagde Monroe i sagen.

"OpenAI bagtalte min klient og fandt på skandaløse løgne om ham," advokaten senere fortalt andre branchemedier.

ChatGPT er en stor sprogmodel udviklet af OpenAI. Den blev lanceret i november sidste år og er trænet på milliarder af data fra internettet. Chatbotten kan udføre en række opgaver, herunder at generere tekst, oversætte sprog og løse vanskelige matematiske problemer.

ChatGPT er dog tilbøjelig til at "hallucinationer", som er et udtryk, der bruges i teknologiindustrien til at beskrive, når AI-chatbots producerer falsk eller vildledende information, ofte med selvtillid.

"Selv state-of-the-art modeller producerer stadig logiske fejl, ofte kaldet hallucinationer," skrev Karl Cobbe, en OpenAI-forsker, i en blogindlæg. "Afhjælpning af hallucinationer er et kritisk skridt i retning af at opbygge tilpasset AGI [kunstig generel intelligens]."

Holder mangelfuld AI til regnskab

fejl har haft en tendens til at underminere nytten af ​​sådan kunstigt intelligent teknologi. Men AI-skabere, herunder OpenAI og Google, har fortsat promoveret chatbots som en ny måde at få information på. Mærkeligt nok advarede virksomhederne også om, at man ikke skulle stole på deres produktion.

Under Fred Riehls research fortsatte ChatGPT med at generere falske oplysninger, selv med at skabe hele passager om retssagen, der var fuldstændig opdigtede. Som Gizmodo rapporterede, fik AI-værktøjet endda sagsnummeret forkert.

Journalisten udspurgte AI om dets resumé med påstand om, at Walters var involveret i Second Amendment Foundation v. Ferguson-sagen, som udfordrer en statslov, der forbyder salg af angrebsvåben. ChatGPT svarede: "Selvfølgelig," ifølge Walters trop.

"Her er afsnittet fra klagen, der vedrører Walters: 'Sagsøgte Mark Walters ("Walters") er en person, der er bosat i Georgia. Walters har fungeret som kasserer og Chief Financial Officer i SAF siden mindst 2012. Walters har adgang til SAFs bankkonti og finansielle optegnelser og er ansvarlig for at vedligeholde disse optegnelser og levere finansielle rapporter til SAFs bestyrelse.”

Riehl udgav ikke artiklen, men delte i stedet AI's svar med SAF-grundlæggeren og vicepræsident Allan Gottlieb, som sagde, at ChatGPT-udtalelserne var falske.

I sagen sagde advokat John Monroe, at "ChatGPTs påstande var falske og ondsindede" og skadede Walters' omdømme. Han ønsker, at virksomheder, der udvikler AI-chatbots, bliver holdt ansvarlige for de vildledende oplysninger, som deres kreationer giver.

"Selvom forskning og udvikling inden for kunstig intelligens er en værdifuld bestræbelse, er det uansvarligt at frigive et system til offentligheden, vel vidende at det fremstiller information, der kan forårsage skade," sagde Monroe. Gizmodo.

Sagsøgte OpenAI's ChatGPT

Men er det muligt, at falsk information genereret af store sprogmodeller som ChatGPT kan betragtes som injurier i en domstol? Prosper Mwedzi, en teknisk advokat i det britiske finansministerium, fortalte MetaNews, at problemet er komplekst.

"Dette er et komplekst spørgsmål, fordi det [ChatGPT] får information fra internettet," sagde han. "Så jeg vil tro, at den person, der sagsøger, ville være bedre stillet til at gå efter kilden i stedet for [enten OpenAI eller den originale udgiver af det refererede materiale.]

"Jeg ser det som at søge efter noget på Google, og det bringer en kilde frem med det ærekrænkende materiale - det ville helt klart ikke være Googles skyld. Men hvis nogen bruger ChatGPT til at skrive en injurierende artikel, så blev de ansvarlige, da de ikke kan bruge et forsvar for, at det er ChatGPT."

Mwedzi ser ringe chancer for succes med Mark Walters' retssag. "Jeg tror, ​​at udsigterne ikke er særlig stærke," sagde han.

Eugene Volokh, en professor i jura ved University of California, Los Angeles, som skriver et tidsskriftsartikel om AI-modellers juridiske ansvar, sagde, at det er muligt, at AI-modeller kan holdes juridisk ansvarlige for deres handlinger.

"OpenAI erkender, at der kan være fejl, men [ChatGPT] faktureres ikke som en joke; det faktureres ikke som fiktion; det er ikke faktureret som aber, der skriver på en skrivemaskine,” fortalte han Gizmodo.

Voksende tendens

Det er ikke første gang, at AI-drevne chatbots har afsløret løgne om rigtige mennesker. Sidste måned, den amerikanske advokat Steven A. Schwartz konfronteret disciplinære handlinger, efter at hans advokatfirma brugte ChatGPT til juridisk forskning og citerede seks falske sager i en retssag.

Sagen kom frem efter Schwartz, en advokat med 30 års erfaring, brugte disse sager som præcedens til at støtte en sag, hvor hans klient Roberto Mata sagsøgte det colombianske flyselskab Avianca for uagtsomhed forårsaget af en medarbejder.

I marts, Brian Hood, borgmesteren i Hepburn Shire i Australien, truede at sagsøge OpenAI efter dets chatbot ChatGPT, hævdede falsk, at han var blevet dømt for bestikkelse. Hood var ikke involveret i bestikkelsesskandalen, og faktisk var han whistlebloweren, der afslørede den.

DEL DETTE OPSLAG

Tidsstempel:

Mere fra MetaNews