OpenAI's ChatGPT beschuldigd van laster in historische rechtszaak

OpenAI's ChatGPT beschuldigd van laster in historische rechtszaak

Bronknooppunt: 2717755

De in de VS gevestigde radio-omroep Mark Walters klaagde OpenAI aan wegens smaad nadat zijn AI-chatbot ChatGPT hem ervan beschuldigde geld van de Second Amendment Foundation (SAF) te hebben verduisterd. Walters zegt dat de beschuldigingen vals zijn en dat hij ook nooit voor de wapenrechtenorganisatie heeft gewerkt.

De rechtszaak, ingediend bij de Superior Court van Gwinnett County, Georgia, op 5 juni, wordt verondersteld de eerste ooit te zijn waarin wordt beweerd dat een AI-chatbot zoals ChatGPT kan aansprakelijk worden gesteld voor smaad. Walters eist een niet-gespecificeerde geldelijke schadevergoeding van OpenAI, meldt Gizmodo.

Lees ook: De valse citaten van ChatGPT brengen de Amerikaanse advocaat in heet water

'OpenAI belasterde mijn cliënt'

De advocaat van Walters, John Monroe, beweerde dat ChatGPT "lasterlijk materiaal had gepubliceerd" over de presentator van het programma "Armed American Radio" toen hij reageerde op een vraag van Fred Riehl, hoofdredacteur van wapenwebsite AmmoLand, die onderzoek deed naar een legitieme SAF-zaak.

Riehl gaf de chatbot een URL die wees naar een zaak waarbij de SAF en Washington procureur-generaal Bob Ferguson, en vroeg hem om een ​​samenvatting. ChatGPT noemde Walters zelfverzekerd, maar ten onrechte, als gedaagde en identificeerde hem zelfs als de SAF-penningmeester en CFO, wat hij niet is.

ChatGPT's samenvatting van de lopende zaak bevatte de valse bewering dat Mark Walters verduisterde fondsen van de Second Amendment Foundation. De in Georgië gevestigde brocaster zegt dat hij nooit geld heeft verduisterd en dat hij geen band heeft met de SAF.

"Elke feitelijke verklaring in de samenvatting met betrekking tot Walters is onjuist", zei Monroe in de rechtszaak.

"OpenAI belasterde mijn cliënt en verzon schandalige leugens over hem", zei de advocaat later vertelde andere branchemedia.

ChatGPT is een groot taalmodel ontwikkeld door OpenAI. Het werd vorig jaar november gelanceerd en is getraind op miljarden gegevens van internet. De chatbot kan verschillende taken uitvoeren, waaronder het genereren van tekst, het vertalen van talen en het oplossen van moeilijke wiskundige problemen.

ChatGPT is echter gevoelig voor "hallucinaties”, een term die in de technologie-industrie wordt gebruikt om te beschrijven wanneer AI-chatbots valse of misleidende informatie produceren, vaak met vertrouwen.

"Zelfs state-of-the-art modellen produceren nog steeds logische fouten, vaak hallucinaties genoemd", schreef Karl Cobbe, een OpenAI-onderzoeker, in een blogpost. "Het verzachten van hallucinaties is een cruciale stap in de richting van het bouwen van afgestemde AGI [kunstmatige algemene intelligentie]."

Gebrekkige AI ter verantwoording roepen

De fout heeft de neiging om het nut van dergelijke kunstmatig intelligente technologie te ondermijnen. Maar AI-makers, waaronder OpenAI en Kopen Google Reviews, zijn de chatbots blijven promoten als een nieuwe manier om informatie te krijgen. Vreemd genoeg waarschuwden de bedrijven ook dat hun output niet te vertrouwen was.

Tijdens het onderzoek van Fred Riehl bleef ChatGPT valse informatie genereren, waarbij zelfs hele passages over de rechtszaak werden gemaakt die volledig verzonnen waren. Zoals Gizmodo meldde, kreeg de AI-tool zelfs het zaaknummer verkeerd.

De journalist ondervroeg de AI over zijn samenvatting waarin werd beweerd dat Walters betrokken was bij de zaak Second Amendment Foundation v. Ferguson, die een staatswet aanvecht die de verkoop van aanvalswapens verbiedt. ChatGPT antwoordde: "Zeker", volgens Walters-pak.

“Hier is de alinea uit de klacht die Walters betreft: 'Beklaagde Mark Walters (“Walters”) is een persoon die in Georgia woont. Walters is ten minste sinds 2012 penningmeester en financieel directeur van SAF. Walters heeft toegang tot de bankrekeningen en financiële gegevens van SAF en is verantwoordelijk voor het bijhouden van die gegevens en het verstrekken van financiële rapporten aan de raad van bestuur van SAF.”

Riehl publiceerde het artikel niet, maar deelde in plaats daarvan de antwoorden van de AI met de SAF-oprichter en vice-president Allan Gottlieb, die zei dat de ChatGPT-verklaringen nep waren.

In de rechtszaak zei advocaat John Monroe dat "de beschuldigingen van ChatGPT vals en kwaadaardig waren" en de reputatie van Walters hebben geschaad. Hij wil dat bedrijven die AI-chatbots ontwikkelen, verantwoordelijk worden gehouden voor de misleidende informatie die door hun creaties wordt verstrekt.

"Hoewel onderzoek en ontwikkeling op het gebied van AI de moeite waard zijn, is het onverantwoord om een ​​systeem op het publiek los te laten, wetende dat het informatie verzint die schade kan aanrichten", zei Monroe. Gizmodo.

OpenAI's ChatGPT aanklagen

Maar is het mogelijk dat valse informatie die wordt gegenereerd door grote taalmodellen zoals ChatGPT, in een rechtbank als laster kan worden beschouwd? Prosper Mwedzi, een technologieadvocaat bij het Britse ministerie van Financiën, vertelde MetaNews dat de kwestie complex is.

"Dit is een complexe vraag omdat het [ChatGPT] informatie van internet haalt", zei hij. “Dus ik zou denken dat de persoon die aanklaagt er beter aan zou doen om voor de bron te gaan in plaats daarvan [OpenAI of de oorspronkelijke uitgever van het materiaal waarnaar wordt verwezen.]

"Ik zie het als iets zoeken op Google en het brengt een bron naar voren met het lasterlijke materiaal - het zou duidelijk niet de schuld van Google zijn. Maar als iemand ChatGPT gebruikt om een ​​lasterlijk artikel te schrijven, wordt hij aansprakelijk omdat hij zich niet kan verdedigen dat het ChatGPT is.”

Mwedzi ziet weinig kans van slagen in de rechtszaak van Mark Walters. "Ik denk dat de vooruitzichten niet erg sterk zijn", zei hij.

Eugene Volokh, een professor in de rechten aan de Universiteit van Californië, Los Angeles, die een tijdschriftartikel schrijft over de wettelijke aansprakelijkheid van AI-modellen, zei dat het mogelijk is dat AI-modellen wettelijk aansprakelijk kunnen worden gesteld voor hun acties.

“OpenAI erkent dat er fouten kunnen zijn, maar [ChatGPT] wordt niet aangekondigd als een grap; het wordt niet aangekondigd als fictie; het wordt niet gefactureerd als apen die op een typemachine typen, 'vertelde hij aan Gizmodo.

Groeiende trend

Dit is niet de eerste keer dat door AI aangedreven chatbots onwaarheden over echte mensen verspreiden. Vorige maand heeft de Amerikaanse advocaat Steven A. Schwartz geconfronteerd disciplinaire maatregelen nadat zijn advocatenkantoor ChatGPT gebruikte voor juridisch onderzoek en zes nepzaken aanhaalde in een rechtszaak.

De zaak kwam aan het licht nadat Schwartz, een advocaat met 30 jaar ervaring, deze zaken als precedent gebruikte ter ondersteuning van een zaak waarin zijn cliënt Roberto Mata de Colombiaanse luchtvaartmaatschappij Avianca aanklaagde wegens nalatigheid veroorzaakt door een werknemer.

In maart zei Brian Hood, de burgemeester van Hepburn Shire in Australië, bedreigd om OpenAI aan te klagen nadat zijn chatbot ChatGPT ten onrechte beweerde dat hij was veroordeeld voor omkoping. Hood was niet betrokken bij het omkopingsschandaal en in feite was hij de klokkenluider die het aan het licht bracht.

DEEL DIT BERICHT

Tijdstempel:

Meer van MetaNieuws