ChatGPT von OpenAI wird in wegweisender Klage wegen Verleumdung angeklagt

ChatGPT von OpenAI wird in wegweisender Klage wegen Verleumdung angeklagt

Quellknoten: 2717755

Der in den USA ansässige Radiosender Mark Walters verklagte OpenAI wegen Verleumdung, nachdem sein KI-Chatbot ChatGPT ihn beschuldigt hatte, Gelder der Second Amendment Foundation (SAF) veruntreut zu haben. Walters sagt, die Anschuldigungen seien falsch und er habe auch nie für die Waffenrechtsgruppe gearbeitet.

Die am 5. Juni beim Obersten Gerichtshof von Gwinnett County, Georgia, eingereichte Klage gilt als die erste überhaupt, in der behauptet wird, dass ein KI-Chatbot gefällt ChatGPT kann für Verleumdung haftbar gemacht werden. Laut Gizmodo verlangt Walters von OpenAI Schadensersatz in nicht näher bezeichneter Höhe.

Lies auch: Die falschen Zitate von ChatGPT bringen US-Anwalt in Schwierigkeiten

„OpenAI hat meinen Kunden diffamiert“

Walters‘ Anwalt John Monroe behauptete, ChatGPT habe „verleumderisches Material“ über den Moderator der Sendung „Armed American Radio“ veröffentlicht, als er auf eine Anfrage von Fred Riehl antwortete, dem Chefredakteur der Waffen-Website AmmoLand, der einen legitimen SAF-Fall recherchierte.

Riehl gab dem Chatbot eine URL, die auf einen Fall verwies SAF und Washington Generalstaatsanwalt Bob Ferguson und bat um eine Zusammenfassung. ChatGPT nannte Walters selbstbewusst, aber zu Unrecht, als Angeklagten und identifizierte ihn sogar als SAF-Schatzmeister und CFO, was er nicht ist.

Die Zusammenfassung des anhängigen Falles von ChatGPT enthielt die falsche Behauptung, dass Markus Walters veruntreute Gelder der Second Amendment Foundation. Der in Georgia ansässige Journalist sagt, er habe nie Geld veruntreut und keine Verbindung zur SAF gehabt.

„Jede Tatsachenaussage in der Zusammenfassung, die Walters betrifft, ist falsch“, sagte Monroe in der Klage.

„OpenAI hat meinen Mandanten diffamiert und empörende Lügen über ihn erfunden“, sagte der Anwalt später sagte andere Branchenmedien.

ChatGPT ist ein großes Sprachmodell, das von OpenAI entwickelt wurde. Es wurde im November letzten Jahres gestartet und basiert auf Milliarden von Daten aus dem Internet. Der Chatbot kann eine Vielzahl von Aufgaben ausführen, darunter das Generieren von Text, das Übersetzen von Sprachen und das Lösen schwieriger mathematischer Probleme.

Allerdings ist ChatGPT anfällig für „Halluzinationen„“ ist ein Begriff, der in der Technologiebranche verwendet wird, um zu beschreiben, wenn KI-Chatbots oft mit Zuversicht falsche oder irreführende Informationen produzieren.

„Selbst modernste Modelle erzeugen immer noch logische Fehler, die oft als Halluzinationen bezeichnet werden“, schrieb Karl Cobbe, ein OpenAI-Forscher, in einem Blog-Post. „Die Linderung von Halluzinationen ist ein entscheidender Schritt zum Aufbau einer abgestimmten AGI [künstliche allgemeine Intelligenz].“

Machen Sie fehlerhafte KI zur Rechenschaft

Das Fehler neigt dazu, den Nutzen solcher künstlich intelligenten Technologien zu untergraben. Aber KI-Entwickler, darunter OpenAI und Google, haben die Chatbots weiterhin als neue Möglichkeit zur Informationsbeschaffung beworben. Seltsamerweise warnten die Unternehmen auch, dass man ihrer Produktion nicht trauen dürfe.

Während der Recherchen von Fred Riehl generierte ChatGPT weiterhin falsche Informationen und erstellte sogar ganze Passagen über die Klage, die völlig erfunden waren. Wie Gizmodo berichtete, hat das KI-Tool sogar die Fallnummer falsch angegeben.

Der Journalist befragte die AI zu ihrer Zusammenfassung, in der behauptet wurde, Walters sei in den Fall Second Amendment Foundation gegen Ferguson verwickelt gewesen, der ein staatliches Gesetz anfechtet, das den Verkauf von Angriffswaffen verbietet. ChatGPT antwortete: „Sicher“, laut Walters Klage.

„Hier ist der Absatz aus der Klage, der Walters betrifft: ‚Der Angeklagte Mark Walters („Walters“) ist eine Person, die in Georgia wohnt. Walters fungiert seit mindestens 2012 als Schatzmeister und Finanzvorstand von SAF. Walters hat Zugriff auf die Bankkonten und Finanzunterlagen von SAF und ist für die Führung dieser Unterlagen und die Bereitstellung von Finanzberichten an den Vorstand von SAF verantwortlich.“

Riehl veröffentlichte den Artikel nicht, sondern teilte die Antworten der KI stattdessen dem SAF-Gründer und Vizepräsidenten Allan Gottlieb mit, der sagte, die ChatGPT-Aussagen seien gefälscht.

In der Klage sagte Anwalt John Monroe, dass „die Behauptungen von ChatGPT falsch und böswillig waren“ und Walters‘ Ruf schädigten. Er möchte, dass Unternehmen, die KI-Chatbots entwickeln, für die irreführenden Informationen, die ihre Kreationen liefern, zur Verantwortung gezogen werden.

„Obwohl Forschung und Entwicklung im Bereich KI ein lohnendes Unterfangen sind, ist es unverantwortlich, ein System auf die Öffentlichkeit loszulassen, wenn man weiß, dass es Informationen fabriziert, die Schaden anrichten können“, sagte Monroe Gizmodo.

Klage gegen ChatGPT von OpenAI

Aber ist es möglich, dass falsche Informationen, die von großen Sprachmodellen wie ChatGPT generiert werden, vor Gericht als Verleumdung angesehen werden könnten? Prosper Mwedzi, ein Technologieanwalt beim britischen Finanzministerium, sagte gegenüber MetaNews, dass das Problem komplex sei.

„Das ist eine komplexe Frage, weil [ChatGPT] Informationen aus dem Internet bezieht“, sagte er. „Deshalb denke ich, dass die klagende Person besser dran wäre, sich stattdessen an die Quelle zu wenden [entweder OpenAI oder den ursprünglichen Herausgeber des referenzierten Materials.]

„Ich sehe es so, als würde man bei Google etwas suchen und eine Quelle mit diffamierendem Material finden – es wäre eindeutig nicht die Schuld von Google. Aber wenn jemand ChatGPT verwendet, um einen verleumderischen Artikel zu schreiben, wird er haftbar gemacht, da er sich nicht darauf berufen kann, dass es sich um ChatGPT handelt.“

Mwedzi sieht in der Klage von Mark Walters kaum Aussicht auf Erfolg. „Ich denke, die Aussichten sind nicht sehr gut“, sagte er.

Eugene Volokh, Juraprofessor an der University of California in Los Angeles, der einen Fachartikel über die rechtliche Haftung von KI-Modellen schreibt, sagte, es sei möglich, dass KI-Modelle für ihre Handlungen rechtlich haftbar gemacht werden könnten.

„OpenAI räumt ein, dass es möglicherweise Fehler gibt, aber [ChatGPT] wird nicht als Scherz angepriesen; es wird nicht als Fiktion angepriesen; es wird nicht als Affen dargestellt, die auf einer Schreibmaschine tippen“, sagte er zu Gizmodo.

Eine steigende Tendenz

Dies ist nicht das erste Mal, dass KI-gestützte Chatbots Unwahrheiten über echte Menschen verbreiten. Letzten Monat hat der US-Anwalt Steven A. Schwartz konfrontiert Disziplinarmaßnahmen eingeleitet, nachdem seine Anwaltskanzlei ChatGPT für Rechtsrecherchen genutzt und in einer Klage sechs gefälschte Fälle angeführt hatte.

Die Angelegenheit kam ans Licht, nachdem Schwartz, ein Anwalt mit 30 Jahren Erfahrung, diese Fälle als Präzedenzfälle nutzte, um einen Fall zu unterstützen, in dem sein Mandant Roberto Mata die kolumbianische Fluggesellschaft Avianca wegen Fahrlässigkeit eines Mitarbeiters verklagte.

Im März sagte Brian Hood, der Bürgermeister von Hepburn Shire in Australien, bedroht OpenAI zu verklagen, nachdem sein Chatbot ChatGPT fälschlicherweise behauptet hatte, er sei wegen Bestechung verurteilt worden. Hood war nicht in den Bestechungsskandal verwickelt, sondern tatsächlich der Whistleblower, der ihn aufgedeckt hat.

TEILE DIESEN BEITRAG

Zeitstempel:

Mehr von MetaNews