ChatGPT d'OpenAI accusé de diffamation dans un procès historique

ChatGPT d'OpenAI accusé de diffamation dans un procès historique

Nœud source: 2717755

Le radiodiffuseur américain Mark Walters a poursuivi OpenAI pour diffamation après que son chatbot IA ChatGPT l'ait accusé d'avoir détourné de l'argent de la Second Amendment Foundation (SAF). Walters dit que les allégations sont fausses et qu'il n'a jamais travaillé pour le groupe de défense des armes à feu.

Déposée devant la Cour supérieure du comté de Gwinnett, en Géorgie, le 5 juin, la poursuite serait la toute première à alléguer qu'un chatbot IA comme ChatGPT peut être tenu responsable de diffamation. Walters demande des dommages-intérêts non spécifiés à OpenAI, rapporte Gizmodo.

A lire également: Les fausses citations de ChatGPT mettent un avocat américain dans l'eau chaude

"OpenAI a diffamé mon client"

L'avocat de Walters, John Monroe, a allégué que ChatGPT "avait publié du matériel diffamatoire" sur l'animateur de l'émission "Armed American Radio" en répondant à une requête de Fred Riehl, rédacteur en chef du site Web d'armes à feu AmmoLand, qui recherchait un cas légitime de SAF.

Riehl a donné au chatbot une URL pointant vers une affaire impliquant le SAF et Washington procureur général Bob Ferguson, et lui a demandé un résumé. ChatGPT avec confiance, mais à tort, a nommé Walters comme défendeur et l'a même identifié comme le trésorier et directeur financier de la SAF, ce qu'il n'est pas.

Le résumé de ChatGPT de l'affaire en cours comprenait la fausse allégation selon laquelle Mark Walters détourné des fonds de la Second Amendment Foundation. Le radiodiffuseur basé en Géorgie affirme qu'il n'a jamais détourné d'argent et qu'il n'a aucun lien avec les SAF.

"Chaque déclaration de fait dans le résumé concernant Walters est fausse", a déclaré Monroe dans le procès.

"OpenAI a diffamé mon client et inventé des mensonges scandaleux à son sujet", a ensuite déclaré l'avocat. dit autres médias de l'industrie.

ChatGPT est un grand modèle de langage développé par OpenAI. Il a été lancé en novembre de l'année dernière et est formé sur des milliards de données provenant d'Internet. Le chatbot peut effectuer diverses tâches, notamment générer du texte, traduire des langues et résoudre des problèmes mathématiques difficiles.

Cependant, ChatGPT est sujet à "hallucinations», qui est un terme utilisé dans l'industrie technologique pour décrire le moment où les chatbots IA produisent des informations fausses ou trompeuses, souvent en toute confiance.

"Même les modèles de pointe produisent encore des erreurs logiques, souvent appelées hallucinations", a écrit Karl Cobbe, chercheur à OpenAI, dans un poste de blog. "L'atténuation des hallucinations est une étape critique vers la construction d'une AGI [intelligence générale artificielle] alignée."

Tenir compte de l'IA défectueuse

La défaut a eu tendance à saper l'utilité de ces technologies artificiellement intelligentes. Mais les créateurs d'IA, dont OpenAI et Google, ont continué à promouvoir les chatbots comme un nouveau moyen d'obtenir des informations. Étrangement, les entreprises ont également averti qu'il ne fallait pas faire confiance à leur production.

Au cours des recherches de Fred Riehl, ChatGPT a continué à générer de fausses informations, créant même des passages entiers sur le procès qui ont été complètement fabriqués. Comme l'a rapporté Gizmodo, l'outil d'IA s'est même trompé de numéro de dossier.

Le journaliste a interrogé l'AI sur son résumé alléguant que Walters était impliqué dans l'affaire Second Amendment Foundation v. Ferguson, qui conteste une loi de l'État qui interdit la vente d'armes d'assaut. ChatGPT a répondu: "Certainement", selon le costume de Walters.

« Voici le paragraphe de la plainte qui concerne Walters : « L'accusé Mark Walters (« Walters ») est un individu qui réside en Géorgie. Walters est trésorier et directeur financier de SAF depuis au moins 2012. Walters a accès aux comptes bancaires et aux dossiers financiers de SAF et est responsable de la tenue de ces dossiers et de la fourniture de rapports financiers au conseil d'administration de SAF.

Riehl n'a pas publié l'article mais a plutôt partagé les réponses de l'IA avec le fondateur et vice-président de la SAF, Allan Gottlieb, qui a déclaré que les déclarations de ChatGPT étaient fausses.

Dans la poursuite, l'avocat John Monroe a déclaré que "les allégations de ChatGPT étaient fausses et malveillantes" et ont porté atteinte à la réputation de Walters. Il souhaite que les entreprises qui développent des chatbots IA soient tenues responsables des informations trompeuses fournies par leurs créations.

"Bien que la recherche et le développement en IA soient une entreprise louable, il est irresponsable de lancer un système sur le public en sachant qu'il fabrique des informations pouvant causer des dommages", a déclaré Monroe. Gizmodo.

Poursuivre ChatGPT d'OpenAI

Mais est-il possible que de fausses informations générées par de grands modèles de langage comme ChatGPT puissent être considérées comme de la diffamation devant un tribunal ? Prosper Mwedzi, un avocat en technologie du département du Trésor britannique, a déclaré à MetaNews que la question était complexe.

"C'est une question complexe car il [ChatGPT] obtient des informations sur Internet", a-t-il déclaré. "Donc, je pense que la personne qui poursuit ferait mieux d'aller chercher la source à la place [soit OpenAI ou l'éditeur original du matériel référencé.]

"Je vois cela comme chercher quelque chose sur Google et cela fait apparaître une source avec le matériel diffamatoire - ce ne serait clairement pas la faute de Google. Mais si quelqu'un utilise ChatGPT pour écrire un article diffamatoire, il devient responsable car il ne peut pas utiliser une défense selon laquelle il s'agit de ChatGPT.

Mwedzi voit peu de chance de succès avec le procès de Mark Walters. "Je pense que les perspectives ne sont pas très solides", a-t-il déclaré.

Eugene Volokh, professeur de droit à l'Université de Californie à Los Angeles, qui rédige un article sur la responsabilité légale des modèles d'IA, a déclaré qu'il est possible que les modèles d'IA soient tenus légalement responsables de leurs actes.

"OpenAI reconnaît qu'il peut y avoir des erreurs mais [ChatGPT] n'est pas présenté comme une blague ; ce n'est pas présenté comme de la fiction ; ce n'est pas présenté comme des singes tapant sur une machine à écrire », a-t-il déclaré à Gizmodo.

Tendance croissante

Ce n'est pas la première fois que des chatbots alimentés par l'IA produisent des mensonges sur de vraies personnes. Le mois dernier, l'avocat américain Steven A. Schwartz face une action disciplinaire après que son cabinet d'avocats a utilisé ChatGPT pour des recherches juridiques et a cité six faux cas dans un procès.

L'affaire a été révélée après que Schwartz, un avocat avec 30 ans d'expérience, a utilisé ces affaires comme précédent pour soutenir une affaire dans laquelle son client Roberto Mata a poursuivi la compagnie aérienne colombienne Avianca pour négligence causée par un employé.

En mars, Brian Hood, le maire de Hepburn Shire en Australie, menacée de poursuivre OpenAI après que son chatbot ChatGPT, a faussement affirmé qu'il avait été reconnu coupable de corruption. Hood n'était pas impliqué dans le scandale de la corruption et, en fait, c'est lui qui l'a révélé.

PARTAGER CETTE PUBLICATION

Horodatage:

Plus de MétaActualités