ChatGPT de OpenAI acusado de difamación en una demanda histórica

ChatGPT de OpenAI acusado de difamación en una demanda histórica

Nodo de origen: 2717755

El locutor de radio con sede en EE. UU. Mark Walters demandó a OpenAI por difamación después de que su chatbot de IA, ChatGPT, lo acusara de malversar dinero de la Fundación de la Segunda Enmienda (SAF). Walters dice que las acusaciones son falsas y que nunca ha trabajado para el grupo de derechos de armas.

Presentada en el Tribunal Superior del condado de Gwinnett, Georgia, el 5 de junio, se cree que la demanda es la primera en alegar que un chatbot de IA como ChatGPT puede ser considerado responsable por difamación. Walters busca daños monetarios no especificados de OpenAI, informa Gizmodo.

Lea también: Las citas falsas de ChatGPT ponen a un abogado estadounidense en problemas

'OpenAI difamó a mi cliente'

El abogado de Walters, John Monroe, alegó que ChatGPT "publicó material difamatorio" sobre el presentador del programa "Armed American Radio" al responder a una consulta de Fred Riehl, editor en jefe del sitio web de armas AmmoLand, que estaba investigando un caso legítimo de SAF.

Riehl le dio al chatbot una URL que apuntaba a un caso relacionado con el SAF y Washington el fiscal general Bob Ferguson y le pidió un resumen. ChatGPT nombró a Walters como acusado con confianza, pero de manera incorrecta, e incluso lo identificó como el tesorero y director financiero de SAF, lo cual no es.

El resumen de ChatGPT del caso pendiente incluía la acusación falsa de que Mark Walters fondos malversados ​​de la Fundación de la Segunda Enmienda. El locutor con sede en Georgia dice que nunca ha malversado dinero y que no tiene conexión con las SAF.

“Cada declaración de hecho en el sumario perteneciente a Walters es falsa”, dijo Monroe en la demanda.

“OpenAI difamó a mi cliente e inventó mentiras escandalosas sobre él”, dijo el abogado más tarde. les dijo a otros medios de la industria.

ChatGPT es un gran modelo de lenguaje desarrollado por OpenAI. Se lanzó en noviembre del año pasado y se basa en miles de millones de datos de Internet. El chatbot puede realizar una variedad de tareas, incluida la generación de texto, la traducción de idiomas y la resolución de problemas matemáticos difíciles.

Sin embargo, ChatGPT es propenso a “alucinaciones”, que es un término utilizado en la industria de la tecnología para describir cuándo los chatbots de IA producen información falsa o engañosa, a menudo con confianza.

“Incluso los modelos más avanzados todavía producen errores lógicos, a menudo llamados alucinaciones”, escribió Karl Cobbe, científico investigador de OpenAI, en un artículo. entrada de blog. “Mitigar las alucinaciones es un paso crítico hacia la construcción de AGI [inteligencia general artificial] alineada”.

Hacer que la IA defectuosa rinda cuentas

La falla ha tendido a socavar la utilidad de tal tecnología artificialmente inteligente. Pero los creadores de IA, incluidos OpenAI y Google, han seguido impulsando los chatbots como una nueva forma de obtener información. Curiosamente, las empresas también advirtieron que no se debe confiar en su producción.

Durante la investigación de Fred Riehl, ChatGPT continuó generando información falsa, incluso creando pasajes completos sobre la demanda que fueron completamente inventados. Como informó Gizmodo, la herramienta de inteligencia artificial incluso se equivocó en el número de caso.

El periodista cuestionó a AI sobre su resumen alegando que Walters estuvo involucrado en el caso de la Fundación de la Segunda Enmienda contra Ferguson, que desafía una ley estatal que prohíbe la venta de armas de asalto. ChatGPT respondió: "Ciertamente", según la demanda de Walters.

“Este es el párrafo de la denuncia que se refiere a Walters: 'El acusado Mark Walters (“Walters”) es una persona que reside en Georgia. Walters se ha desempeñado como tesorero y director financiero de SAF desde al menos 2012. Walters tiene acceso a las cuentas bancarias y registros financieros de SAF y es responsable de mantener esos registros y proporcionar informes financieros a la junta directiva de SAF”.

Riehl no publicó el artículo, sino que compartió las respuestas de AI con el fundador y vicepresidente de SAF, Allan Gottlieb, quien dijo que las declaraciones de ChatGPT eran falsas.

En la demanda, el abogado John Monroe dijo que “las acusaciones de ChatGPT eran falsas y maliciosas” y dañaron la reputación de Walters. Quiere que las empresas que desarrollan chatbots de IA rindan cuentas por la información engañosa proporcionada por sus creaciones.

“Si bien la investigación y el desarrollo en IA es un esfuerzo que vale la pena, es irresponsable desatar un sistema sobre el público sabiendo que fabrica información que puede causar daño”, dijo Monroe. Gizmodo.

Demandar a ChatGPT de OpenAI

Pero, ¿es posible que la información falsa generada por grandes modelos de lenguaje como ChatGPT pueda considerarse difamación en un tribunal de justicia? Prosper Mwedzi, un abogado de tecnología del Departamento del Tesoro del Reino Unido, dijo a MetaNews que el tema es complejo.

“Esta es una pregunta compleja porque [ChatGPT] obtiene información de Internet”, dijo. “Entonces, creo que la persona que demanda sería mejor que buscara la fuente [ya sea OpenAI o el editor original del material de referencia].

“Lo veo como buscar algo en Google y aparece una fuente con el material difamatorio; claramente no sería culpa de Google. Pero si alguien usa ChatGPT para escribir un artículo difamatorio, se vuelve responsable, ya que no puede usar la defensa de que es ChatGPT”.

Mwedzi ve pocas posibilidades de éxito con la demanda de Mark Walters. “Creo que las perspectivas no son muy sólidas”, afirmó.

Eugene Volokh, profesor de derecho en la Universidad de California, Los Ángeles, que está escribiendo un artículo sobre la responsabilidad legal de los modelos de IA, dijo que es posible que los modelos de IA sean legalmente responsables de sus acciones.

“OpenAI reconoce que puede haber errores, pero [ChatGPT] no se anuncia como una broma; no se anuncia como ficción; no se anuncia como monos escribiendo en una máquina de escribir”, le dijo a Gizmodo.

Tendencia creciente

Esta no es la primera vez que los chatbots impulsados ​​por IA producen falsedades sobre personas reales. El mes pasado, el abogado estadounidense Steven A. Schwartz enfrentado acción disciplinaria después de que su bufete de abogados usó ChatGPT para investigación legal y citó seis casos falsos en una demanda.

El asunto salió a la luz luego de que Schwartz, un abogado con 30 años de experiencia, usara estos casos como precedente para sustentar un caso en el que su cliente Roberto Mata demandó a la aerolínea colombiana Avianca por negligencia causada por un empleado.

En marzo, Brian Hood, alcalde de Hepburn Shire en Australia, amenazada demandar a OpenAI después de que su chatbot ChatGPT afirmara falsamente que había sido condenado por soborno. Hood no estuvo involucrado en el escándalo del soborno y, de hecho, fue el denunciante que lo expuso.

COMPARTIR ESTA PUBLICACION

Sello de tiempo:

Mas de MetaNoticias