ChatGPT da OpenAI é acusado de difamação em processo histórico

ChatGPT da OpenAI é acusado de difamação em processo histórico

Nó Fonte: 2717755

O radialista norte-americano Mark Walters processou a OpenAI por difamação depois que seu chatbot de IA, ChatGPT, o acusou de desviar dinheiro da Fundação da Segunda Emenda (SAF). Walters diz que as alegações são falsas e ele também nunca trabalhou para o grupo de direitos de armas.

Arquivado no Tribunal Superior do Condado de Gwinnett, Geórgia, em 5 de junho, acredita-se que o processo seja o primeiro a alegar que um chatbot de IA como O ChatGPT pode ser responsabilizado por difamação. Walters está buscando indenizações monetárias não especificadas da OpenAI, relata o Gizmodo.

Veja também: Citações falsas do ChatGPT colocam advogado dos EUA em água quente

'OpenAI difamou meu cliente'

O advogado de Walters, John Monroe, alegou que o ChatGPT “publicou material calunioso” sobre o apresentador do programa “Armed American Radio” ao responder a uma pergunta de Fred Riehl, editor-chefe do site de armas AmmoLand, que estava pesquisando um caso SAF legítimo.

Riehl deu ao chatbot uma URL apontando para um caso envolvendo o SAF e Washington procurador-geral Bob Ferguson e pediu um resumo. O ChatGPT com confiança, mas erroneamente, nomeou Walters como réu e até o identificou como tesoureiro e CFO da SAF, o que ele não é.

O resumo do caso pendente do ChatGPT incluía a falsa alegação de que Marcos Walters fundos desviados da Fundação da Segunda Emenda. O radialista da Geórgia diz que nunca desviou dinheiro e que não tem conexão com o SAF.

“Cada declaração de fato no resumo pertencente a Walters é falsa”, disse Monroe no processo.

“A OpenAI difamou meu cliente e inventou mentiras ultrajantes sobre ele”, disse o advogado mais tarde. disse outras mídias do setor.

ChatGPT é um grande modelo de linguagem desenvolvido pela OpenAI. Foi lançado em novembro do ano passado e é treinado em bilhões de dados da internet. O chatbot pode executar uma variedade de tarefas, incluindo gerar texto, traduzir idiomas e resolver problemas matemáticos difíceis.

No entanto, ChatGPT é propenso a “alucinações”, que é um termo usado na indústria de tecnologia para descrever quando os chatbots de IA produzem informações falsas ou enganosas, geralmente com confiança.

“Mesmo modelos de última geração ainda produzem erros lógicos, muitas vezes chamados de alucinações”, escreveu Karl Cobbe, cientista pesquisador da OpenAI, em um blog post. “Mitigar as alucinações é um passo crítico para a construção de AGI [inteligência geral artificial] alinhada.”

Responsabilizar a IA defeituosa

A falha tendeu a minar a utilidade de tal tecnologia artificialmente inteligente. Mas os criadores de IA, incluindo OpenAI e Google, continuaram a promover os chatbots como uma nova forma de obter informação. Estranhamente, as empresas também alertaram que sua produção não deveria ser confiável.

Durante a pesquisa de Fred Riehl, o ChatGPT continuou a gerar informações falsas, até mesmo criando passagens inteiras sobre o processo que foram completamente fabricadas. Como relatou o Gizmodo, a ferramenta de IA até errou o número do caso.

O jornalista questionou a AI sobre seu resumo alegando que Walters estava envolvido no caso da Fundação da Segunda Emenda v. Ferguson, que desafia uma lei estadual que proíbe a venda de armas de assalto. O ChatGPT respondeu: “Certamente”, de acordo com o processo de Walters.

“Aqui está o parágrafo da denúncia que diz respeito a Walters: 'O réu Mark Walters (“Walters”) é um indivíduo que reside na Geórgia. Walters atua como tesoureiro e diretor financeiro da SAF desde pelo menos 2012. Walters tem acesso às contas bancárias e registros financeiros da SAF e é responsável por manter esses registros e fornecer relatórios financeiros ao conselho de administração da SAF.”

Riehl não publicou o artigo, mas compartilhou as respostas da IA ​​com o fundador e vice-presidente da SAF, Allan Gottlieb, que disse que as declarações do ChatGPT eram falsas.

No processo, o advogado John Monroe disse que “as alegações do ChatGPT eram falsas e maliciosas” e prejudicaram a reputação de Walters. Ele quer que as empresas que desenvolvem chatbots de IA sejam responsabilizadas pelas informações enganosas fornecidas por suas criações.

“Embora a pesquisa e o desenvolvimento em IA sejam um empreendimento que vale a pena, é irresponsável liberar um sistema para o público sabendo que ele fabrica informações que podem causar danos”, disse Monroe. Gizmodo.

Processando o ChatGPT da OpenAI

Mas é possível que informações falsas geradas por grandes modelos de linguagem como o ChatGPT possam ser consideradas difamação em um tribunal? Prosper Mwedzi, advogado de tecnologia do Departamento do Tesouro do Reino Unido, disse ao MetaNews que a questão é complexa.

“Essa é uma questão complexa porque [ChatGPT] obtém informações da internet”, disse ele. “Então, eu acho que a pessoa processando seria melhor ir para a fonte em vez disso [OpenAI ou editor original do material referenciado.]

“Eu vejo isso como pesquisar algo no Google e trazer uma fonte com o material difamatório - claramente não seria culpa do Google. Mas se alguém usa o ChatGPT para escrever um artigo calunioso, ele se torna responsável, pois não pode usar a defesa de que é o ChatGPT.”

Mwedzi vê poucas chances de sucesso com o processo de Mark Walters. “Acho que as perspectivas não são muito boas”, afirmou.

Eugene Volokh, professor de direito da Universidade da Califórnia, em Los Angeles, que está escrevendo um artigo sobre a responsabilidade legal dos modelos de IA, disse que é possível que os modelos de IA sejam responsabilizados legalmente por suas ações.

“OpenAI reconhece que pode haver erros, mas [ChatGPT] não é considerado uma piada; não é classificado como ficção; não é anunciado como macacos digitando em uma máquina de escrever”, disse ele ao Gizmodo.

Tendência crescente

Esta não é a primeira vez que chatbots baseados em IA espalham falsidades sobre pessoas reais. No mês passado, o advogado americano Steven A. Schwartz enfrentou ação disciplinar depois que seu escritório de advocacia usou o ChatGPT para pesquisa jurídica e citou seis casos falsos em uma ação judicial.

O assunto veio à tona depois que Schwartz, um advogado com 30 anos de experiência, usou esses casos como precedente para sustentar uma ação em que seu cliente Roberto Mata processou a companhia aérea colombiana Avianca por negligência de um funcionário.

Em março, Brian Hood, prefeito de Hepburn Shire, na Austrália, ameaçado para processar a OpenAI depois que seu chatbot ChatGPT alegou falsamente que havia sido condenado por suborno. Hood não estava envolvido no escândalo de suborno e, na verdade, foi ele o denunciante que o expôs.

COMPARTILHE ESTA POSTAGEM

Carimbo de hora:

Mais de MetaNotícias