Especialistas alertam sobre a crescente ameaça da IA ​​ao jornalismo no Senado

Especialistas alertam sobre a crescente ameaça da IA ​​ao jornalismo no Senado

Nó Fonte: 3067812

A audiência do Subcomitê de Privacidade, Tecnologia e Direito do Senado sobre “Inteligência Artificial e O Futuro do Jornalismo sentou-se no Capitólio dos EUA em 10 de janeiro de 2024, em Washington, DC.

Especialistas alertaram sobre a ameaça que a inteligência artificial (IA) representa para o jornalismo na audiência de 10 de janeiro. De acordo com o depoimento de executivos de mídia e especialistas acadêmicos perante o Subcomitê Judiciário do Senado para Privacidade, Tecnologia e Direito, a IA está contribuindo para o grande declínio do jornalismo alimentado pela tecnologia.

Além disso, falaram sobre como as questões de propriedade intelectual estão surgindo à medida que os modelos de IA são treinados para realizar o trabalho de um jornalista profissional. Também alertaram sobre os perigos crescentes da desinformação alimentada pela IA.

Problemas de direitos autorais

Os sistemas generativos de IA que podem gerar imagens, texto ou qualquer tipo de mídia devem ser treinados usando grandes quantidades de dados. O principal desenvolvedor de IA, OpenAI, fez parceria com uma agência de notícias sem fins lucrativos com sede nos EUA, a Associated Press, para ter acesso a dados de texto de alta qualidade. Eles acessaram parte do arquivo da AP para utilizar os produtos da OpenAI.

Da mesma forma, a OpenAI faz parceria com uma empresa multinacional de mídia, Axel Springer. Esta é uma parte da qual o ChatGPT fará um resumo dos artigos dos veículos de notícias de propriedade de Axel Springer. ChatGPT também fornecerá links e atribuições. No entanto, nem todos os meios de comunicação têm acordos semelhantes. O New York Times levou a OpenAI e a Microsoft, seu principal investidor, a tribunal.

De acordo com o processo, o New York Times argumenta que os modelos OpenAI foram treinados em seus materiais. Além disso, eles disseram que os modelos OpenAI ofereciam um produto concorrente, e isso causou bilhões de dólares em danos legais e reais. Consequentemente, em 8 de janeiro, a OpenAI respondeu ao processo com uma postagem no blog. A postagem do blog contestou as reivindicações legais do Times e destacou suas diversas ações para apoiar um ecossistema de notícias sobre saúde.

Significativamente, entre os casos de direitos autorais lançados contra desenvolvedores de IA, o processo do New York Times é o caso de maior visibilidade. A comediante Sarah Silverman e os autores Christopher Golden e Richard Kadrey levaram OpenAI e Meta ao tribunal em julho de 2023. Eles foram processados ​​por treinar seus modelos de IA em sua escrita sem permissão.

Da mesma forma, os artistas Kelly McKernan, Sarah Andersen e Karla Orti processaram Midjourney, Stability AI e DeviantArt em janeiro de 2023. Essas empresas desenvolvido modelos de IA geradores de imagens e foram processados ​​por treinar modelos de IA em seu trabalho. No entanto, o juiz distrital dos EUA, William Orrick, rejeitou partes do processo em outubro, e os demandantes alteraram e reapresentaram o processo em novembro.

Roger Lynch, CEO da Condé Nast, argumenta que as ferramentas generativas de IA foram construídas com bens roubados. A Condé Nast é uma empresa de mídia proprietária de diversas publicações, incluindo The New Yorker, Wired e QG. Na audiência, ele pediu “intervenção do Congresso” para garantir que os desenvolvedores de IA paguem aos editores pelo seu conteúdo.

Além disso, o presidente e CEO da associação comercial, a Associação Nacional de Emissoras, Curtis LeGeyt, disse que as negociações legislativas eram prematuras, argumentando que as actuais protecções de direitos de autor deveriam ser aplicadas. Ele disse que eles deveriam fazer o mercado funcionar, pois há clareza sobre o que a lei atual se aplica à IA generativa.

Preocupações com a desinformação

Além disso, LeGeyt advertido os senadores sobre o perigo que a desinformação gerada pela IA representa para o jornalismo. Ele continuou que usar a IA para manipular, adulterar ou apropriar-se indevidamente da imagem de personalidades confiáveis ​​corre o risco de espalhar desinformação ou fraude.

Carimbo de hora:

Mais de MetaNotícias