OpenAI descarta uso em eleições e supressão de eleitores

OpenAI descarta uso em eleições e supressão de eleitores

Nó Fonte: 3073710

Num movimento decisivo para combater a desinformação nas eleições, a OpenAI declarou um postura rigorosa contra o uso de suas ferramentas generativas de IA em campanhas eleitorais e táticas de supressão de eleitores.

Este anúncio constitui um passo essencial para garantir a integridade de inúmeras eleições importantes agendadas para 2024.

Veja também: OpenAI negocia licenciamento de conteúdo de notícias com CNN, Fox e Time

Combater o uso indevido com inovação e políticas

A OpenAI iniciou uma estratégia para proteger a sua tecnologia de ser explorada para manipular os resultados eleitorais. A empresa estabeleceu uma equipe especializada com foco em questões relacionadas às eleições, mesclando a experiência de vários departamentos, incluindo jurídico, engenharia e política. O objetivo principal desta equipa é identificar e mitigar o potencial abuso da IA ​​nas eleições.

“Temos um esforço multifuncional dedicado ao trabalho eleitoral, reunindo a experiência de nossas equipes de sistemas de segurança, inteligência de ameaças, jurídica, engenharia e política.”

A ameaça da desinformação na política não é nova, mas o advento da tecnologia de IA apresenta desafios sem precedentes. Reconhecendo isto, a OpenAI está a tomar medidas proativas. A empresa planeja empregar uma combinação de técnicas, como red teaming, envolvimento do usuário e proteções de segurança. Especificamente, sua imagem ferramenta de geração, DALL-E, foi atualizado para evitar a criação de imagens representando pessoas reais, incluindo candidatos políticos.

“O DALL·E possui proteções para recusar solicitações que solicitem a geração de imagens de pessoas reais, inclusive de candidatos.”

A OpenAI revisa continuamente suas políticas de usuário para acompanhar o cenário em evolução da tecnologia de IA e seu potencial uso indevido. As suas políticas de segurança atualizadas restringem agora explicitamente o desenvolvimento de aplicações de IA para campanhas políticas e lobbying. Além disso, foram implementadas medidas para impedir a criação de chatbots que imitem pessoas ou organizações reais.

Aumentando a transparência e a responsabilidade

Um componente chave da estratégia da OpenAI é a introdução de um classificador de proveniência para a sua ferramenta DALL-E. Este recurso, atualmente em teste beta, pode detectar imagens geradas pelo DALL-E. A empresa pretende tornar esta ferramenta acessível a jornalistas, plataformas e investigadores para aumentar a transparência no conteúdo gerado por IA.

“Planejamos disponibilizá-lo em breve ao nosso primeiro grupo de testadores – incluindo jornalistas, plataformas e pesquisadores – para feedback.”

A OpenAI também está integrando reportagens de notícias em tempo real em ChatGPT. Esta integração visa fornecer aos utilizadores informações precisas e oportunas, aumentando a transparência em torno das fontes de informação fornecidas pela IA.

Num esforço conjunto com a Associação Nacional de Secretários de Estado dos EUA, a OpenAI está focada em evitar que a sua tecnologia desencoraje a participação eleitoral. O trabalho em equipe envolve direcionar os usuários do chatbot com tecnologia GPT para sites confiáveis ​​de informações sobre votação, como CanIVote.org.

Rivais seguem o exemplo na corrida da IA

O anúncio da OpenAI abriu um precedente na indústria de IA, com rivais como Google LLC e Meta Platforms Inc. também implementando medidas para combater a disseminação de desinformação através de suas tecnologias. Este esforço colectivo dos líderes da indústria significa uma crescente consciência e responsabilidade relativamente ao potencial impacto da IA ​​nos processos democráticos.

Mas isso é suficiente? Charles King, da Pund-IT Inc., levanta um ponto crítico, questionando se estas medidas são oportunas ou reativas. Ele argumenta que as preocupações com a desinformação gerada pela IA existem há anos, e o recente anúncio da OpenAI pode ser visto como muito pouco, muito tarde. Esta perspectiva provoca uma reflexão mais profunda sobre o papel e a responsabilidade dos desenvolvedores de IA no cenário político.

“Então, na melhor das hipóteses, este anúncio sugere que a OpenAI estava adormecida na mudança. Mas, na pior das hipóteses, assemelha-se a um ritual de lavagem das mãos que a OpenAI pode apontar quando a IA generativa atinge o ventilador durante as próximas eleições globais deste ano.”

Carimbo de hora:

Mais de MetaNotícias