2023 será o ano dos deepfakes de desinformação dinamite, preparados por estados desonestos?

2023 será o ano dos deepfakes de desinformação dinamite, preparados por estados desonestos?

Nó Fonte: 1906346

Espera-se que os adversários estrangeiros usem algoritmos de IA para criar deepfakes cada vez mais realistas e semear a desinformação como parte das operações militares e de inteligência à medida que a tecnologia melhora.

Deepfakes descrevem uma classe de conteúdo gerado por modelos de aprendizado de máquina capazes de colar o rosto de alguém no corpo de outra pessoa de forma realista. Eles podem estar na forma de imagens ou vídeos e são projetados para fazer as pessoas acreditarem que alguém disse ou fez algo que eles não fizeram. A tecnologia é frequentemente usada para fazer vídeos pornográficos falsos de celebridades femininas.

À medida que a tecnologia avança, no entanto, a mídia sintética também tem sido usada para espalhar desinformação para alimentar conflitos políticos. Um vídeo do presidente ucraniano, Volodymyr Zelensky, pedindo aos soldados que deponham as armas e se rendam, por exemplo, surgiu logo após a invasão da Rússia ao país, no ano passado. 

Zelensky negou ter dito tais coisas em um vídeo postado no Facebook. As empresas de mídia social removeram os vídeos na tentativa de impedir que informações falsas se espalhassem.

Mas os esforços para criar deepfakes continuarão a aumentar nos estados inimigos, de acordo com Pesquisadores de IA e política externa da Northwestern University e do Brookings Institute na América.

Uma equipe de cientistas da computação da Northwestern University desenvolveu anteriormente o algoritmo Redução do Terrorismo com Deepfakes de Inteligência Artificial (TREAD) demonstrando uma vídeo falsificado apresentando o terrorista ISIS morto Mohammed al Adnani. 

“A facilidade com que os deepfakes podem ser desenvolvidos para indivíduos e alvos específicos, bem como seu rápido movimento – mais recentemente por meio de uma forma de IA conhecida como difusão estável – apontam para um mundo em que todos os atores estatais e não estatais terão a capacidade de implantar deepfakes em suas operações de segurança e inteligência”, os autores do relatório dito. “Oficiais de segurança e formuladores de políticas precisarão se preparar adequadamente.”

Modelos de difusão estáveis ​​atualmente alimentam modelos de texto para imagem, que geram imagens falsas descritas em texto por um usuário. Eles agora estão sendo adaptados para forjar vídeos falsos também e estão produzindo conteúdo cada vez mais realista e de aparência convincente. Adversários estrangeiros sem dúvida usarão essa tecnologia para montar campanhas de desinformação, espalhando notícias falsas para semear confusão, fazer circular propaganda e minar a confiança online, de acordo com o relatório. 

Os pesquisadores instaram os governos de todo o mundo a implementar políticas que regulem o uso de deepfakes. “A longo prazo, precisamos de um acordo global sobre o uso de deepfakes por agências de defesa e inteligência”, disse VS Subrahmanian, coautor do relatório e professor de ciência da computação na Northwestern University. O registro.

“Obter tal acordo será difícil, especialmente de estados-nação com poder de veto. Mesmo que tal acordo seja alcançado, alguns países provavelmente o quebrarão. Tal acordo, portanto, precisa incluir um mecanismo de sanções para deter e punir os infratores”.

Desenvolver tecnologias capazes de detectar deepfakes não será suficiente para combater a desinformação. “O resultado será um jogo de gato e rato semelhante ao visto com malware: quando as empresas de segurança cibernética descobrem um novo tipo de malware e desenvolvem assinaturas para detectá-lo, os desenvolvedores de malware fazem 'ajustes' para escapar do detector”, disse o relatório. . 

“O ciclo detectar-evitar-detectar-evitar se desenvolve ao longo do tempo... Eventualmente, podemos chegar a um ponto final em que a detecção se torna inviável ou computacionalmente intensiva demais para ser realizada rapidamente e em escala.” ®

Carimbo de hora:

Mais de O registro