Bliver 2023 året for dynamit-disinfo-deepfakes, tilberedt af slyngelstater?

Bliver 2023 året for dynamit-disinfo-deepfakes, tilberedt af slyngelstater?

Kildeknude: 1906346

Udenlandske modstandere forventes at bruge AI-algoritmer til at skabe mere og mere realistiske deepfakes og så desinformation som en del af militær- og efterretningsoperationer, efterhånden som teknologien forbedres.

Deepfakes beskriver en klasse af indhold, der er genereret af maskinlæringsmodeller, der er i stand til realistisk at indsætte en andens ansigt på en andens krop. De kan være i form af billeder eller videoer og er designet til at få folk til at tro, at nogen har sagt eller gjort noget, de ikke har. Teknologien bruges ofte til at lave falske pornografiske videoer af kvindelige berømtheder.

Efterhånden som teknologien udvikler sig, er de syntetiske medier imidlertid også blevet brugt til at sprede desinformation for at sætte skub i politiske konflikter. En video af den ukrainske præsident Volodymyr Zelensky, der opfordrer soldater til at lægge deres våben og overgive sig, dukkede for eksempel op kort efter, at Rusland invaderede landet, sidste år. 

Zelensky nægtede, at han havde sagt sådanne ting i en video, der blev lagt på Facebook. Sociale medievirksomheder fjernede videoerne i et forsøg på at forhindre, at falsk information spredes.

Men indsatsen for at skabe deepfakes vil fortsætte med at stige fra fjendens stater, efter AI og udenrigspolitiske forskere fra Northwestern University og Brookings Institute i Amerika.

Et team af dataloger fra Northwestern University har tidligere udviklet Terrorism Reduction with Artificial Intelligence Deepfakes (TREAD)-algoritmen, der demonstrerer en falsk video med den døde ISIS-terrorist Mohammed al Adnani. 

"Den lethed, hvormed deepfakes kan udvikles til specifikke individer og mål, såvel som deres hurtige bevægelse - senest gennem en form for AI kendt som stabil diffusion - peger mod en verden, hvor alle stater og ikke-statslige aktører vil have kapacitet til at implementere deepfakes i deres sikkerheds- og efterretningsoperationer,” rapportens forfattere sagde. "Sikkerhedsembedsmænd og politiske beslutningstagere bliver nødt til at forberede sig i overensstemmelse hermed."

Stabile diffusionsmodeller driver i øjeblikket tekst-til-billede-modeller, som genererer falske billeder beskrevet i tekst af en bruger. De bliver nu også tilpasset til at skabe falske videoer og producerer stadig mere realistisk og overbevisende udseende indhold. Udenlandske modstandere vil uden tvivl bruge denne teknologi til at igangsætte desinformationskampagner, sprede falske nyheder for at så forvirring, cirkulere propaganda og underminere tillid online, ifølge rapporten. 

Forskerne opfordrede regeringer over hele verden til at implementere politikker, der regulerer brugen af ​​deepfakes. "I det lange løb har vi brug for en global aftale om brugen af ​​deepfakes af forsvars- og efterretningstjenester," fortalte VS Subrahmanian, medforfatter af rapporten og professor i datalogi ved Northwestern University. Registret.

"Det vil være svært at få sådan en aftale, især fra nationalstater, der har veto. Selv hvis en sådan aftale bliver indgået, vil nogle lande sandsynligvis bryde den. En sådan aftale skal derfor omfatte en sanktionsmekanisme for at afskrække og straffe lovovertrædere."

At udvikle teknologier, der er i stand til at detektere deepfakes, vil ikke være nok til at tackle desinformation. "Resultatet vil være et kat-og-mus-spil, der ligner det, der ses med malware: Når cybersikkerhedsfirmaer opdager en ny slags malware og udvikler signaturer til at opdage det, laver malware-udviklere 'tweaks' for at undgå detektoren," hedder det i rapporten. . 

"Opdag-undgå-opdag-undgå-cyklussen udspiller sig over tid ... Til sidst kan vi nå et slutpunkt, hvor detektion bliver umuligt eller for beregningsintensivt til at udføre hurtigt og i skala." ®

Tidsstempel:

Mere fra Registret