Wordt 2023 het jaar van dynamische desinfo-deepfakes, bedacht door schurkenstaten?

Wordt 2023 het jaar van dynamische desinfo-deepfakes, bedacht door schurkenstaten?

Bronknooppunt: 1906346

Van buitenlandse tegenstanders wordt verwacht dat ze AI-algoritmen gebruiken om steeds realistischere deepfakes te creëren en desinformatie te zaaien als onderdeel van militaire en inlichtingenoperaties naarmate de technologie verbetert.

Deepfakes beschrijven een soort inhoud die wordt gegenereerd door modellen voor machinaal leren die in staat zijn om iemands gezicht op realistische wijze op het lichaam van een ander te plakken. Ze kunnen de vorm hebben van afbeeldingen of video's en zijn ontworpen om mensen te laten geloven dat iemand iets heeft gezegd of gedaan wat zij niet hebben gedaan. De technologie wordt vaak gebruikt om valse pornografische video's van vrouwelijke beroemdheden te maken.

Naarmate de technologie vordert, worden de synthetische media echter ook gebruikt om desinformatie te verspreiden om politieke conflicten aan te wakkeren. Een video van de Oekraïense president Volodymyr Zelensky die er bij soldaten op aandrong hun wapens neer te leggen en zich over te geven, dook vorig jaar kort nadat Rusland het land was binnengevallen op. 

Zelensky ontkende dat hij zulke dingen had gezegd in een video die op Facebook was geplaatst. Socialemediabedrijven verwijderden de video's in een poging de verspreiding van valse informatie tegen te gaan.

Maar pogingen om deepfakes te creëren zullen blijven toenemen vanuit vijandelijke staten, volgens Onderzoekers op het gebied van AI en buitenlands beleid van de Northwestern University en het Brookings Institute in Amerika.

Een team van computerwetenschappers van de Northwestern University ontwikkelde eerder het Terrorism Reduction with Artificial Intelligence Deepfakes (TREAD)-algoritme dat een valse video met de dode ISIS-terrorist Mohammed al Adnani. 

“Het gemak waarmee deepfakes kunnen worden ontwikkeld voor specifieke individuen en doelen, evenals hun snelle beweging – meest recentelijk door een vorm van AI die bekend staat als stabiele diffusie – wijzen in de richting van een wereld waarin alle staten en niet-statelijke actoren het vermogen zullen hebben om gebruik deepfakes in hun beveiligings- en inlichtingenoperaties”, schrijven de auteurs van het rapport zei. "Beveiligingsfunctionarissen en beleidsmakers zullen zich dienovereenkomstig moeten voorbereiden."

Stabiele diffusiemodellen ondersteunen momenteel tekst-naar-afbeelding-modellen, die nepafbeeldingen genereren die in tekst door een gebruiker worden beschreven. Ze worden nu aangepast om ook valse video's te vervalsen en produceren steeds realistischer en overtuigender ogende inhoud. Buitenlandse tegenstanders zullen deze technologie ongetwijfeld gebruiken om desinformatiecampagnes op te zetten, nepnieuws te verspreiden om verwarring te zaaien, propaganda te verspreiden en online het vertrouwen te ondermijnen, aldus het rapport. 

De onderzoekers drongen er bij regeringen over de hele wereld op aan om beleid te implementeren dat het gebruik van deepfakes reguleert. "Op de lange termijn hebben we een wereldwijde overeenkomst nodig over het gebruik van deepfakes door defensie- en inlichtingendiensten", vertelde VS Subrahmanian, co-auteur van het rapport en professor computerwetenschappen aan de Northwestern University. Het register.

“Het zal moeilijk zijn om zo'n overeenkomst te krijgen, vooral van natiestaten met een vetorecht. Zelfs als een dergelijke overeenkomst wordt bereikt, zullen sommige landen deze waarschijnlijk verbreken. Een dergelijke overeenkomst moet daarom een ​​sanctiemechanisme bevatten om overtreders af te schrikken en te straffen.”

Het ontwikkelen van technologieën die deepfakes kunnen detecteren, zal niet voldoende zijn om desinformatie aan te pakken. "Het resultaat zal een kat-en-muisspel zijn, vergelijkbaar met dat van malware: wanneer cyberbeveiligingsbedrijven een nieuw soort malware ontdekken en handtekeningen ontwikkelen om het te detecteren, maken malware-ontwikkelaars 'tweaks' om de detector te omzeilen", aldus het rapport. . 

"De cyclus van detecteren-ontwijken-ontwijken speelt zich in de loop van de tijd af... Uiteindelijk kunnen we een eindpunt bereiken waarop detectie onhaalbaar of te rekenintensief wordt om snel en op grote schaal uit te voeren." ®

Tijdstempel:

Meer van Het register