Va fi 2023 anul dezinfo-urilor dinamite, gătite de state necinstite?

Va fi 2023 anul dezinfo-urilor dinamite, gătite de state necinstite?

Nodul sursă: 1906346

Se așteaptă ca adversarii străini să folosească algoritmi de inteligență artificială pentru a crea falsuri profunde din ce în ce mai realiste și pentru a semăna dezinformarea ca parte a operațiunilor militare și de informații pe măsură ce tehnologia se îmbunătățește.

Deepfake-urile descriu o clasă de conținut generată de modele de învățare automată capabilă să lipească fața cuiva pe corpul altei persoane în mod realist. Ele pot fi sub formă de imagini sau videoclipuri și sunt concepute pentru a-i face pe oameni să creadă că cineva a spus sau a făcut ceva ce nu a făcut. Tehnologia este adesea folosită pentru a realiza videoclipuri pornografice false ale celebrităților feminine.

Pe măsură ce tehnologia avansează, totuși, mass-media sintetică a fost folosită și pentru a răspândi dezinformarea pentru a alimenta conflictele politice. Un videoclip cu președintele ucrainean Volodimir Zelenski îndemnând soldații să depună armele și să se predea, de exemplu, a apărut la scurt timp după ce Rusia a invadat țara, anul trecut. 

Zelensky a negat că ar fi spus astfel de lucruri într-un videoclip postat pe Facebook. Companiile de rețele de socializare au eliminat videoclipurile în încercarea de a opri răspândirea informațiilor false.

Dar eforturile de a crea deepfake-uri vor continua să crească din partea statelor inamice, în conformitate cu Cercetători în domeniul inteligenței artificiale și al politicii externe de la Universitatea Northwestern și Institutul Brookings din America.

O echipă de informaticieni de la Universitatea Northwestern a dezvoltat anterior algoritmul de reducere a terorismului cu inteligență artificială Deepfakes (TREAD) care demonstrează o video contrafăcut cu teroristul mort ISIS Mohammed al Adnani. 

„Ușurința cu care deepfake-urile pot fi dezvoltate pentru anumite persoane și ținte, precum și mișcarea lor rapidă – cel mai recent printr-o formă de IA cunoscută sub numele de difuzie stabilă – indică o lume în care toate statele și actorii nestatali vor avea capacitatea de a implementează deepfakes în operațiunile lor de securitate și informații”, autorii raportului a spus. „Oficialii de securitate și factorii de decizie vor trebui să se pregătească în consecință.”

Modelele de difuzie stabilă alimentează în prezent modele text-to-image, care generează imagini false descrise în text de către un utilizator. Acum sunt adaptați pentru a crea și videoclipuri false și produc conținut din ce în ce mai realist și cu aspect convingător. Adversarii străini vor folosi fără îndoială această tehnologie pentru a organiza campanii de dezinformare, răspândind știri false pentru a semăna confuzie, a face propagandă și a submina încrederea online, potrivit raportului. 

Cercetătorii au îndemnat guvernele din întreaga lume să implementeze politici care reglementează utilizarea deepfake-urilor. „Pe termen lung, avem nevoie de un acord global privind utilizarea deepfake-urilor de către agențiile de apărare și informații”, a declarat VS Subrahmanian, coautor al raportului și profesor de informatică la Universitatea Northwestern. Registrul.

„Obținerea unui astfel de acord va fi dificilă, mai ales din partea statelor naționale care au drept de veto. Chiar dacă se ajunge la un astfel de acord, unele țări probabil îl vor încălca. Prin urmare, un astfel de acord trebuie să includă un mecanism de sancțiuni care să descurajeze și să pedepsească infractorii.”

Dezvoltarea de tehnologii capabile să detecteze deepfake-urile nu va fi suficientă pentru a combate dezinformarea. „Rezultatul va fi un joc pisica și șoarecele similar cu cel observat cu malware: când firmele de securitate cibernetică descoperă un nou tip de malware și dezvoltă semnături pentru a-l detecta, dezvoltatorii de malware fac „ajustări” pentru a evita detectorul”, se spune în raport. . 

„Ciclul detect-evada-detect-evade se desfășoară în timp... În cele din urmă, putem ajunge la un punct final în care detectarea devine imposibilă sau prea intensă din punct de vedere computațional pentru a fi efectuată rapid și la scară.” ®

Timestamp-ul:

Mai mult de la Registrul