Чи стане 2023 рік роком глибоких фейків дезінформації, створених державами-ізгоями?

Чи стане 2023 рік роком глибоких фейків дезінформації, створених державами-ізгоями?

Вихідний вузол: 1906346

Очікується, що іноземні вороги використовуватимуть алгоритми штучного інтелекту для створення все більш реалістичних дипфейків і поширення дезінформації в рамках військових і розвідувальних операцій у міру вдосконалення технології.

Deepfakes описує клас вмісту, створеного моделями машинного навчання, здатними реалістично вставляти чиєсь обличчя на тіло іншої людини. Вони можуть бути у формі зображень або відео та створені, щоб змусити людей повірити, що хтось сказав або зробив те, чого вони не зробили. Ця технологія часто використовується для створення фальшивих порнографічних відео зі знаменитостями.

Однак у міру розвитку технологій синтетичні медіа також використовувалися для поширення дезінформації з метою розпалювання політичних конфліктів. Відео, на якому президент України Володимир Зеленський закликає солдатів скласти зброю та здатися, наприклад, з’явилося невдовзі після того, як Росія вторглася в країну минулого року. 

Зеленський заперечив, що говорив подібне на відео, опублікованому у Facebook. Компанії соціальних мереж видалили відео, намагаючись зупинити поширення неправдивої інформації.

Але зусилля щодо створення глибоких фейків з боку ворожих держав продовжуватимуть збільшуватися, відповідно до ШІ та дослідники зовнішньої політики з Північно-Західного університету та Інституту Брукінгса в Америці.

Команда комп’ютерних вчених із Північно-Західного університету раніше розробила алгоритм зменшення тероризму за допомогою штучного інтелекту Deepfakes (TREAD), демонструючи підроблене відео із зображенням загиблого терориста ІДІЛ Мохаммеда аль-Аднані. 

«Легкість, з якою дипфейки можна розробити для конкретних осіб і цілей, а також їх швидке переміщення — нещодавно через форму штучного інтелекту, відому як стабільна дифузія — вказують на світ, у якому всі держави та недержавні актори матимуть можливість розгортають дипфейки у своїх операціях з безпеки та розвідки», – автори звіту сказав. «Співробітникам служби безпеки та політикам потрібно підготуватися відповідним чином».

Стабільні дифузійні моделі наразі підтримують моделі тексту в зображення, які генерують фальшиві зображення, описані користувачем у тексті. Тепер їх адаптують також для підробки фальшивих відео та створюють все більш реалістичний і переконливий контент. Згідно зі звітом, іноземні вороги, без сумніву, використовуватимуть цю технологію для проведення кампаній дезінформації, поширення фейкових новин, щоб посіяти плутанину, поширити пропаганду та підірвати довіру в Інтернеті. 

Дослідники закликали уряди в усьому світі запровадити політику, що регулює використання дипфейків. «У довгостроковій перспективі нам потрібна глобальна угода щодо використання дипфейків оборонними та розвідувальними службами», — сказав VS Subrahmanian, співавтор звіту та професор інформатики Північно-західного університету. Реєстр.

«Отримати таку угоду буде важко, особливо від національних держав, які володіють правом вето. Навіть якщо така угода буде досягнута, деякі країни, ймовірно, її порушать. Тому така угода повинна містити механізм санкцій для стримування та покарання порушників».

Розробки технологій, здатних виявляти глибокі фейки, буде недостатньо для боротьби з дезінформацією. «Результатом буде гра в кішки-мишки, подібна до тієї, що спостерігається зі зловмисним програмним забезпеченням: коли фірми з кібербезпеки виявляють новий вид шкідливого програмного забезпечення та розробляють сигнатури для його виявлення, розробники шкідливого програмного забезпечення роблять «налаштування», щоб уникнути детектора», — йдеться у звіті. . 

«Цикл виявлення-ухилення-виявлення-ухилення відбувається з часом... Зрештою ми можемо досягти кінцевої точки, де виявлення стане неможливим або занадто інтенсивним для обчислень, щоб виконати його швидко та в масштабі». ®

Часова мітка:

Більше від Реєстр