هل سيكون عام 2023 عام إزالة التزييف العميق للديناميت ، الذي تم طهيه من قبل الدول المارقة؟

هل سيكون عام 2023 عام إزالة التزييف العميق للديناميت ، الذي تم طهيه من قبل الدول المارقة؟

عقدة المصدر: 1906346

من المتوقع أن يستخدم الخصوم الأجانب خوارزميات الذكاء الاصطناعي لإنشاء تزوير واقعي بشكل متزايد وزرع المعلومات المضللة كجزء من العمليات العسكرية والاستخباراتية مع تحسن التكنولوجيا.

يصف Deepfakes فئة المحتوى التي تم إنشاؤها بواسطة نماذج التعلم الآلي القادرة على لصق وجه شخص ما على جسم شخص آخر بشكل واقعي. يمكن أن تكون في شكل صور أو مقاطع فيديو ، وهي مصممة لجعل الناس يعتقدون أن شخصًا ما قال أو فعل شيئًا لم يفعله. غالبًا ما تُستخدم التكنولوجيا لصنع مقاطع فيديو إباحية كاذبة لمشاهير إناث.

ومع تقدم التكنولوجيا ، تم استخدام وسائل الإعلام التركيبية أيضًا لنشر معلومات مضللة لتأجيج الصراعات السياسية. ظهر مقطع فيديو للرئيس الأوكراني فولوديمير زيلينسكي وهو يحث الجنود على إلقاء أسلحتهم والاستسلام ، على سبيل المثال ، بعد وقت قصير من غزو روسيا للبلاد ، العام الماضي. 

ونفى زيلينسكي أنه قال مثل هذه الأشياء في مقطع فيديو نُشر على فيسبوك. قامت شركات التواصل الاجتماعي بإزالة مقاطع الفيديو في محاولة لمنع انتشار المعلومات الكاذبة.

لكن الجهود المبذولة لإنشاء تقنية التزييف العميق ستستمر في الازدياد من قبل الدول المعادية ، بالنسبة الى باحثو الذكاء الاصطناعي والسياسة الخارجية من جامعة نورث وسترن ومعهد بروكينغز في أمريكا.

قام فريق من علماء الكمبيوتر من جامعة نورث وسترن سابقًا بتطوير خوارزمية الحد من الإرهاب باستخدام الذكاء الاصطناعي Deepfakes (TREAD) لإظهار فيديو مزيف يظهر القتيل إرهابي داعش محمد العدناني. 

"السهولة التي يمكن بها تطوير تقنية التزييف العميق لأفراد وأهداف محددين ، بالإضافة إلى حركتهم السريعة - مؤخرًا من خلال شكل من أشكال الذكاء الاصطناعي يُعرف بالانتشار المستقر - تشير إلى عالم تتمتع فيه جميع الدول والجهات الفاعلة غير الحكومية بالقدرة على نشر تقنية التزييف العميق في عملياتهم الأمنية والاستخباراتية " محمد. "سيتعين على مسؤولي الأمن وصانعي السياسات الاستعداد وفقًا لذلك."

تعمل نماذج الانتشار المستقر حاليًا على تشغيل نماذج تحويل النص إلى صورة ، والتي تولد صورًا مزيفة موصوفة في النص من قبل المستخدم. يتم الآن تكييفها لتزوير مقاطع فيديو كاذبة أيضًا وتنتج محتوى واقعيًا ومقنعًا بشكل متزايد. لا شك أن الخصوم الأجانب سيستخدمون هذه التكنولوجيا لشن حملات تضليل ونشر أخبار كاذبة لبث الارتباك ونشر الدعاية وتقويض الثقة عبر الإنترنت ، وفقًا للتقرير. 

وحث الباحثون الحكومات في جميع أنحاء العالم على تنفيذ سياسات تنظم استخدام تقنية التزييف العميق. قال VS Subrahmanian ، المؤلف المشارك للتقرير وأستاذ علوم الكمبيوتر في جامعة نورث وسترن: "على المدى الطويل ، نحتاج إلى اتفاقية عالمية بشأن استخدام التزييف العميق من قبل وكالات الدفاع والاستخبارات" السجل.

"الحصول على مثل هذا الاتفاق سيكون صعبا ، لا سيما من الدول التي تتمتع بحق النقض. حتى إذا تم التوصل إلى مثل هذا الاتفاق ، فمن المحتمل أن تقوم بعض الدول بخرقه. لذلك يجب أن تتضمن مثل هذه الاتفاقية آلية عقوبات لردع ومعاقبة المخالفين ".

لن يكون تطوير التقنيات القادرة على اكتشاف التزييف العميق كافياً لمعالجة المعلومات المضللة. وقال التقرير: "ستكون النتيجة لعبة قط وفأر مشابهة لتلك التي شوهدت مع البرامج الضارة: عندما تكتشف شركات الأمن السيبراني نوعًا جديدًا من البرامج الضارة وتطور توقيعات لاكتشافها ، يقوم مطورو البرامج الضارة بإجراء" تعديلات "لتجنب الكاشف". . 

"تبدأ دورة التهرب من الكشف والتهرب والكشف والتهرب بمرور الوقت ... في النهاية ، قد نصل إلى نقطة نهاية حيث يصبح الاكتشاف غير مجدٍ أو مكثفًا من الناحية الحسابية بحيث لا يمكن تنفيذه بسرعة وعلى نطاق واسع." ®

الطابع الزمني:

اكثر من السجل