محاربة الذكاء الاصطناعي مع مراقبة الاحتيال بالذكاء الاصطناعي لتطبيقات التزييف العميق - KDnuggets

محاربة الذكاء الاصطناعي بمراقبة الاحتيال بالذكاء الاصطناعي لتطبيقات التزييف العميق - KDnuggets

عقدة المصدر: 2667255
مكافحة الذكاء الاصطناعي من خلال مراقبة الاحتيال باستخدام الذكاء الاصطناعي لتطبيقات Deepfake
تصوير تيما ميروشنيشنكو
 

لقد كانت تقنية Deepfakes موضوعًا كبيرًا للنقاش في مجتمع علوم البيانات منذ عدة سنوات. مرة أخرى في عام 2020، مراجعة التكنولوجيا من معهد ماساتشوستس للتكنولوجيا افترض أن مزيفة عميقة وصلت إلى "نقطة التحول للاستخدام السائد".

البيانات تدعم ذلك بالتأكيد. ال Wall Street Journal ذكرت أنه تم العثور على أقل من 10,000 صورة مزيفة على الإنترنت في عام 2018. وتصل هذه الأرقام الآن إلى الملايين، وهناك العديد من الأمثلة الواقعية على الصور المزيفة العميقة التي يتم استخدامها للتشويش والتضليل ولإدامة الاحتيال المالي. 

توفر تقنيات Deepfake لمجرمي الإنترنت العديد من الخيارات المعقدة.

إنهم يذهبون إلى ما هو أبعد من مجرد القدرة على إدراج صورة أحد المشاهير في المواد الترويجية لعرض بيتكوين "لا يمكن تفويته"، والذي - بالطبع - يتبين أنه عملية احتيال. مقاطع الفيديو المزيفة بعمق، على وجه الخصوص، تقع على رادار المحتالين. إنهم يزودونهم بطريقة لاجتياز عمليات التحقق من الهوية وKYC الآلية وقد أثبتوا فعاليتهم بشكل مخيف.

في شهر مايو شنومك، وشك تم كتابة تقرير بذلك "اختبارات الحيوية"التي تستخدمها البنوك والمؤسسات الأخرى للمساعدة في التحقق من هويات المستخدمين يمكن خداعها بسهولة عن طريق التزييف العميق. وجدت الدراسة ذات الصلة أن 90% من أنظمة التحقق من الهوية التي تم اختبارها كانت ضعيفة.

إذن ما هو الجواب؟ هل ندخل عصرًا حيث يمكن لمجرمي الإنترنت استخدام تكنولوجيا التزييف العميق بسهولة للتغلب على التدابير الأمنية التي تستخدمها المؤسسات المالية؟ هل سيتعين على هذه الشركات التخلص من أنظمتها الآلية والعودة إلى الفحوصات البشرية اليدوية؟

الجواب البسيط هو "ربما لا". مثلما يمكن للمجرمين الاستفادة من الطفرة في تطورات الذكاء الاصطناعيوكذلك الشركات التي يستهدفونها. دعونا الآن نلقي نظرة على كيفية قيام الشركات الضعيفة بمحاربة الذكاء الاصطناعي باستخدام الذكاء الاصطناعي.

يتم إنتاج Deepfakes باستخدام مجموعة من تقنيات الذكاء الاصطناعي، مثل:

  • شبكات الخصومة التوليدية (GANs) 
  • أزواج التشفير/فك التشفير
  • نماذج الحركة من الدرجة الأولى

قد تبدو هذه التقنيات، في ظاهر الأمر، وكأنها حكر حصري على مجتمع التعلم الآلي، مع وجود عوائق عالية أمام الدخول والحاجة إلى المعرفة التقنية المتخصصة. ومع ذلك، مثل العناصر الأخرى للذكاء الاصطناعي، فقد أصبح الوصول إليها أكثر سهولة مع مرور الوقت.

تسمح الآن الأدوات منخفضة التكلفة والجاهزة للمستخدمين غير التقنيين بإنشاء عمليات تزييف عميقة، تمامًا كما يمكن لأي شخص الاشتراك في OpenAI واختبار قدرات ChatGPT.

في عام 2020، أفاد المنتدى الاقتصادي العالمي أن تكلفة إنتاج "مثال رائع من الفن"سعر التزييف العميق أقل من 30,000 ألف دولار. لكن في عام 2023، كشف الأستاذ في مدرسة وارتون، إيثان موليك، عبر منشور سريع الانتشار على تويتر، أنه أنتج كتابًا فيديو مزيف عميق من نفسه وهو يلقي محاضرة في أقل من ست دقائق.

بلغ إجمالي إنفاق موليك 10.99 دولارًا. استخدم خدمة تسمى ElevenLabs لتقليد صوته بشكل مثالي تقريبًا، مقابل تكلفة قدرها 5 دولارات. خدمة أخرى تسمى D-ID، بسعر 5.99 دولارًا شهريًا، أنتجت مقطع فيديو يعتمد على نص وصورة واحدة فقط. حتى أنه استخدم ChatGPT لإنشاء البرنامج النصي نفسه.

عندما بدأت تقنية التزييف العميق في الظهور لأول مرة، كان التركيز الأساسي على مقاطع الفيديو السياسية المزيفة (والمواد الإباحية المزيفة). ومنذ ذلك الحين شهد العالم:

  • تنشئ BuzzFeedVideos إعلان خدمة عامة مزيفًا عميقًا "يضم" باراك أوباما، مقلدًا الممثل جوردون بيل.
  • مقطع فيديو مزيف عميق على موقع يوتيوب يُزعم أنه يُظهر دونالد ترامب وهو يروي قصة عن حيوان الرنة.
  • تم عرض مقطع فيديو مزيف عميق لهيلاري كلينتون في Saturday Night Live، عندما كان في الواقع ينتحل شخصيتها من قبل أحد أعضاء فريق التمثيل.

في حين أن هذه الأمثلة تُظهر الجانب "الممتع" من التزييف العميق، وربما تقدم هزة من الواقع فيما يتعلق بقدرات التكنولوجيا، فإن المحتالين لم يضيعوا أي وقت في استخدامها لأغراض شائنة. 

هناك العديد من الأمثلة الواقعية على عمليات الاحتيال التي تتم باستخدام تقنيات التزييف العميق.

تتراوح الخسائر الناجمة عن عمليات الاحتيال الوهمية العميقة من مئات الآلاف إلى عدة ملايين. في عام 2021، تم استخدام عملية احتيال لاستنساخ الصوت بالذكاء الاصطناعي لترتيب تحويلات مصرفية احتيالية بقيمة 35 مليون دولار. لقد كانت هذه مكافأة مالية ضخمة لم تحدث حتى تطلب استخدام الفيديو.

يمكن أن تختلف جودة مخرجات الذكاء الاصطناعي، وخاصة الفيديو، بشكل كبير. من الواضح أن بعض مقاطع الفيديو مزيفة للبشر. ولكن كما ذكرنا أعلاه، فقد ثبت في الماضي أن الأنظمة الآلية، مثل تلك التي تستخدمها البنوك وشركات التكنولوجيا المالية، يمكن خداعها بسهولة.

ومن المرجح أن يتغير التوازن أكثر مع استمرار تحسن قدرات الذكاء الاصطناعي. التطور الأخير هو دمج "الطب الشرعي المضاد"، حيث تتم إضافة "الضوضاء" غير المرئية المستهدفة إلى التزييف العميق، في محاولة لخداع آليات الكشف.

فما الذي يمكن عمله؟

مثلما يسعى المحتالون إلى استخدام أحدث تقنيات الذكاء الاصطناعي لتحقيق مكاسب مالية، فإن الشركات مثل شركات التكنولوجيا تعمل جاهدة لإيجاد طرق للاستفادة من التكنولوجيا للقبض على المجرمين.

فيما يلي بعض الأمثلة على الشركات التي تستخدم الذكاء الاصطناعي لمحاربة الذكاء الاصطناعي:

وفي أواخر عام 2022، أطلقت إنتل أداة تعتمد على الذكاء الاصطناعي تسمى “مزيف". ومع معدل موثوقية إنتل الذي يبلغ 96%، فإنها تستخدم تقنية تُعرف باسم تخطيط التحجم الضوئي (PPG).

تستخدم هذه التقنية شيئًا غير موجود في مقاطع الفيديو المصطنعة: تدفق الدم. تم تدريبه على مقاطع فيديو مشروعة، وتقوم خوارزمية التعلم العميق الخاصة به بقياس الضوء الذي تمتصه أو تنعكسه الأوعية الدموية، والتي يتغير لونها مع تحرك الدم في جميع أنحاء الجسم.

يوصف برنامج FakeCatcher، وهو جزء من مبادرة الذكاء الاصطناعي المسؤول من شركة إنتل، بأنه "أول كاشف للتزوير العميق في العالم في الوقت الحقيقي والذي يُرجع النتائج بالمللي ثانية". إنها تقنية مبتكرة تبحث عن علامات تشير إلى أن الشخص الذي يظهر في الفيديو هو إنسان حقًا. فهو يبحث عن شيء "صحيح"، بدلاً من تحليل البيانات لتسليط الضوء على شيء "خطأ". هذه هي الطريقة التي تشير إلى احتمالية التزييف.

وفي الوقت نفسه، يعمل علماء الكمبيوتر في جامعة بوفالو (UB) على تقنية خاصة بهم للكشف عن التزييف العميق. إنه يستخدم شيئًا يعرفه لاعبو الكمبيوتر الشخصي أنه يتطلب قوة معالجة هائلة لمحاكاته: الضوء.

تزعم شركة UB أنها فعالة بنسبة 94٪ في الصور المزيفة، حيث تبحث أداة الذكاء الاصطناعي في كيفية انعكاس الضوء في عيون الشخص المراد تصويره. يعمل سطح القرنية كمرآة، ويولد "أنماط عاكسة".

تشير دراسة العلماء، التي تحمل عنوان "كشف الوجوه التي تم إنشاؤها بواسطة GAN باستخدام إبرازات قرنية غير متناسقة"، إلى أن "الوجوه المركبة من GAN يمكن تعريضها لإبرازات قرنية غير متناسقة بين عينين".

ويشير إلى أنه سيكون من "السهل" أن تقوم أنظمة الذكاء الاصطناعي بمحاكاة الميزات الحقيقية. لاعبو الكمبيوتر الشخصي، الذين يستثمرون غالبًا في أحدث بطاقات الرسومات لتتبع الأشعة من أجل تجربة تأثيرات الإضاءة الواقعية، سوف يدركون غريزيًا التحديات هنا.

ربما يكون التحدي الأكبر في الكشف عن الاحتيال هو لعبة "القط والفأر" التي لا نهاية لها بين المحتالين وأولئك الذين يعملون على إحباطهم. من المحتمل جدًا، في أعقاب إعلانات مثل تلك المذكورة أعلاه، أن يعمل الأشخاص بالفعل على بناء تقنيات يمكنها تجاوز آليات الكشف هذه والتغلب عليها.

إن وجود مثل هذه الآليات هو أيضًا شيء، ولكن رؤيتها مدمجة بشكل روتيني في الحلول التي تستخدمها الشركات شيء آخر. لقد أشرنا سابقًا إلى إحصائية تشير إلى أن 90% من الحلول يمكن "خداعها بسهولة". ومن المحتمل أن بعض المؤسسات المالية على الأقل لا تزال تستخدم مثل هذه الأنظمة.

حكيم مراقبة الاحتيال تتطلب الإستراتيجية من الشركات أن تنظر إلى ما هو أبعد من اكتشاف التزييف العميق بنفسها. يمكن فعل الكثير قبل يصل المحتال إلى حد كافٍ في النظام للمشاركة في عملية التحقق من الهوية المستندة إلى الفيديو أو عملية KYC. قد تتضمن الاحتياطات التي تجد مكانًا لها في وقت مبكر من العملية أيضًا عنصرًا من الذكاء الاصطناعي والتعلم الآلي.

على سبيل المثال، يمكن استخدام التعلم الآلي لرصد الاحتيال في الوقت الفعلي وإنشاء مجموعات القواعد. ويمكن لهذه الأجهزة النظر في أحداث الاحتيال التاريخية، والكشف عن الأنماط التي يمكن أن يفوتها الإنسان بسهولة. يمكن رفض المعاملات التي تعتبر عالية المخاطر بشكل مباشر، أو تمريرها للمراجعة اليدوية حتى قبل أن تصل مرحلة قد يتم فيها التحقق من الهوية – وبالتالي فرصة للمحتال للاستفادة من تقنية التزييف العميق.

كلما اكتشف النظام مجرمًا إلكترونيًا مبكرًا، كان ذلك أفضل. هناك فرصة أقل لارتكاب جريمة ما، كما أن احتمال إنفاق الشركة على المزيد من الفحوصات أقل. تعد عمليات التحقق من الهوية عبر الفيديو مكلفة، حتى بدون دمج تقنية الذكاء الاصطناعي للكشف عن التزييف العميق.

إذا كان من الممكن التعرف على المحتالين قبل أن يصلوا إلى هذا الحد، باستخدام تقنيات مثل البصمة الرقمية، فسيكون هناك المزيد من الموارد المتاحة لتحسين عمليات التحقق من المزيد من الحالات الحدودية.

يجب أن تملي طبيعة التعلم الآلي أنه بمرور الوقت، يصبح أفضل في اكتشاف الحالات الشاذة ومكافحة الاحتيال. يمكن للأنظمة التي تعمل بالذكاء الاصطناعي أن تتعلم من الأنماط الجديدة وربما تصفية المعاملات الاحتيالية في مرحلة مبكرة من العملية.

عندما يتعلق الأمر بالتزييف العميق على وجه التحديد، فإن المثال أعلاه يعطي سببًا خاصًا للأمل. لقد وجد العلماء طريقة لاكتشاف الغالبية العظمى من التزييف العميق باستخدام انعكاسات الضوء. تمثل مثل هذه التطورات خطوة كبيرة إلى الأمام في منع الاحتيال وعائقًا كبيرًا أمام مجرمي الإنترنت.

من الناحية النظرية، يعد نشر تكنولوجيا الكشف هذه أسهل بكثير من قيام المحتالين بإيجاد طريقة للتحايل عليها - تكرار سلوك الضوء، على سبيل المثال، بسرعة وعلى نطاق واسع. ويبدو من المرجح أن تستمر لعبة "القط والفأر" إلى الأبد، لكن شركات التكنولوجيا الكبرى وشركات التمويل الكبرى تمتلك الموارد والجيوب العميقة التي تمكنها - من الناحية النظرية على الأقل - من البقاء في المقدمة بخطوة صغيرة.
 
 
جيمي فونغ هو المدير التنفيذي للعمليات في SEON ويقدم خبرته المتعمقة في مكافحة الاحتيال لمساعدة فرق الاحتيال في كل مكان.
 

الطابع الزمني:

اكثر من KD nuggets