تصوير تيما ميروشنيشنكو
لقد كانت تقنية Deepfakes موضوعًا كبيرًا للنقاش في مجتمع علوم البيانات منذ عدة سنوات. مرة أخرى في عام 2020، مراجعة التكنولوجيا من معهد ماساتشوستس للتكنولوجيا افترض أن مزيفة عميقة وصلت إلى "نقطة التحول للاستخدام السائد".
البيانات تدعم ذلك بالتأكيد. ال Wall Street Journal ذكرت أنه تم العثور على أقل من 10,000 صورة مزيفة على الإنترنت في عام 2018. وتصل هذه الأرقام الآن إلى الملايين، وهناك العديد من الأمثلة الواقعية على الصور المزيفة العميقة التي يتم استخدامها للتشويش والتضليل ولإدامة الاحتيال المالي.
توفر تقنيات Deepfake لمجرمي الإنترنت العديد من الخيارات المعقدة.
إنهم يذهبون إلى ما هو أبعد من مجرد القدرة على إدراج صورة أحد المشاهير في المواد الترويجية لعرض بيتكوين "لا يمكن تفويته"، والذي - بالطبع - يتبين أنه عملية احتيال. مقاطع الفيديو المزيفة بعمق، على وجه الخصوص، تقع على رادار المحتالين. إنهم يزودونهم بطريقة لاجتياز عمليات التحقق من الهوية وKYC الآلية وقد أثبتوا فعاليتهم بشكل مخيف.
في شهر مايو شنومك، وشك تم كتابة تقرير بذلك "اختبارات الحيوية"التي تستخدمها البنوك والمؤسسات الأخرى للمساعدة في التحقق من هويات المستخدمين يمكن خداعها بسهولة عن طريق التزييف العميق. وجدت الدراسة ذات الصلة أن 90% من أنظمة التحقق من الهوية التي تم اختبارها كانت ضعيفة.
إذن ما هو الجواب؟ هل ندخل عصرًا حيث يمكن لمجرمي الإنترنت استخدام تكنولوجيا التزييف العميق بسهولة للتغلب على التدابير الأمنية التي تستخدمها المؤسسات المالية؟ هل سيتعين على هذه الشركات التخلص من أنظمتها الآلية والعودة إلى الفحوصات البشرية اليدوية؟
الجواب البسيط هو "ربما لا". مثلما يمكن للمجرمين الاستفادة من الطفرة في تطورات الذكاء الاصطناعيوكذلك الشركات التي يستهدفونها. دعونا الآن نلقي نظرة على كيفية قيام الشركات الضعيفة بمحاربة الذكاء الاصطناعي باستخدام الذكاء الاصطناعي.
يتم إنتاج Deepfakes باستخدام مجموعة من تقنيات الذكاء الاصطناعي، مثل:
- شبكات الخصومة التوليدية (GANs)
- أزواج التشفير/فك التشفير
- نماذج الحركة من الدرجة الأولى
قد تبدو هذه التقنيات، في ظاهر الأمر، وكأنها حكر حصري على مجتمع التعلم الآلي، مع وجود عوائق عالية أمام الدخول والحاجة إلى المعرفة التقنية المتخصصة. ومع ذلك، مثل العناصر الأخرى للذكاء الاصطناعي، فقد أصبح الوصول إليها أكثر سهولة مع مرور الوقت.
تسمح الآن الأدوات منخفضة التكلفة والجاهزة للمستخدمين غير التقنيين بإنشاء عمليات تزييف عميقة، تمامًا كما يمكن لأي شخص الاشتراك في OpenAI واختبار قدرات ChatGPT.
في عام 2020، أفاد المنتدى الاقتصادي العالمي أن تكلفة إنتاج "مثال رائع من الفن"سعر التزييف العميق أقل من 30,000 ألف دولار. لكن في عام 2023، كشف الأستاذ في مدرسة وارتون، إيثان موليك، عبر منشور سريع الانتشار على تويتر، أنه أنتج كتابًا فيديو مزيف عميق من نفسه وهو يلقي محاضرة في أقل من ست دقائق.
بلغ إجمالي إنفاق موليك 10.99 دولارًا. استخدم خدمة تسمى ElevenLabs لتقليد صوته بشكل مثالي تقريبًا، مقابل تكلفة قدرها 5 دولارات. خدمة أخرى تسمى D-ID، بسعر 5.99 دولارًا شهريًا، أنتجت مقطع فيديو يعتمد على نص وصورة واحدة فقط. حتى أنه استخدم ChatGPT لإنشاء البرنامج النصي نفسه.
عندما بدأت تقنية التزييف العميق في الظهور لأول مرة، كان التركيز الأساسي على مقاطع الفيديو السياسية المزيفة (والمواد الإباحية المزيفة). ومنذ ذلك الحين شهد العالم:
- تنشئ BuzzFeedVideos إعلان خدمة عامة مزيفًا عميقًا "يضم" باراك أوباما، مقلدًا الممثل جوردون بيل.
- مقطع فيديو مزيف عميق على موقع يوتيوب يُزعم أنه يُظهر دونالد ترامب وهو يروي قصة عن حيوان الرنة.
- تم عرض مقطع فيديو مزيف عميق لهيلاري كلينتون في Saturday Night Live، عندما كان في الواقع ينتحل شخصيتها من قبل أحد أعضاء فريق التمثيل.
في حين أن هذه الأمثلة تُظهر الجانب "الممتع" من التزييف العميق، وربما تقدم هزة من الواقع فيما يتعلق بقدرات التكنولوجيا، فإن المحتالين لم يضيعوا أي وقت في استخدامها لأغراض شائنة.
هناك العديد من الأمثلة الواقعية على عمليات الاحتيال التي تتم باستخدام تقنيات التزييف العميق.
تتراوح الخسائر الناجمة عن عمليات الاحتيال الوهمية العميقة من مئات الآلاف إلى عدة ملايين. في عام 2021، تم استخدام عملية احتيال لاستنساخ الصوت بالذكاء الاصطناعي لترتيب تحويلات مصرفية احتيالية بقيمة 35 مليون دولار. لقد كانت هذه مكافأة مالية ضخمة لم تحدث حتى تطلب استخدام الفيديو.
يمكن أن تختلف جودة مخرجات الذكاء الاصطناعي، وخاصة الفيديو، بشكل كبير. من الواضح أن بعض مقاطع الفيديو مزيفة للبشر. ولكن كما ذكرنا أعلاه، فقد ثبت في الماضي أن الأنظمة الآلية، مثل تلك التي تستخدمها البنوك وشركات التكنولوجيا المالية، يمكن خداعها بسهولة.
ومن المرجح أن يتغير التوازن أكثر مع استمرار تحسن قدرات الذكاء الاصطناعي. التطور الأخير هو دمج "الطب الشرعي المضاد"، حيث تتم إضافة "الضوضاء" غير المرئية المستهدفة إلى التزييف العميق، في محاولة لخداع آليات الكشف.
فما الذي يمكن عمله؟
مثلما يسعى المحتالون إلى استخدام أحدث تقنيات الذكاء الاصطناعي لتحقيق مكاسب مالية، فإن الشركات مثل شركات التكنولوجيا تعمل جاهدة لإيجاد طرق للاستفادة من التكنولوجيا للقبض على المجرمين.
فيما يلي بعض الأمثلة على الشركات التي تستخدم الذكاء الاصطناعي لمحاربة الذكاء الاصطناعي:
وفي أواخر عام 2022، أطلقت إنتل أداة تعتمد على الذكاء الاصطناعي تسمى “مزيف". ومع معدل موثوقية إنتل الذي يبلغ 96%، فإنها تستخدم تقنية تُعرف باسم تخطيط التحجم الضوئي (PPG).
تستخدم هذه التقنية شيئًا غير موجود في مقاطع الفيديو المصطنعة: تدفق الدم. تم تدريبه على مقاطع فيديو مشروعة، وتقوم خوارزمية التعلم العميق الخاصة به بقياس الضوء الذي تمتصه أو تنعكسه الأوعية الدموية، والتي يتغير لونها مع تحرك الدم في جميع أنحاء الجسم.
يوصف برنامج FakeCatcher، وهو جزء من مبادرة الذكاء الاصطناعي المسؤول من شركة إنتل، بأنه "أول كاشف للتزوير العميق في العالم في الوقت الحقيقي والذي يُرجع النتائج بالمللي ثانية". إنها تقنية مبتكرة تبحث عن علامات تشير إلى أن الشخص الذي يظهر في الفيديو هو إنسان حقًا. فهو يبحث عن شيء "صحيح"، بدلاً من تحليل البيانات لتسليط الضوء على شيء "خطأ". هذه هي الطريقة التي تشير إلى احتمالية التزييف.
وفي الوقت نفسه، يعمل علماء الكمبيوتر في جامعة بوفالو (UB) على تقنية خاصة بهم للكشف عن التزييف العميق. إنه يستخدم شيئًا يعرفه لاعبو الكمبيوتر الشخصي أنه يتطلب قوة معالجة هائلة لمحاكاته: الضوء.
تزعم شركة UB أنها فعالة بنسبة 94٪ في الصور المزيفة، حيث تبحث أداة الذكاء الاصطناعي في كيفية انعكاس الضوء في عيون الشخص المراد تصويره. يعمل سطح القرنية كمرآة، ويولد "أنماط عاكسة".
تشير دراسة العلماء، التي تحمل عنوان "كشف الوجوه التي تم إنشاؤها بواسطة GAN باستخدام إبرازات قرنية غير متناسقة"، إلى أن "الوجوه المركبة من GAN يمكن تعريضها لإبرازات قرنية غير متناسقة بين عينين".
ويشير إلى أنه سيكون من "السهل" أن تقوم أنظمة الذكاء الاصطناعي بمحاكاة الميزات الحقيقية. لاعبو الكمبيوتر الشخصي، الذين يستثمرون غالبًا في أحدث بطاقات الرسومات لتتبع الأشعة من أجل تجربة تأثيرات الإضاءة الواقعية، سوف يدركون غريزيًا التحديات هنا.
ربما يكون التحدي الأكبر في الكشف عن الاحتيال هو لعبة "القط والفأر" التي لا نهاية لها بين المحتالين وأولئك الذين يعملون على إحباطهم. من المحتمل جدًا، في أعقاب إعلانات مثل تلك المذكورة أعلاه، أن يعمل الأشخاص بالفعل على بناء تقنيات يمكنها تجاوز آليات الكشف هذه والتغلب عليها.
إن وجود مثل هذه الآليات هو أيضًا شيء، ولكن رؤيتها مدمجة بشكل روتيني في الحلول التي تستخدمها الشركات شيء آخر. لقد أشرنا سابقًا إلى إحصائية تشير إلى أن 90% من الحلول يمكن "خداعها بسهولة". ومن المحتمل أن بعض المؤسسات المالية على الأقل لا تزال تستخدم مثل هذه الأنظمة.
حكيم مراقبة الاحتيال تتطلب الإستراتيجية من الشركات أن تنظر إلى ما هو أبعد من اكتشاف التزييف العميق بنفسها. يمكن فعل الكثير قبل يصل المحتال إلى حد كافٍ في النظام للمشاركة في عملية التحقق من الهوية المستندة إلى الفيديو أو عملية KYC. قد تتضمن الاحتياطات التي تجد مكانًا لها في وقت مبكر من العملية أيضًا عنصرًا من الذكاء الاصطناعي والتعلم الآلي.
على سبيل المثال، يمكن استخدام التعلم الآلي لرصد الاحتيال في الوقت الفعلي وإنشاء مجموعات القواعد. ويمكن لهذه الأجهزة النظر في أحداث الاحتيال التاريخية، والكشف عن الأنماط التي يمكن أن يفوتها الإنسان بسهولة. يمكن رفض المعاملات التي تعتبر عالية المخاطر بشكل مباشر، أو تمريرها للمراجعة اليدوية حتى قبل أن تصل مرحلة قد يتم فيها التحقق من الهوية – وبالتالي فرصة للمحتال للاستفادة من تقنية التزييف العميق.
كلما اكتشف النظام مجرمًا إلكترونيًا مبكرًا، كان ذلك أفضل. هناك فرصة أقل لارتكاب جريمة ما، كما أن احتمال إنفاق الشركة على المزيد من الفحوصات أقل. تعد عمليات التحقق من الهوية عبر الفيديو مكلفة، حتى بدون دمج تقنية الذكاء الاصطناعي للكشف عن التزييف العميق.
إذا كان من الممكن التعرف على المحتالين قبل أن يصلوا إلى هذا الحد، باستخدام تقنيات مثل البصمة الرقمية، فسيكون هناك المزيد من الموارد المتاحة لتحسين عمليات التحقق من المزيد من الحالات الحدودية.
يجب أن تملي طبيعة التعلم الآلي أنه بمرور الوقت، يصبح أفضل في اكتشاف الحالات الشاذة ومكافحة الاحتيال. يمكن للأنظمة التي تعمل بالذكاء الاصطناعي أن تتعلم من الأنماط الجديدة وربما تصفية المعاملات الاحتيالية في مرحلة مبكرة من العملية.
عندما يتعلق الأمر بالتزييف العميق على وجه التحديد، فإن المثال أعلاه يعطي سببًا خاصًا للأمل. لقد وجد العلماء طريقة لاكتشاف الغالبية العظمى من التزييف العميق باستخدام انعكاسات الضوء. تمثل مثل هذه التطورات خطوة كبيرة إلى الأمام في منع الاحتيال وعائقًا كبيرًا أمام مجرمي الإنترنت.
من الناحية النظرية، يعد نشر تكنولوجيا الكشف هذه أسهل بكثير من قيام المحتالين بإيجاد طريقة للتحايل عليها - تكرار سلوك الضوء، على سبيل المثال، بسرعة وعلى نطاق واسع. ويبدو من المرجح أن تستمر لعبة "القط والفأر" إلى الأبد، لكن شركات التكنولوجيا الكبرى وشركات التمويل الكبرى تمتلك الموارد والجيوب العميقة التي تمكنها - من الناحية النظرية على الأقل - من البقاء في المقدمة بخطوة صغيرة.
جيمي فونغ هو المدير التنفيذي للعمليات في SEON ويقدم خبرته المتعمقة في مكافحة الاحتيال لمساعدة فرق الاحتيال في كل مكان.
- محتوى مدعوم من تحسين محركات البحث وتوزيع العلاقات العامة. تضخيم اليوم.
- أفلاطونايستريم. ذكاء بيانات Web3. تضخيم المعرفة. الوصول هنا.
- سك المستقبل مع أدرين أشلي. الوصول هنا.
- شراء وبيع الأسهم في شركات ما قبل الاكتتاب مع PREIPO®. الوصول هنا.
- المصدر https://www.kdnuggets.com/2023/05/fighting-ai-ai-fraud-monitoring-deepfake-applications.html?utm_source=rss&utm_medium=rss&utm_campaign=fighting-ai-with-ai-fraud-monitoring-for-deepfake-applications
- :لديها
- :يكون
- :ليس
- :أين
- $ UP
- 000
- 10
- 2018
- 2020
- 2021
- 2022
- 2023
- a
- القدرة
- من نحن
- فوق
- يمكن الوصول
- الأفعال
- وأضاف
- الخصومة
- قدما
- AI
- أنظمة الذكاء الاصطناعي
- AI-بالطاقة
- خوارزمية
- السماح
- سابقا
- أيضا
- تماما
- an
- تحليل
- و
- اشعارات
- الإعلانات
- آخر
- إجابة
- أي وقت
- التطبيقات
- هي
- حول
- مصطنع
- الذكاء الاصطناعي
- AS
- مساعدة
- At
- الآلي
- متاح
- الى الخلف
- الرصيد
- مصرف
- البنوك
- باراك أوباما
- الحواجز
- على أساس
- BE
- أصبح
- يصبح
- كان
- قبل
- بدأ
- يجري
- أفضل
- ما بين
- Beyond
- كبير
- التكنولوجيا الكبيرة
- إلى البيتكوين
- دم
- الجسدي
- على حد سواء
- يجلب
- اسود احمر
- ابني
- الأعمال
- الأعمال
- لكن
- by
- تسمى
- CAN
- قدرات
- بطاقات
- الحالات
- يو كاتش
- شهرة
- بالتأكيد
- تحدى
- التحديات
- فرصة
- تغيير
- شات جي بي تي
- التحقق
- الشيكات
- اللون
- يأتي
- مجتمع
- الشركات
- إكمال
- الكمبيوتر
- كبير
- استمر
- محادثة
- التكلفة
- مكلفة
- استطاع
- زوجان
- الدورة
- خلق
- خلق
- نسبة الجريمة
- المجرمين
- الجريمة الإلكترونية
- مجرمو الإنترنت
- البيانات
- علم البيانات
- تعتبر
- عميق
- المزيفون العميقة
- deepfakes
- تقديم
- نشر
- وصف
- كشف
- التطوير التجاري
- التطورات
- رقمي
- دونالد
- دونالد ترامب
- فعل
- اثنان
- في وقت سابق
- في وقت مبكر
- مرحلة مبكرة
- أسهل
- بسهولة
- اقتصادي
- المنتدى الاقتصادي
- الطُرق الفعّالة
- الآثار
- العنصر
- عناصر
- الظهور
- التي لا نهاية لها
- كاف
- الدخول
- بعنوان
- دخول
- عصر
- خاصة
- حتى
- أحداث
- مثال
- أمثلة
- حصري
- يوجد
- الخبره في مجال الغطس
- خبير
- مكشوف
- العيون
- الوجه
- وجوه
- حقيقة
- زائف
- بعيدا
- حارب
- قتال
- تصفية
- تمويل
- مالي
- الاحتيال المالي
- المؤسسات المالية
- العثور على
- FINTECH
- الشركات
- الاسم الأول
- تدفق
- تركز
- في حالة
- المنتدى
- إلى الأمام
- وجدت
- احتيال
- الكشف عن الغش
- منع الغش
- المحتالين
- محتال
- تبدأ من
- إضافي
- ربح
- لعبة
- هدايا للجيمرس
- شبكات GAN
- ولدت
- يولد
- حقيقي
- دولار فقط واحصل على خصم XNUMX% على جميع
- يعطي
- Go
- الرسومات
- أعظم
- كان
- الثابت
- يملك
- he
- مساعدة
- هنا
- مرتفع
- تسليط الضوء
- ويبرز
- جدا
- له
- تاريخي
- ضرب
- أمل
- كيفية
- لكن
- HTML
- HTTPS
- ضخم
- بشكل هائل
- الانسان
- البشر
- مئات
- ID
- محدد
- المتطابقات
- صورة
- هائلة
- تحسن
- in
- في العمق
- يشير
- مبادرة
- مبتكرة
- التكنولوجيا المبتكرة
- المؤسسات
- المتكاملة
- إنتل
- رؤيتنا
- إلى
- استثمر
- تنطوي
- IT
- انها
- نفسها
- مجلة
- JPG
- م
- KD nuggets
- علم
- المعرفة
- معروف
- KYC
- متأخر
- آخر
- أطلقت
- تعلم
- تعلم
- الأقل
- قراءة
- اليسار
- شرعي
- أقل
- ضوء
- الإضاءة
- مثل
- على الأرجح
- لينكدين:
- حي
- بحث
- تبدو
- آلة
- آلة التعلم
- التيار
- أغلبية
- جعل
- يصنع
- كتيب
- كثير
- مادة
- مايو..
- الإجراءات
- آليات
- عضو
- مليون
- ملايين
- دقائق
- مرآة
- افتقد
- معهد ماساتشوستس للتكنولوجيا
- عارضات ازياء
- مراقبة
- شهر
- الأكثر من ذلك
- اقتراح
- التحركات
- كثيرا
- الطبيعة
- حاجة
- الشبكات
- جديد
- ليل
- غير التقنية
- الآن
- أرقام
- أوباما
- of
- عرض
- غالبا
- on
- ONE
- online
- فقط
- OpenAI
- الفرصة
- الأمثل
- مزيد من الخيارات
- or
- طلب
- أخرى
- خارج
- الناتج
- على مدى
- الخاصة
- أزواج
- جزء
- شارك
- خاص
- مرت
- الماضي
- أنماط
- PC
- مجتمع
- ربما
- شخص
- الصور
- المكان
- أفلاطون
- الذكاء افلاطون البيانات
- أفلاطون داتا
- فرنسي
- البوينت
- سياسي
- إباحية
- منشور
- يحتمل
- قوة
- يقدم
- الوقاية
- ابتدائي
- عملية المعالجة
- معالجة
- قوة المعالجة
- أنتج
- البروفيسور
- الترويجية
- ثبت
- تزود
- توفير
- جمهور
- أغراض
- جودة
- رادار
- نطاق
- معدل
- بدلا
- في الوقت الحقيقي
- واقعي
- واقع
- سبب
- الأخيرة
- مؤخرا
- الاعتراف
- يشار
- عكست
- تأملات
- يعكس
- ذات صلة
- الموثوقية
- وذكرت
- مثل
- يتطلب
- الموارد
- مسؤول
- النتائج
- عائدات
- أظهرت
- العودة
- مراجعة
- المخاطرة
- بصورة روتينية
- يجري
- يوم السبت
- حجم
- احتيال
- الحيل
- المدرسة
- علوم
- العلماء
- أمن
- التدابير الأمنية
- انظر تعريف
- طلب
- يبدو
- رأيت
- سيون
- الخدمة
- هي
- نقل
- ينبغي
- إظهار
- أظهرت
- جانب
- إشارة
- لوحات
- الاشارات
- منذ
- عزباء
- SIX
- صغير
- So
- الحلول
- بعض
- شيء
- متطور
- على وجه التحديد
- سرعة
- أنفق
- المسرح
- ذكر
- إقامة
- خطوة
- لا يزال
- قصتنا
- الإستراتيجيات
- شارع
- دراسة
- موضوع
- هذه
- وتقترح
- المساحة
- موجة
- نظام
- أنظمة
- الهدف
- فريق
- التكنولوجيا
- تقني
- تقنيات
- التكنولوجيا
- تكنولوجيا
- تجربه بالعربي
- من
- أن
- •
- العالم
- من مشاركة
- منهم
- أنفسهم
- then
- نظرية
- هناك.
- وبالتالي
- تشبه
- هم
- شيء
- هؤلاء
- الآلاف
- عبر
- الوقت
- إلى
- جدا
- أداة
- أدوات
- موضوع
- الإجمالي
- متدرب
- المعاملات
- التحويلات
- حقا
- ورقة رابحة
- يتحول
- أو تويتر
- اثنان
- مع
- جامعة
- تستخدم
- مستعمل
- المستخدمين
- استخدام
- الاستفادة من
- كبير
- حافة
- التحقق
- تحقق من
- جدا
- بواسطة
- فيديو
- مقاطع فيديو
- فيروسي
- صوت
- الضعيفة
- استيقظ
- وكان
- طريق..
- طرق
- we
- كان
- وارتون
- ابحث عن
- متى
- التي
- من الذى
- سوف
- مع
- بدون
- للعمل
- عامل
- العالم
- المنتدى الاقتصادي العالمي
- العالم
- سوف
- سنوات
- موقع YouTube
- زفيرنت