مبارزه با هوش مصنوعی با نظارت بر تقلب هوش مصنوعی برای برنامه های Deepfake - KDnuggets

مبارزه با هوش مصنوعی با نظارت بر تقلب هوش مصنوعی برای برنامه های Deepfake - KDnuggets

گره منبع: 2667255
مبارزه با هوش مصنوعی با نظارت بر تقلب هوش مصنوعی برای برنامه های Deepfake
عکس تیما میروشنیچنکو
 

چند سالی است که دیپ فیک موضوع بزرگی در جامعه علم داده است. در سال 2020، بررسی فناوری MIT فرض کرد که تقلبی عمیق است به "نقطه اوج برای استفاده اصلی" رسیده بودند.

مطمئناً داده ها از آن پشتیبانی می کنند. این وال استریت ژورنال گزارش داد که کمتر از 10,000 دیپ فیک در سال 2018 به صورت آنلاین پیدا شده است. این اعداد اکنون به میلیون ها نفر می رسد و نمونه های واقعی بسیاری از جعلی های عمیق وجود دارد که هم برای گیج کردن و اطلاعات غلط و هم برای تداوم کلاهبرداری مالی استفاده می شوند. 

تکنیک‌های Deepfake در مجموع گزینه‌های پیچیده بسیاری را در اختیار مجرمان سایبری قرار می‌دهند.

آنها بسیار فراتر از توانایی درج تصویر یک فرد مشهور در مواد تبلیغاتی برای یک پیشنهاد بیت کوین "غیرقابل چشم پوشی" هستند، که - البته - به نظر می رسد یک کلاهبرداری است. به ویژه ویدئوهای دیپ فیک در رادار کلاهبرداران قرار دارند. آنها راهی برای گذراندن چک های شناسایی خودکار و KYC در اختیار آنها قرار می دهند و به طرز وحشتناکی موثر بوده اند.

در ماه مه 2022 در آستانه گزارش داد که "تست های سرزندگی” که توسط بانک ها و سایر موسسات برای کمک به تأیید هویت کاربران استفاده می شود، می تواند به راحتی توسط جعلیات عمیق فریب بخورد. مطالعه مرتبط نشان داد که 90 درصد از سیستم های تأیید هویت آزمایش شده آسیب پذیر بودند.

پس جواب چیست؟ آیا وارد دورانی می‌شویم که مجرمان سایبری می‌توانند به راحتی از فناوری‌های جعلی عمیق برای گول زدن اقدامات امنیتی مورد استفاده توسط موسسات مالی استفاده کنند؟ آیا چنین مشاغلی باید سیستم های خودکار خود را کنار بگذارند و به چک های دستی و انسانی برگردند؟

پاسخ ساده «احتمالاً نه» است. همانطور که مجرمان می توانند از این افزایش استفاده کنند پیشرفت های هوش مصنوعی، شرکت هایی که آنها را هدف قرار می دهند نیز می توانند. اکنون بیایید ببینیم که چگونه مشاغل آسیب پذیر می توانند با هوش مصنوعی با هوش مصنوعی مبارزه کنند.

دیپ فیک با استفاده از طیف وسیعی از تکنیک های هوش مصنوعی تولید می شود، مانند:

  • شبکه های متخاصم مولد (GAN) 
  • جفت رمزگذار/رمزگشا
  • مدل های حرکتی درجه یک

این تکنیک‌ها ممکن است، در ظاهر، مانند محفوظات انحصاری جامعه یادگیری ماشین به نظر برسند، که با موانع زیادی برای ورود و نیاز به دانش فنی متخصص کامل می‌شود. با این حال، مانند سایر عناصر هوش مصنوعی، آنها به طور قابل توجهی در طول زمان قابل دسترسی تر شده اند.

ابزارهای ارزان قیمت و آماده اکنون به کاربران غیر فنی اجازه می دهند که تقلبی عمیق ایجاد کنند، همانطور که هر کسی می تواند در OpenAI ثبت نام کرده و قابلیت های ChatGPT را آزمایش کند.

در سال 2020، مجمع جهانی اقتصاد گزارش داد که هزینه تولید یک "وضعیت هنردیپ فیک زیر 30,000 دلار است. اما در سال 2023، اتان مولیک، استاد مدرسه وارتون، از طریق یک پست توییتری ویروسی فاش کرد که او یک ویدیوی جعلی عمیق او در کمتر از شش دقیقه سخنرانی می کند.

کل هزینه مالیک 10.99 دلار بود. او از سرویسی به نام ElevenLabs برای تقلید تقریباً کامل صدای خود با هزینه 5 دلار استفاده کرد. سرویس دیگری به نام D-ID با قیمت 5.99 دلار در ماه، ویدئویی را تنها بر اساس یک اسکریپت و یک عکس تولید کرد. او حتی از ChatGPT برای ایجاد خود اسکریپت استفاده کرد.

هنگامی که دیپ فیک برای اولین بار شروع به ظهور کرد، تمرکز اصلی بر روی ویدیوهای سیاسی جعلی (و پورنوگرافی جعلی) بود. از آن زمان تا کنون جهان شاهد بوده است:

  • BuzzFeedVideos یک اعلان سرویس عمومی دروغین ایجاد می کند که در آن باراک اوباما جعل هویت بازیگر جوردون پیل است.
  • یک ویدیوی جعلی عمیق در یوتیوب که مدعی است دونالد ترامپ را در حال گفتن داستانی درباره یک گوزن شمالی نشان می دهد.
  • یک ویدیوی جعلی عمیق از هیلاری کلینتون که در شنبه شب پخش شد، زمانی که او در واقع توسط یکی از بازیگران جعل شده بود.

در حالی که این نمونه‌ها جنبه «سرگرم‌کننده» دیپ‌فیک‌ها را نشان می‌دهند و شاید تلنگری از واقعیت را در مورد قابلیت‌های این فناوری ارائه می‌دهند، کلاهبرداران هیچ وقت را برای استفاده از آنها برای اهداف پلید تلف نکرده‌اند. 

نمونه های واقعی کلاهبرداری که با استفاده از تکنیک های دیپ فیک تداوم یافته اند، بسیارند.

خسارات ناشی از کلاهبرداری های جعلی عمیق از صدها هزار تا میلیون ها میلیون متغیر است. در سال 2021، یک کلاهبرداری شبیه سازی صوتی با هوش مصنوعی برای ترتیب دادن نقل و انتقالات بانکی تقلبی 35 میلیون دلاری مورد استفاده قرار گرفت. این یک بازده مالی بزرگ بود که حتی نشد نیاز استفاده از ویدئو

کیفیت خروجی هوش مصنوعی، به خصوص ویدئو، می تواند بسیار متفاوت باشد. برخی از ویدیوها به وضوح برای انسان جعلی هستند. اما، همانطور که در بالا گفته شد، سیستم‌های خودکار، مانند سیستم‌هایی که توسط بانک‌ها و فین‌تک استفاده می‌شوند، در گذشته به راحتی فریب خورده‌اند.

با ادامه بهبود قابلیت‌های هوش مصنوعی، احتمالاً تعادل بیشتر تغییر خواهد کرد. توسعه اخیر ترکیبی از "ضد پزشکی قانونی" است، که در آن "صدای نامرئی هدفمند" در تلاش برای فریب دادن مکانیسم های تشخیص به جعلی های عمیق اضافه می شود.

پس چه می تواند انجام شود؟

درست همانطور که کلاهبرداران به دنبال استفاده از آخرین فناوری هوش مصنوعی برای سود مالی هستند، مشاغلی مانند شرکت های فناوری به سختی در حال یافتن راه هایی برای استفاده از فناوری برای دستگیری مجرمان هستند.

در اینجا چند نمونه از شرکت هایی وجود دارد که از هوش مصنوعی برای مبارزه با هوش مصنوعی استفاده می کنند:

در اواخر سال 2022، اینتل یک ابزار مبتنی بر هوش مصنوعی به نام "FakeCatcher". با نرخ اطمینان گزارش شده توسط اینتل 96٪، از فناوری موسوم به photoplethysmography (PPG) استفاده می کند.

این فناوری از چیزی استفاده می کند که در ویدیوهای تولید شده مصنوعی وجود ندارد: جریان خون. الگوریتم یادگیری عمیق آن که بر روی ویدیوهای قانونی آموزش دیده است، نور جذب یا منعکس شده توسط رگ های خونی را اندازه گیری می کند که با حرکت خون در بدن تغییر رنگ می دهد.

FakeCatcher، بخشی از ابتکار عمل هوش مصنوعی اینتل، به عنوان "اولین آشکارساز واقعی جعلی عمیق در جهان که نتایج را در میلی ثانیه برمی گرداند" توصیف می شود. این یک فناوری نوآورانه است که به دنبال نشانه هایی است که نشان می دهد فردی که در یک ویدیو نشان داده می شود واقعاً انسان است. به‌جای تجزیه و تحلیل داده‌ها برای برجسته کردن چیزی که «اشتباه» است، به دنبال چیزی می‌گردد که «درست» است. اینگونه نشان دهنده احتمال تقلبی است.

در همین حال، دانشمندان کامپیوتر دانشگاه بوفالو (UB) روی یک فناوری تشخیص عمیق جعلی کار می کنند. از چیزی استفاده می‌کند که گیمرهای مشتاق رایانه‌های شخصی می‌دانند برای تقلید کردن به قدرت پردازشی بسیار زیادی نیاز دارد: نور.

UB ادعا می کند که 94٪ روی عکس های جعلی موثر است، ابزار هوش مصنوعی به نحوه انعکاس نور در چشمان سوژه نگاه می کند. سطح قرنیه به عنوان یک آینه عمل می کند و "الگوهای بازتابی" ایجاد می کند.

مطالعه دانشمندان با عنوان "نمایش چهره های ایجاد شده توسط GAN با استفاده از هایلایت های چشمی ناسازگار قرنیه" نشان می دهد که "صورت های سنتز شده GAN را می توان با هایلایت های چشمی قرنیه ناسازگار بین دو چشم در معرض دید قرار داد".

این نشان می‌دهد که تقلید کردن نکات برجسته برای سیستم‌های هوش مصنوعی «غیر پیش پا افتاده» است. گیمرهای رایانه شخصی که اغلب روی جدیدترین کارت‌های گرافیکی ردیابی پرتو سرمایه‌گذاری می‌کنند تا جلوه‌های نورپردازی واقعی را تجربه کنند، به طور غریزی چالش‌های اینجا را تشخیص می‌دهند.

شاید بزرگترین چالش کشف تقلب، بازی بی پایان "گربه و موش" بین کلاهبرداران و کسانی باشد که برای خنثی کردن آنها تلاش می کنند. به‌دلیل اعلامیه‌هایی مانند موارد بالا، احتمال زیادی وجود دارد که مردم در حال حاضر روی ساخت فناوری‌هایی کار می‌کنند که می‌توانند چنین مکانیسم‌های تشخیصی را نادیده بگیرند و شکست دهند.

همچنین وجود چنین مکانیزم‌هایی یک چیز است، اما اینکه آنها را به طور معمول در راه‌حل‌هایی که کسب‌وکارها استفاده می‌کنند ادغام کنند، چیز دیگری است. پیش از این، به آماری اشاره کردیم که نشان می‌داد 90 درصد راه‌حل‌ها را می‌توان «به راحتی فریب داد». این احتمال وجود دارد که حداقل برخی از موسسات مالی همچنان از چنین سیستم هایی استفاده می کنند.

یک عاقل نظارت بر تقلب استراتژی شرکت‌ها را ملزم می‌کند که فراتر از تشخیص جعلی‌های عمیق خود نگاه کنند. کارهای زیادی می توان انجام داد قبل از یک کلاهبردار به اندازه کافی وارد یک سیستم می شود تا در یک تأیید هویت مبتنی بر ویدیو یا فرآیند KYC شرکت کند. اقدامات احتیاطی که زودتر در این فرآیند جای خود را پیدا می‌کنند، ممکن است شامل یک عنصر هوش مصنوعی و یادگیری ماشین نیز باشد.

به عنوان مثال، یادگیری ماشینی می تواند هم برای نظارت بر تقلب در زمان واقعی و هم برای ایجاد مجموعه قوانین استفاده شود. اینها می توانند به رویدادهای تقلب تاریخی نگاه کنند و الگوهایی را شناسایی کنند که به راحتی می توانند توسط یک انسان نادیده گرفته شوند. تراکنش هایی که ریسک بالایی دارند می توانند به طور کامل رد شوند یا برای بررسی دستی ارسال شوند حتی قبل از رسیدن مرحله ای که ممکن است یک بررسی شناسه وجود داشته باشد - و بنابراین فرصتی برای کلاهبرداران برای استفاده از فناوری دیپ فیک.

هرچه یک سیستم زودتر یک مجرم سایبری را شناسایی کند، بهتر است. احتمال کمتری وجود دارد که آنها بتوانند جنایت را تداوم بخشند و کمتر برای کسب و کار برای بررسی های بیشتر هزینه کند. بررسی‌های ID مبتنی بر ویدیو حتی بدون استفاده از فناوری هوش مصنوعی برای شناسایی تقلبی‌های عمیق پرهزینه است.

اگر بتوان کلاهبرداران را قبل از رسیدن به این حد شناسایی کرد، با تکنیک هایی مانند ردپای دیجیتالی، منابع بیشتری برای بهینه سازی بررسی موارد مرزی بیشتر در دسترس باقی خواهد ماند.

ماهیت یادگیری ماشینی باید حکم کند که به مرور زمان در تشخیص ناهنجاری ها و مبارزه با تقلب بهتر می شود. سیستم‌های مجهز به هوش مصنوعی می‌توانند از الگوهای جدید بیاموزند و به طور بالقوه تراکنش‌های جعلی را در مراحل اولیه فرآیند فیلتر کنند.

وقتی به طور خاص صحبت از دیپ فیک می شود، مثال بالا دلیل خاصی برای امیدواری به دست می دهد. دانشمندان راهی برای تشخیص اکثریت قریب به اتفاق دیپ فیک ها با استفاده از بازتاب نور پیدا کرده اند. تحولاتی مانند این نشان دهنده گامی قابل توجه به جلو در پیشگیری از کلاهبرداری و مانع قابل توجهی برای مجرمان سایبری است.

در تئوری، به کارگیری چنین فناوری تشخیصی بسیار ساده تر از یافتن راهی برای دور زدن آن برای کلاهبرداران است - تکرار رفتار نور، به عنوان مثال، در سرعت و مقیاس. به نظر می‌رسد که بازی «گربه و موش» تا ابد ادامه خواهد داشت، اما فناوری‌های بزرگ و امور مالی بزرگ منابع و جیب‌های عمیقی دارند که - حداقل در تئوری - یک قدم کوچک جلوتر بمانند.
 
 
جیمی فونگ CCO SEON است و تجربه عمیق خود را از مبارزه با تقلب برای کمک به تیم های کلاهبرداری در همه جا به ارمغان می آورد.
 

تمبر زمان:

بیشتر از kdnuggets