عکس تیما میروشنیچنکو
چند سالی است که دیپ فیک موضوع بزرگی در جامعه علم داده است. در سال 2020، بررسی فناوری MIT فرض کرد که تقلبی عمیق است به "نقطه اوج برای استفاده اصلی" رسیده بودند.
مطمئناً داده ها از آن پشتیبانی می کنند. این وال استریت ژورنال گزارش داد که کمتر از 10,000 دیپ فیک در سال 2018 به صورت آنلاین پیدا شده است. این اعداد اکنون به میلیون ها نفر می رسد و نمونه های واقعی بسیاری از جعلی های عمیق وجود دارد که هم برای گیج کردن و اطلاعات غلط و هم برای تداوم کلاهبرداری مالی استفاده می شوند.
تکنیکهای Deepfake در مجموع گزینههای پیچیده بسیاری را در اختیار مجرمان سایبری قرار میدهند.
آنها بسیار فراتر از توانایی درج تصویر یک فرد مشهور در مواد تبلیغاتی برای یک پیشنهاد بیت کوین "غیرقابل چشم پوشی" هستند، که - البته - به نظر می رسد یک کلاهبرداری است. به ویژه ویدئوهای دیپ فیک در رادار کلاهبرداران قرار دارند. آنها راهی برای گذراندن چک های شناسایی خودکار و KYC در اختیار آنها قرار می دهند و به طرز وحشتناکی موثر بوده اند.
در ماه مه 2022 در آستانه گزارش داد که "تست های سرزندگی” که توسط بانک ها و سایر موسسات برای کمک به تأیید هویت کاربران استفاده می شود، می تواند به راحتی توسط جعلیات عمیق فریب بخورد. مطالعه مرتبط نشان داد که 90 درصد از سیستم های تأیید هویت آزمایش شده آسیب پذیر بودند.
پس جواب چیست؟ آیا وارد دورانی میشویم که مجرمان سایبری میتوانند به راحتی از فناوریهای جعلی عمیق برای گول زدن اقدامات امنیتی مورد استفاده توسط موسسات مالی استفاده کنند؟ آیا چنین مشاغلی باید سیستم های خودکار خود را کنار بگذارند و به چک های دستی و انسانی برگردند؟
پاسخ ساده «احتمالاً نه» است. همانطور که مجرمان می توانند از این افزایش استفاده کنند پیشرفت های هوش مصنوعی، شرکت هایی که آنها را هدف قرار می دهند نیز می توانند. اکنون بیایید ببینیم که چگونه مشاغل آسیب پذیر می توانند با هوش مصنوعی با هوش مصنوعی مبارزه کنند.
دیپ فیک با استفاده از طیف وسیعی از تکنیک های هوش مصنوعی تولید می شود، مانند:
- شبکه های متخاصم مولد (GAN)
- جفت رمزگذار/رمزگشا
- مدل های حرکتی درجه یک
این تکنیکها ممکن است، در ظاهر، مانند محفوظات انحصاری جامعه یادگیری ماشین به نظر برسند، که با موانع زیادی برای ورود و نیاز به دانش فنی متخصص کامل میشود. با این حال، مانند سایر عناصر هوش مصنوعی، آنها به طور قابل توجهی در طول زمان قابل دسترسی تر شده اند.
ابزارهای ارزان قیمت و آماده اکنون به کاربران غیر فنی اجازه می دهند که تقلبی عمیق ایجاد کنند، همانطور که هر کسی می تواند در OpenAI ثبت نام کرده و قابلیت های ChatGPT را آزمایش کند.
در سال 2020، مجمع جهانی اقتصاد گزارش داد که هزینه تولید یک "وضعیت هنردیپ فیک زیر 30,000 دلار است. اما در سال 2023، اتان مولیک، استاد مدرسه وارتون، از طریق یک پست توییتری ویروسی فاش کرد که او یک ویدیوی جعلی عمیق او در کمتر از شش دقیقه سخنرانی می کند.
کل هزینه مالیک 10.99 دلار بود. او از سرویسی به نام ElevenLabs برای تقلید تقریباً کامل صدای خود با هزینه 5 دلار استفاده کرد. سرویس دیگری به نام D-ID با قیمت 5.99 دلار در ماه، ویدئویی را تنها بر اساس یک اسکریپت و یک عکس تولید کرد. او حتی از ChatGPT برای ایجاد خود اسکریپت استفاده کرد.
هنگامی که دیپ فیک برای اولین بار شروع به ظهور کرد، تمرکز اصلی بر روی ویدیوهای سیاسی جعلی (و پورنوگرافی جعلی) بود. از آن زمان تا کنون جهان شاهد بوده است:
- BuzzFeedVideos یک اعلان سرویس عمومی دروغین ایجاد می کند که در آن باراک اوباما جعل هویت بازیگر جوردون پیل است.
- یک ویدیوی جعلی عمیق در یوتیوب که مدعی است دونالد ترامپ را در حال گفتن داستانی درباره یک گوزن شمالی نشان می دهد.
- یک ویدیوی جعلی عمیق از هیلاری کلینتون که در شنبه شب پخش شد، زمانی که او در واقع توسط یکی از بازیگران جعل شده بود.
در حالی که این نمونهها جنبه «سرگرمکننده» دیپفیکها را نشان میدهند و شاید تلنگری از واقعیت را در مورد قابلیتهای این فناوری ارائه میدهند، کلاهبرداران هیچ وقت را برای استفاده از آنها برای اهداف پلید تلف نکردهاند.
نمونه های واقعی کلاهبرداری که با استفاده از تکنیک های دیپ فیک تداوم یافته اند، بسیارند.
خسارات ناشی از کلاهبرداری های جعلی عمیق از صدها هزار تا میلیون ها میلیون متغیر است. در سال 2021، یک کلاهبرداری شبیه سازی صوتی با هوش مصنوعی برای ترتیب دادن نقل و انتقالات بانکی تقلبی 35 میلیون دلاری مورد استفاده قرار گرفت. این یک بازده مالی بزرگ بود که حتی نشد نیاز استفاده از ویدئو
کیفیت خروجی هوش مصنوعی، به خصوص ویدئو، می تواند بسیار متفاوت باشد. برخی از ویدیوها به وضوح برای انسان جعلی هستند. اما، همانطور که در بالا گفته شد، سیستمهای خودکار، مانند سیستمهایی که توسط بانکها و فینتک استفاده میشوند، در گذشته به راحتی فریب خوردهاند.
با ادامه بهبود قابلیتهای هوش مصنوعی، احتمالاً تعادل بیشتر تغییر خواهد کرد. توسعه اخیر ترکیبی از "ضد پزشکی قانونی" است، که در آن "صدای نامرئی هدفمند" در تلاش برای فریب دادن مکانیسم های تشخیص به جعلی های عمیق اضافه می شود.
پس چه می تواند انجام شود؟
درست همانطور که کلاهبرداران به دنبال استفاده از آخرین فناوری هوش مصنوعی برای سود مالی هستند، مشاغلی مانند شرکت های فناوری به سختی در حال یافتن راه هایی برای استفاده از فناوری برای دستگیری مجرمان هستند.
در اینجا چند نمونه از شرکت هایی وجود دارد که از هوش مصنوعی برای مبارزه با هوش مصنوعی استفاده می کنند:
در اواخر سال 2022، اینتل یک ابزار مبتنی بر هوش مصنوعی به نام "FakeCatcher". با نرخ اطمینان گزارش شده توسط اینتل 96٪، از فناوری موسوم به photoplethysmography (PPG) استفاده می کند.
این فناوری از چیزی استفاده می کند که در ویدیوهای تولید شده مصنوعی وجود ندارد: جریان خون. الگوریتم یادگیری عمیق آن که بر روی ویدیوهای قانونی آموزش دیده است، نور جذب یا منعکس شده توسط رگ های خونی را اندازه گیری می کند که با حرکت خون در بدن تغییر رنگ می دهد.
FakeCatcher، بخشی از ابتکار عمل هوش مصنوعی اینتل، به عنوان "اولین آشکارساز واقعی جعلی عمیق در جهان که نتایج را در میلی ثانیه برمی گرداند" توصیف می شود. این یک فناوری نوآورانه است که به دنبال نشانه هایی است که نشان می دهد فردی که در یک ویدیو نشان داده می شود واقعاً انسان است. بهجای تجزیه و تحلیل دادهها برای برجسته کردن چیزی که «اشتباه» است، به دنبال چیزی میگردد که «درست» است. اینگونه نشان دهنده احتمال تقلبی است.
در همین حال، دانشمندان کامپیوتر دانشگاه بوفالو (UB) روی یک فناوری تشخیص عمیق جعلی کار می کنند. از چیزی استفاده میکند که گیمرهای مشتاق رایانههای شخصی میدانند برای تقلید کردن به قدرت پردازشی بسیار زیادی نیاز دارد: نور.
UB ادعا می کند که 94٪ روی عکس های جعلی موثر است، ابزار هوش مصنوعی به نحوه انعکاس نور در چشمان سوژه نگاه می کند. سطح قرنیه به عنوان یک آینه عمل می کند و "الگوهای بازتابی" ایجاد می کند.
مطالعه دانشمندان با عنوان "نمایش چهره های ایجاد شده توسط GAN با استفاده از هایلایت های چشمی ناسازگار قرنیه" نشان می دهد که "صورت های سنتز شده GAN را می توان با هایلایت های چشمی قرنیه ناسازگار بین دو چشم در معرض دید قرار داد".
این نشان میدهد که تقلید کردن نکات برجسته برای سیستمهای هوش مصنوعی «غیر پیش پا افتاده» است. گیمرهای رایانه شخصی که اغلب روی جدیدترین کارتهای گرافیکی ردیابی پرتو سرمایهگذاری میکنند تا جلوههای نورپردازی واقعی را تجربه کنند، به طور غریزی چالشهای اینجا را تشخیص میدهند.
شاید بزرگترین چالش کشف تقلب، بازی بی پایان "گربه و موش" بین کلاهبرداران و کسانی باشد که برای خنثی کردن آنها تلاش می کنند. بهدلیل اعلامیههایی مانند موارد بالا، احتمال زیادی وجود دارد که مردم در حال حاضر روی ساخت فناوریهایی کار میکنند که میتوانند چنین مکانیسمهای تشخیصی را نادیده بگیرند و شکست دهند.
همچنین وجود چنین مکانیزمهایی یک چیز است، اما اینکه آنها را به طور معمول در راهحلهایی که کسبوکارها استفاده میکنند ادغام کنند، چیز دیگری است. پیش از این، به آماری اشاره کردیم که نشان میداد 90 درصد راهحلها را میتوان «به راحتی فریب داد». این احتمال وجود دارد که حداقل برخی از موسسات مالی همچنان از چنین سیستم هایی استفاده می کنند.
یک عاقل نظارت بر تقلب استراتژی شرکتها را ملزم میکند که فراتر از تشخیص جعلیهای عمیق خود نگاه کنند. کارهای زیادی می توان انجام داد قبل از یک کلاهبردار به اندازه کافی وارد یک سیستم می شود تا در یک تأیید هویت مبتنی بر ویدیو یا فرآیند KYC شرکت کند. اقدامات احتیاطی که زودتر در این فرآیند جای خود را پیدا میکنند، ممکن است شامل یک عنصر هوش مصنوعی و یادگیری ماشین نیز باشد.
به عنوان مثال، یادگیری ماشینی می تواند هم برای نظارت بر تقلب در زمان واقعی و هم برای ایجاد مجموعه قوانین استفاده شود. اینها می توانند به رویدادهای تقلب تاریخی نگاه کنند و الگوهایی را شناسایی کنند که به راحتی می توانند توسط یک انسان نادیده گرفته شوند. تراکنش هایی که ریسک بالایی دارند می توانند به طور کامل رد شوند یا برای بررسی دستی ارسال شوند حتی قبل از رسیدن مرحله ای که ممکن است یک بررسی شناسه وجود داشته باشد - و بنابراین فرصتی برای کلاهبرداران برای استفاده از فناوری دیپ فیک.
هرچه یک سیستم زودتر یک مجرم سایبری را شناسایی کند، بهتر است. احتمال کمتری وجود دارد که آنها بتوانند جنایت را تداوم بخشند و کمتر برای کسب و کار برای بررسی های بیشتر هزینه کند. بررسیهای ID مبتنی بر ویدیو حتی بدون استفاده از فناوری هوش مصنوعی برای شناسایی تقلبیهای عمیق پرهزینه است.
اگر بتوان کلاهبرداران را قبل از رسیدن به این حد شناسایی کرد، با تکنیک هایی مانند ردپای دیجیتالی، منابع بیشتری برای بهینه سازی بررسی موارد مرزی بیشتر در دسترس باقی خواهد ماند.
ماهیت یادگیری ماشینی باید حکم کند که به مرور زمان در تشخیص ناهنجاری ها و مبارزه با تقلب بهتر می شود. سیستمهای مجهز به هوش مصنوعی میتوانند از الگوهای جدید بیاموزند و به طور بالقوه تراکنشهای جعلی را در مراحل اولیه فرآیند فیلتر کنند.
وقتی به طور خاص صحبت از دیپ فیک می شود، مثال بالا دلیل خاصی برای امیدواری به دست می دهد. دانشمندان راهی برای تشخیص اکثریت قریب به اتفاق دیپ فیک ها با استفاده از بازتاب نور پیدا کرده اند. تحولاتی مانند این نشان دهنده گامی قابل توجه به جلو در پیشگیری از کلاهبرداری و مانع قابل توجهی برای مجرمان سایبری است.
در تئوری، به کارگیری چنین فناوری تشخیصی بسیار ساده تر از یافتن راهی برای دور زدن آن برای کلاهبرداران است - تکرار رفتار نور، به عنوان مثال، در سرعت و مقیاس. به نظر میرسد که بازی «گربه و موش» تا ابد ادامه خواهد داشت، اما فناوریهای بزرگ و امور مالی بزرگ منابع و جیبهای عمیقی دارند که - حداقل در تئوری - یک قدم کوچک جلوتر بمانند.
جیمی فونگ CCO SEON است و تجربه عمیق خود را از مبارزه با تقلب برای کمک به تیم های کلاهبرداری در همه جا به ارمغان می آورد.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoAiStream. Web3 Data Intelligence دانش تقویت شده دسترسی به اینجا.
- ضرب کردن آینده با آدرین اشلی. دسترسی به اینجا.
- خرید و فروش سهام در شرکت های PRE-IPO با PREIPO®. دسترسی به اینجا.
- منبع: https://www.kdnuggets.com/2023/05/fighting-ai-ai-fraud-monitoring-deepfake-applications.html?utm_source=rss&utm_medium=rss&utm_campaign=fighting-ai-with-ai-fraud-monitoring-for-deepfake-applications
- : دارد
- :است
- :نه
- :جایی که
- $UP
- 000
- 10
- 2018
- 2020
- 2021
- 2022
- 2023
- a
- توانایی
- درباره ما
- بالاتر
- در دسترس
- اعمال
- اضافه
- دشمن
- پیش
- AI
- سیستم های هوش مصنوعی
- مجهز به هوش مصنوعی
- الگوریتم
- اجازه دادن
- قبلا
- همچنین
- در مجموع
- an
- تجزیه و تحلیل
- و
- خبر
- اطلاعیه ها
- دیگر
- پاسخ
- هر
- برنامه های کاربردی
- هستند
- دور و بر
- مصنوعی
- هوش مصنوعی
- AS
- همکاری
- At
- خودکار
- در دسترس
- به عقب
- برج میزان
- بانک
- بانک
- باراک اوباما
- موانع
- مستقر
- BE
- شدن
- شود
- بوده
- قبل از
- آغاز شد
- بودن
- بهتر
- میان
- خارج از
- بزرگ
- فناوری بزرگ
- بیت کوین
- خون
- بدن
- هر دو
- به ارمغان می آورد
- گاو وحشی
- بنا
- کسب و کار
- کسب و کار
- اما
- by
- نام
- CAN
- قابلیت های
- کارت ها
- موارد
- کشتی
- شهرت
- قطعا
- به چالش
- چالش ها
- شانس
- تغییر دادن
- GPT چت
- بررسی
- چک
- رنگ
- می آید
- انجمن
- شرکت
- کامل
- کامپیوتر
- قابل توجه
- ادامه دادن
- گفتگو
- هزینه
- گران
- میتوانست
- زن و شوهر
- دوره
- ایجاد
- ایجاد
- جرم
- جنایتکاران
- مجرم سایبری
- مجرمان سایبری
- داده ها
- علم اطلاعات
- تلقی می شود
- عمیق
- جعل عمیق
- deepfakes
- تحویل
- گسترش
- شرح داده شده
- کشف
- پروژه
- تحولات
- دیجیتال
- دونالد
- دونالد مغلوب ساختن پیشی جستن
- انجام شده
- دو
- پیش از آن
- در اوایل
- مرحله اولیه
- آسان تر
- به آسانی
- اقتصادی
- مجمع اقتصادی
- موثر
- اثرات
- عنصر
- عناصر
- ظهور
- بی پایان
- کافی
- وارد شدن
- محق
- ورود
- عصر
- به خصوص
- حتی
- حوادث
- مثال
- مثال ها
- انحصاری
- وجود داشته باشد
- تجربه
- کارشناس
- قرار گرفتن در معرض
- چشم ها
- چهره
- چهره ها
- واقعیت
- جعلی
- بسیار
- مبارزه کردن
- مبارزه با
- فیلتر
- سرمایه گذاری
- مالی
- کلاهبرداری مالی
- موسسات مالی
- پیدا کردن
- پیدا کردن
- fintech
- شرکت ها
- نام خانوادگی
- جریان
- تمرکز
- برای
- انجمن
- به جلو
- یافت
- تقلب
- کشف تقلب
- جلوگیری از کلاه برداری
- کلاهبرداران
- جعلی
- از جانب
- بیشتر
- افزایش
- بازی
- پارسه
- GAN ها
- تولید
- تولید می کند
- واقعی
- دریافت کنید
- می دهد
- Go
- گرافیک
- بزرگترین
- بود
- سخت
- آیا
- he
- کمک
- اینجا کلیک نمایید
- زیاد
- نماد
- های لایت
- خیلی
- خود را
- تاریخی
- اصابت
- امید
- چگونه
- اما
- HTML
- HTTPS
- بزرگ
- به شدت
- انسان
- انسان
- صدها نفر
- ID
- شناسایی
- هویت ها
- تصویر
- عظیم
- بهبود
- in
- در عمق
- نشان می دهد
- ابتکار عمل
- ابتکاری
- فن آوری نوآورانه
- موسسات
- یکپارچه
- اینتل
- اطلاعات
- به
- سرمایه گذاری
- شامل
- IT
- ITS
- خود
- روزنامه
- JPG
- تنها
- kdnuggets
- دانستن
- دانش
- شناخته شده
- KYC
- دیر
- آخرین
- راه اندازی
- یاد گرفتن
- یادگیری
- کمترین
- قرائت
- ترک کرد
- قانونی
- کمتر
- سبک
- روشنایی
- پسندیدن
- احتمالا
- لینک
- زنده
- نگاه کنيد
- مطالب
- دستگاه
- فراگیری ماشین
- مسیر اصلی
- اکثریت
- ساخت
- باعث می شود
- کتابچه راهنمای
- بسیاری
- ماده
- ممکن است..
- معیارهای
- مکانیسم
- عضو
- میلیون
- میلیون ها نفر
- دقیقه
- آینه
- از دست رفته
- MIT
- مدل
- نظارت بر
- ماه
- بیش
- حرکت
- حرکت می کند
- بسیار
- طبیعت
- نیاز
- شبکه
- جدید
- شب
- غیر فنی
- اکنون
- تعداد
- اوباما
- of
- ارائه
- غالبا
- on
- ONE
- آنلاین
- فقط
- OpenAI
- فرصت
- بهینه سازی
- گزینه
- or
- سفارش
- دیگر
- خارج
- تولید
- روی
- خود
- جفت
- بخش
- شرکت کردن
- ویژه
- گذشت
- گذشته
- الگوهای
- PC
- مردم
- شاید
- شخص
- عکس
- محل
- افلاطون
- هوش داده افلاطون
- PlatoData
- جیب
- نقطه
- سیاسی
- نوشته شهوت انگیز
- پست
- بالقوه
- قدرت
- در حال حاضر
- پیشگیری
- اصلی
- روند
- در حال پردازش
- قدرت پردازش
- ساخته
- معلم
- تبلیغاتی
- ثابت
- ارائه
- ارائه
- عمومی
- اهداف
- کیفیت
- رادار
- محدوده
- نرخ
- نسبتا
- زمان واقعی
- واقع بینانه
- واقعیت
- دلیل
- اخیر
- تازه
- شناختن
- اشاره
- منعکس شده
- بازتاب
- بازتاب می دهد
- مربوط
- قابلیت اطمینان
- گزارش
- نشان دادن
- نیاز
- منابع
- مسئوليت
- نتایج
- بازده
- نشان داد
- برگرداندن
- این فایل نقد می نویسید:
- خطر
- به طور معمول
- دویدن
- روز شنبه
- مقیاس
- کلاهبرداری
- کلاهبرداری
- مدرسه
- علم
- دانشمندان
- تیم امنیت لاتاری
- اقدامات امنیتی
- دیدن
- به دنبال
- به نظر می رسد
- مشاهده گردید
- SEON
- سرویس
- او
- تغییر
- باید
- نشان
- نشان داده شده
- طرف
- امضاء
- نشانه ها
- ساده
- پس از
- تنها
- شش
- کوچک
- So
- مزایا
- برخی از
- چیزی
- مصنوعی
- صدا
- به طور خاص
- سرعت
- خرج کردن
- صحنه
- اظهار داشت:
- ماندن
- گام
- هنوز
- داستان
- استراتژی
- خیابان
- مهاجرت تحصیلی
- موضوع
- چنین
- حاکی از
- سطح
- افزایش
- سیستم
- سیستم های
- هدف
- تیم ها
- فن آوری
- فنی
- تکنیک
- فن آوری
- پیشرفته
- آزمون
- نسبت به
- که
- La
- جهان
- شان
- آنها
- خودشان
- سپس
- نظریه
- آنجا.
- از این رو
- اینها
- آنها
- چیز
- این
- کسانی که
- هزاران نفر
- از طریق
- زمان
- به
- هم
- ابزار
- ابزار
- موضوع
- جمع
- آموزش دیده
- معاملات
- نقل و انتقالات
- صادقانه
- صدای شیپور
- تبدیل
- توییتر
- دو
- زیر
- دانشگاه
- استفاده کنید
- استفاده
- کاربران
- با استفاده از
- استفاده کنید
- وسیع
- کنار
- تایید
- بررسی
- بسیار
- از طريق
- تصویری
- فیلم های
- ویروسی
- صدا
- آسیب پذیر
- بیداری
- بود
- مسیر..
- راه
- we
- بود
- وارتون
- چی
- چه زمانی
- که
- WHO
- اراده
- با
- بدون
- مهاجرت کاری
- کارگر
- جهان
- مجمع جهانی اقتصاد
- جهان
- خواهد بود
- سال
- یوتیوب
- زفیرنت