डीपफेक अनुप्रयोगों के लिए एआई फ्रॉड मॉनिटरिंग के साथ एआई से लड़ना - केडीनगेट्स

डीपफेक अनुप्रयोगों के लिए एआई धोखाधड़ी निगरानी के साथ एआई से लड़ना - केडीनगेट्स

स्रोत नोड: 2667255
डीपफेक अनुप्रयोगों के लिए एआई फ्रॉड मॉनिटरिंग के साथ एआई से लड़ना
द्वारा फोटो तिमा मिरोशनिचेंको
 

पिछले कुछ वर्षों से डीपफेक डेटा विज्ञान समुदाय में बातचीत का एक बड़ा विषय रहा है। 2020 में वापस, एमआईटी प्रौद्योगिकी समीक्षा यह दर्शाया गया है कि गहरी जालसाजी उनके "मुख्यधारा के उपयोग के लिए निर्णायक बिंदु" पर प्रहार किया था।

डेटा निश्चित रूप से इसका समर्थन करता है। वाल स्ट्रीट जर्नल बताया गया है कि 10,000 में 2018 से भी कम डीपफेक ऑनलाइन पाए गए थे। ये संख्या अब लाखों में है, और डीप फेक के कई वास्तविक उदाहरण हैं जिनका उपयोग भ्रमित करने और गलत सूचना देने और वित्तीय धोखाधड़ी को कायम रखने के लिए किया जा रहा है। 

डीपफेक तकनीकें कुल मिलाकर साइबर अपराधियों को कई परिष्कृत विकल्प प्रदान कर रही हैं।

वे "अस्वीकार्य" बिटकॉइन ऑफर के लिए प्रचार सामग्री में एक सेलिब्रिटी की छवि डालने की क्षमता से कहीं आगे जाते हैं, जो निश्चित रूप से एक घोटाला साबित होता है। डीपफेक वीडियो, विशेष रूप से, धोखेबाजों के रडार पर हैं। वे उन्हें स्वचालित आईडी और केवाईसी जांच से गुजरने का एक तरीका प्रदान करते हैं और भयावह रूप से प्रभावी साबित हुए हैं।

मई 2022 में, किनारे से सूचना दी गई "सजीवता परीक्षणउपयोगकर्ताओं की पहचान सत्यापित करने में सहायता के लिए बैंकों और अन्य संस्थानों द्वारा उपयोग किए जाने वाले डीप फेक द्वारा आसानी से मूर्ख बनाया जा सकता है। संबंधित अध्ययन में पाया गया कि परीक्षण की गई 90% आईडी सत्यापन प्रणालियाँ असुरक्षित थीं।

तो उत्तर क्या है? क्या हम एक ऐसे युग में प्रवेश कर रहे हैं जहां साइबर अपराधी वित्तीय संस्थानों द्वारा उपयोग किए जाने वाले सुरक्षा उपायों को मात देने के लिए आसानी से गहरी नकली तकनीक का उपयोग कर सकते हैं? क्या ऐसे व्यवसायों को अपने स्वचालित सिस्टम को छोड़कर मैन्युअल, मानव जांच पर वापस लौटना होगा?

इसका सरल उत्तर है "शायद नहीं"। जिस तरह अपराधी इस उछाल का फायदा उठा सकते हैं एआई प्रगति, वैसे ही वे कंपनियां भी लक्षित हो सकती हैं जिन्हें वे लक्षित करते हैं। आइए अब देखें कि कमजोर व्यवसाय एआई से एआई से कैसे लड़ सकते हैं।

डीपफेक कई प्रकार की कृत्रिम बुद्धिमत्ता तकनीकों का उपयोग करके तैयार किए जाते हैं, जैसे:

  • जननिक प्रतिकूल नेटवर्क (GANs) 
  • एनकोडर/डिकोडर जोड़े
  • प्रथम-क्रम गति मॉडल

पहली नज़र में, ये तकनीकें मशीन लर्निंग समुदाय के विशेष संरक्षण की तरह लग सकती हैं, जो प्रवेश के लिए उच्च बाधाओं और विशेषज्ञ तकनीकी ज्ञान की आवश्यकता से परिपूर्ण हैं। हालाँकि, AI के अन्य तत्वों की तरह, वे समय के साथ काफी अधिक सुलभ हो गए हैं।

कम लागत वाले, ऑफ-द-शेल्फ उपकरण अब गैर-तकनीकी उपयोगकर्ताओं को डीप फेक बनाने की अनुमति देते हैं, जैसे कोई भी OpenAI में साइन अप कर सकता है और ChatGPT की क्षमताओं का परीक्षण कर सकता है।

हाल ही में 2020 में, विश्व आर्थिक मंच ने बताया कि "उत्पादन की लागत"अत्याधुनिक“डीपफेक $30,000 से कम है। लेकिन 2023 में, व्हार्टन स्कूल के प्रोफेसर एथन मॉलिक ने एक वायरल ट्विटर पोस्ट के माध्यम से खुलासा किया कि उन्होंने एक डीप फेक वीडियो स्वयं छह मिनट से कम समय में व्याख्यान देते हुए।

मोलिक का कुल खर्च $10.99 था। उन्होंने अपनी आवाज़ की लगभग पूरी तरह से नकल करने के लिए, $5 की लागत पर, ElevenLabs नामक सेवा का उपयोग किया। डी-आईडी नामक एक अन्य सेवा, $5.99 प्रति माह पर, केवल एक स्क्रिप्ट और एक तस्वीर के आधार पर एक वीडियो तैयार करती थी। यहां तक ​​कि उन्होंने स्क्रिप्ट बनाने के लिए ChatGPT का भी उपयोग किया।

जब डीपफेक पहली बार उभरना शुरू हुआ, तो प्राथमिक ध्यान नकली राजनीतिक वीडियो (और नकली अश्लील साहित्य) पर था। तब से, दुनिया ने देखा है:

  • BuzzFeedVideos ने एक डीपफेक सार्वजनिक सेवा घोषणा बनाई है, जिसमें बराक ओबामा को दर्शाया गया है, जिसका प्रतिरूपण अभिनेता जॉर्डन पील ने किया है।
  • एक गहरा नकली YouTube वीडियो जिसमें डोनाल्ड ट्रम्प को एक हिरन के बारे में कहानी सुनाते हुए दिखाया गया है।
  • सैटरडे नाइट लाइव में हिलेरी क्लिंटन का एक गहरा नकली वीडियो दिखाया गया, जब वास्तव में एक कलाकार सदस्य द्वारा उनका प्रतिरूपण किया जा रहा था।

हालांकि ये उदाहरण डीपफेक के "मजेदार" पक्ष को दिखाते हैं, और शायद प्रौद्योगिकी की क्षमताओं के बारे में वास्तविकता का झटका देते हैं, धोखेबाजों ने नापाक उद्देश्यों के लिए उनका उपयोग करने में कोई समय बर्बाद नहीं किया है। 

डीपफेक तकनीकों का उपयोग करके धोखाधड़ी के वास्तविक जीवन के कई उदाहरण हैं।

गहरे फर्जी घोटालों के कारण होने वाला नुकसान सैकड़ों हजारों से लेकर कई लाखों तक होता है। 2021 में, 35 मिलियन डॉलर के धोखाधड़ी वाले बैंक हस्तांतरण की व्यवस्था करने के लिए एआई वॉयस क्लोनिंग घोटाले का इस्तेमाल किया गया था। यह एक बहुत बड़ी वित्तीय अदायगी थी जो कभी भी नहीं हुई की आवश्यकता होती है वीडियो का उपयोग.

एआई आउटपुट की गुणवत्ता, विशेष रूप से वीडियो, बहुत भिन्न हो सकती है। कुछ वीडियो स्पष्ट रूप से मनुष्यों के लिए नकली हैं। लेकिन, जैसा कि ऊपर कहा गया है, स्वचालित प्रणालियाँ, जैसे कि बैंकों और फिनटेक द्वारा उपयोग की जाने वाली प्रणालियाँ, अतीत में आसानी से मूर्ख साबित हुई हैं।

जैसे-जैसे एआई क्षमताओं में सुधार जारी रहेगा, संतुलन में और बदलाव आने की संभावना है। एक हालिया विकास "काउंटर फोरेंसिक" का समावेश है, जहां पहचान तंत्र को मूर्ख बनाने के प्रयास में, "लक्षित अदृश्य" शोर "को गहरे नकली में जोड़ा जाता है।

तो क्या कर सकते हैं?

जिस तरह धोखेबाज वित्तीय लाभ के लिए नवीनतम एआई तकनीक का उपयोग करना चाहते हैं, उसी तरह तकनीकी कंपनियों जैसे व्यवसायों को अपराधियों को पकड़ने के लिए तकनीक का उपयोग करने के तरीके खोजने में कड़ी मेहनत करनी पड़ती है।

एआई से लड़ने के लिए एआई का उपयोग करने वाली कंपनियों के कुछ उदाहरण यहां दिए गए हैं:

2022 के अंत में, इंटेल ने "एआई-आधारित टूल" लॉन्च किया।नकली पकड़ने वाला”। इंटेल की 96% की रिपोर्ट की गई विश्वसनीयता दर के साथ, यह फोटोप्लेथिस्मोग्राफी (पीपीजी) नामक तकनीक का उपयोग करता है।

तकनीक उस चीज़ का उपयोग करती है जो कृत्रिम रूप से तैयार किए गए वीडियो में मौजूद नहीं है: रक्त प्रवाह। वैध वीडियो पर प्रशिक्षित, इसका गहन-शिक्षण एल्गोरिदम रक्त वाहिकाओं द्वारा अवशोषित या परावर्तित प्रकाश को मापता है, जो शरीर के चारों ओर रक्त के घूमने पर रंग बदलता है।

फेककैचर, इंटेल की रिस्पॉन्सिबल एआई पहल का हिस्सा है, जिसे "दुनिया का पहला वास्तविक समय का डीप फेक डिटेक्टर" के रूप में वर्णित किया गया है जो मिलीसेकंड में परिणाम देता है। यह एक नवोन्मेषी तकनीक है जो ऐसे संकेतों की तलाश करती है कि वीडियो में दिखाया गया व्यक्ति वास्तव में इंसान है। यह किसी ऐसी चीज़ की तलाश करता है जो "सही" हो, बजाय इसके कि किसी "गलत" चीज़ को उजागर करने के लिए डेटा का विश्लेषण किया जाए। इस तरह यह नकली होने की संभावना का संकेत देता है।

इस बीच, बफ़ेलो विश्वविद्यालय (यूबी) के कंप्यूटर वैज्ञानिक अपनी खुद की एक डीपफेक डिटेक्शन तकनीक पर काम कर रहे हैं। यह कुछ ऐसी चीज़ का उपयोग करता है जिसे शौकीन पीसी गेमर्स जानते हैं कि अनुकरण करने के लिए अत्यधिक प्रसंस्करण शक्ति की आवश्यकता होती है: प्रकाश।

Claimed by UB to be 94% effective on fake photos, the AI tool looks at how light reflects in the eyes of the subject. The surface of the cornea acts as a mirror, and generates “reflective patterns”.

वैज्ञानिकों का अध्ययन, जिसका शीर्षक है "असंगत कॉर्निया स्पेक्युलर हाइलाइट्स का उपयोग करके जीएएन-जनरेटेड चेहरों को उजागर करना", इंगित करता है कि "जीएएन संश्लेषित चेहरों को दो आंखों के बीच असंगत कॉर्नियल स्पेक्युलर हाइलाइट्स के साथ उजागर किया जा सकता है"।

यह सुझाव देता है कि एआई सिस्टम के लिए वास्तविक हाइलाइट्स का अनुकरण करना "गैर-तुच्छ" होगा। पीसी गेमर्स, जो अक्सर यथार्थवादी प्रकाश प्रभावों का अनुभव करने के लिए नवीनतम रे-ट्रेसिंग ग्राफिक्स कार्ड में निवेश करते हैं, यहां की चुनौतियों को सहज रूप से पहचान लेंगे।

शायद धोखाधड़ी का पता लगाने की सबसे बड़ी चुनौती धोखेबाजों और उन्हें विफल करने के लिए काम करने वालों के बीच अंतहीन "बिल्ली और चूहे" का खेल है। उपरोक्त जैसी घोषणाओं के मद्देनजर, इसकी अत्यधिक संभावना है कि लोग पहले से ही ऐसी प्रौद्योगिकियों के निर्माण पर काम कर रहे हैं जो ऐसे पहचान तंत्रों को दरकिनार कर सकती हैं और उन्हें मात दे सकती हैं।

यह भी एक बात है कि ऐसे तंत्र मौजूद हैं, लेकिन दूसरी बात यह है कि उन्हें व्यवसायों द्वारा उपयोग किए जाने वाले समाधानों में नियमित रूप से एकीकृत किया जाता है। इससे पहले, हमने एक आँकड़े का उल्लेख किया था जिसमें बताया गया था कि 90% समाधानों को "आसानी से मूर्ख बनाया जा सकता है"। संभावना यह है कि कम से कम कुछ वित्तीय संस्थान अभी भी ऐसी प्रणालियों का उपयोग कर रहे हैं।

बुद्धिमान धोखाधड़ी की निगरानी रणनीति के लिए कंपनियों को गहरे नकलीपन का पता लगाने से परे देखने की आवश्यकता है। बहुत कुछ किया जा सकता है से पहले एक जालसाज वीडियो-आधारित आईडी सत्यापन या केवाईसी प्रक्रिया में भाग लेने के लिए सिस्टम में काफी दूर तक पहुंच जाता है। जिन सावधानियों को प्रक्रिया में पहले स्थान मिलता है उनमें एआई और मशीन लर्निंग का तत्व भी शामिल हो सकता है।

उदाहरण के लिए, मशीन लर्निंग का उपयोग वास्तविक समय में धोखाधड़ी की निगरानी और नियम-सेट बनाने दोनों के लिए किया जा सकता है। ये ऐतिहासिक धोखाधड़ी की घटनाओं को देख सकते हैं, ऐसे पैटर्न का पता लगा सकते हैं जिन्हें कोई इंसान आसानी से भूल सकता है। उच्च जोखिम समझे जाने वाले लेन-देन को सीधे खारिज किया जा सकता है, या मैन्युअल समीक्षा के लिए पारित किया जा सकता है पहुँचने से पहले ही एक ऐसा चरण जहां आईडी जांच हो सकती है - और इसलिए धोखेबाज के लिए डीपफेक तकनीक का उपयोग करने का अवसर।

जितनी जल्दी कोई सिस्टम किसी साइबर अपराधी का पता लगाएगा, उतना बेहतर होगा। इस बात की संभावना कम है कि वे किसी अपराध को अंजाम दे सकें और व्यवसाय के लिए आगे की जांच पर खर्च करने की संभावना भी कम हो जाएगी। डीप फेक का पता लगाने के लिए एआई तकनीक को शामिल किए बिना भी वीडियो-आधारित आईडी जांच महंगी है।

यदि डिजिटल फ़ुटप्रिंटिंग जैसी तकनीकों के साथ धोखेबाजों को इतनी दूर तक पहुंचने से पहले ही पहचाना जा सकता है, तो अधिक सीमावर्ती मामलों की जांच को अनुकूलित करने के लिए अधिक संसाधन उपलब्ध रहेंगे।

मशीन लर्निंग की प्रकृति ही यह तय करती है कि समय के साथ, यह विसंगतियों का पता लगाने और धोखाधड़ी से लड़ने में बेहतर हो जाए। एआई-संचालित सिस्टम नए पैटर्न से सीख सकते हैं और प्रक्रिया के प्रारंभिक चरण में संभावित रूप से धोखाधड़ी वाले लेनदेन को फ़िल्टर कर सकते हैं।

जब विशेष रूप से डीपफेक की बात आती है, तो ऊपर दिया गया उदाहरण आशा का एक विशेष कारण देता है। वैज्ञानिकों ने प्रकाश प्रतिबिंबों का उपयोग करके अधिकांश डीपफेक का पता लगाने का एक तरीका ढूंढ लिया है। इस तरह के विकास धोखाधड़ी की रोकथाम में एक महत्वपूर्ण कदम और साइबर अपराधियों के लिए एक बड़ी बाधा का प्रतिनिधित्व करते हैं।

सिद्धांत रूप में, धोखेबाजों के लिए इससे बचने का रास्ता खोजने की तुलना में ऐसी पहचान तकनीक को तैनात करना बहुत आसान है - उदाहरण के लिए, गति और पैमाने पर प्रकाश के व्यवहार की नकल करना। ऐसा लगता है कि "बिल्ली और चूहे" का खेल अनंत काल तक जारी रहेगा, लेकिन बड़ी तकनीक और बड़े वित्त के पास संसाधन और गहरी जेबें हैं - कम से कम सिद्धांत रूप में - एक छोटा कदम आगे रहने के लिए।
 
 
जिमी फोंगो SEON का CCO है और हर जगह धोखाधड़ी टीमों की सहायता के लिए धोखाधड़ी से लड़ने का अपना गहन अनुभव लेकर आता है।
 

समय टिकट:

से अधिक केडनगेट्स