स्काईनेट अहोय? अगली पीढ़ी के एआई सुरक्षा जोखिमों के लिए क्या अपेक्षा करें

स्काईनेट अहोय? अगली पीढ़ी के एआई सुरक्षा जोखिमों के लिए क्या अपेक्षा करें

स्रोत नोड: 3037761

जैसा कि कृत्रिम बुद्धिमत्ता (एआई) में नवाचार तेजी से जारी है, 2024 संगठनों और शासी निकायों के लिए सुरक्षा मानकों, प्रोटोकॉल और अन्य रेलिंग स्थापित करने का एक महत्वपूर्ण समय होगा ताकि एआई को उनसे आगे निकलने से रोका जा सके, सुरक्षा विशेषज्ञों ने चेतावनी दी है।

परिष्कृत एल्गोरिदम और विशाल डेटा सेट द्वारा संचालित बड़े भाषा मॉडल (एलएलएम), उल्लेखनीय भाषा समझ और मानवीय बातचीत क्षमताओं का प्रदर्शन करते हैं। आज तक के इन प्लेटफार्मों में से सबसे परिष्कृत में से एक OpenAI का GPT-4 है, जो उन्नत तर्क और समस्या-समाधान क्षमताओं का दावा करता है और कंपनी के ChatGPT बॉट को शक्ति प्रदान करता है। और कंपनी ने माइक्रोसॉफ्ट के साथ साझेदारी में GPT-5 पर काम शुरू कर दिया है, जिसके बारे में सीईओ सैम ऑल्टमैन ने कहा बहुत आगे तक जाएगा - "अधीक्षण बुद्धि" रखने की हद तक।

ये मॉडल संगठनों के लिए महत्वपूर्ण उत्पादकता और दक्षता लाभ की भारी क्षमता का प्रतिनिधित्व करते हैं, लेकिन विशेषज्ञ इस बात से सहमत हैं कि समग्र रूप से उद्योग के लिए समय आ गया है अंतर्निहित सुरक्षा जोखिमों को संबोधित करने के लिए उनके विकास और तैनाती से पता चला। वास्तव में, राइटरबड्डी एआई द्वारा हालिया शोध, जो एआई-आधारित सामग्री-लेखन टूल प्रदान करता है, ने पाया कि चैटजीपीटी पर पहले से ही 14 बिलियन विज़िट और गिनती हो चुकी है।

जैसे-जैसे संगठन एआई में प्रगति की ओर बढ़ रहे हैं, एआई-आधारित गोपनीयता और सुरक्षा फर्म माइनओएस के सीईओ गैल रिंगेल कहते हैं, "इसे कठोर नैतिक विचारों और जोखिम मूल्यांकन के साथ जोड़ा जाना चाहिए।"

क्या AI अस्तित्व के लिए ख़तरा है?

एआई की अगली पीढ़ी के लिए सुरक्षा को लेकर चिंताएं मार्च में फैलनी शुरू हुईं, जिसमें लगभग 34,000 शीर्ष प्रौद्योगिकीविदों द्वारा हस्ताक्षरित एक खुला पत्र था, जिसमें जेनेरिक एआई सिस्टम के विकास को रोकने का आह्वान किया गया था। OpenAI का GPT-4. पत्र में समाज के लिए "गंभीर जोखिमों" का हवाला दिया गया है जो प्रौद्योगिकी का प्रतिनिधित्व करती है और "एआई प्रयोगशालाओं द्वारा अधिक शक्तिशाली डिजिटल दिमागों को विकसित करने और तैनात करने की अनियंत्रित दौड़ जिसे कोई भी नहीं - यहां तक ​​​​कि उनके निर्माता भी नहीं - समझ सकते हैं, भविष्यवाणी कर सकते हैं, या कर सकते हैं विश्वसनीय रूप से नियंत्रण।"

उन मनहूस आशंकाओं के बावजूद, अधिकांश सुरक्षा विशेषज्ञ उस प्रलय के दिन के बारे में चिंतित नहीं हैं जिसमें मशीनें इंसानों से अधिक स्मार्ट हो जाती हैं और दुनिया पर कब्ज़ा कर लेती हैं।

साइबर सिक्योरिटी फर्म नेट्रिक्स में सेल्स इंजीनियरिंग के निदेशक मैट विल्सन कहते हैं, "खुले पत्र में व्यापक रूप से एआई की तेजी से प्रगति और संभावित अनुप्रयोगों के बारे में वैध चिंताओं का उल्लेख किया गया है, 'क्या यह मानवता के लिए अच्छा है'।" "कुछ परिदृश्यों में प्रभावशाली होते हुए भी, एआई टूल के सार्वजनिक संस्करण उतने खतरनाक नहीं लगते हैं।"

शोधकर्ताओं का कहना है कि चिंताजनक बात यह है कि जोखिमों को ठीक से प्रबंधित करने के लिए एआई की प्रगति और उसे अपनाना बहुत तेजी से आगे बढ़ रहा है। एआई सुरक्षा प्रदाता स्लैशनेक्स्ट के सीईओ पैट्रिक हैर कहते हैं, "हम पेंडोरा के बक्से पर दोबारा ढक्कन नहीं लगा सकते।"

इसके अलावा, एआई सुरक्षा फर्म डार्कट्रेस फेडरल के सीईओ मार्कस फाउलर का मानना ​​है कि केवल "इस क्षेत्र में नवाचार की दर को रोकने का प्रयास करने से जोखिमों को कम करने में मदद नहीं मिलेगी", जिसे अलग से संबोधित किया जाना चाहिए। उनका कहना है कि इसका मतलब यह नहीं है कि एआई का विकास अनियंत्रित रूप से जारी रहना चाहिए। इसके विपरीत, जोखिम मूल्यांकन और उचित सुरक्षा उपायों को लागू करने की दर उस दर से मेल खानी चाहिए जिस पर एलएलएम को प्रशिक्षित और विकसित किया जा रहा है।

फाउलर बताते हैं, "एआई तकनीक तेजी से विकसित हो रही है, इसलिए सरकारों और एआई का उपयोग करने वाले संगठनों को भी एआई सुरक्षा के बारे में चर्चा में तेजी लानी चाहिए।"

जनरेटिव एआई जोखिम

जेनरेटिव एआई के लिए कई व्यापक रूप से मान्यता प्राप्त जोखिम हैं जिन पर विचार करने की आवश्यकता है और जैसे-जैसे प्रौद्योगिकी की भावी पीढ़ियां स्मार्ट होती जाएंगी, और बदतर होती जाएंगी। मनुष्यों के लिए सौभाग्य से, उनमें से कोई भी अब तक एक विज्ञान-कल्पना प्रलय का दिन प्रस्तुत नहीं करता है जिसमें एआई अपने रचनाकारों को नष्ट करने की साजिश रचता है।

इसके बजाय, उनमें कहीं अधिक परिचित खतरे शामिल हैं, जैसे डेटा लीक, संभावित रूप से व्यवसाय-संवेदनशील जानकारी; दुर्भावनापूर्ण गतिविधि के लिए दुरुपयोग; और गलत आउटपुट जो उपयोगकर्ताओं को गुमराह या भ्रमित कर सकते हैं, जिसके परिणामस्वरूप अंततः नकारात्मक व्यावसायिक परिणाम होंगे।

क्योंकि एलएलएम को सटीक और प्रासंगिक रूप से प्रासंगिक आउटपुट प्रदान करने के लिए बड़ी मात्रा में डेटा तक पहुंच की आवश्यकता होती है, संवेदनशील जानकारी अनजाने में प्रकट या दुरुपयोग हो सकती है।

“मुख्य जोखिम इसे खिलाने वाले कर्मचारी हैं व्यवसाय-संवेदनशील जानकारी के साथ जब उसे एक योजना लिखने या कंपनी की मालिकाना जानकारी वाले ईमेल या बिजनेस डेक को दोबारा लिखने के लिए कहा जाता है, तो रिंगेल नोट करता है।

साइबर हमले के नजरिए से, खतरे वाले अभिनेताओं ने पहले से ही चैटजीपीटी और अन्य एआई सिस्टम को हथियार बनाने के असंख्य तरीके ढूंढ लिए हैं। एक तरीका परिष्कृत व्यावसायिक ईमेल समझौता (बीईसी) और अन्य फ़िशिंग हमलों को बनाने के लिए मॉडलों का उपयोग करना है, जिसमें सफलता के लिए डिज़ाइन किए गए सामाजिक रूप से इंजीनियर, वैयक्तिकृत संदेशों के निर्माण की आवश्यकता होती है।

"मैलवेयर के साथ, चैटजीपीटी साइबर अपराधियों को मैलवेयर डिटेक्शन इंजन से एक कदम आगे रहने के लिए अनंत कोड विविधताएं बनाने में सक्षम बनाता है," हैर कहते हैं।

एआई मतिभ्रम भी एक महत्वपूर्ण सुरक्षा खतरा पैदा करता है और दुर्भावनापूर्ण अभिनेताओं को चैटजीपीटी जैसी एलएलएम-आधारित तकनीक को एक अनोखे तरीके से लैस करने की अनुमति देता है। एआई मतिभ्रम एआई द्वारा एक प्रशंसनीय प्रतिक्रिया है जो अपर्याप्त, पक्षपाती, या बिल्कुल सच नहीं है। गार्टनर के उपाध्यक्ष अविवा लिटन चेतावनी देते हैं, "काल्पनिक या अन्य अवांछित प्रतिक्रियाएं संगठनों को दोषपूर्ण निर्णय लेने, प्रक्रियाओं और भ्रामक संचार में ले जा सकती हैं।"

डेटा सुरक्षा प्रदाता सिक्यूरिटी में एआई के उपाध्यक्ष माइकल राइनहार्ट का कहना है कि खतरे वाले कलाकार इन मतिभ्रम का उपयोग एलएलएम को जहर देने और "एक प्रश्न के जवाब में विशिष्ट गलत सूचना उत्पन्न करने" के लिए भी कर सकते हैं। "यह कमजोर स्रोत-कोड पीढ़ी के लिए और संभवतः, किसी साइट के उपयोगकर्ताओं को असुरक्षित कार्यों के लिए निर्देशित करने में सक्षम चैट मॉडल के लिए विस्तार योग्य है।"

हमलावर इस हद तक भी जा सकते हैं सॉफ़्टवेयर पैकेजों के दुर्भावनापूर्ण संस्करण प्रकाशित करें एलएलएम किसी सॉफ़्टवेयर डेवलपर को इसकी अनुशंसा कर सकता है, यह मानते हुए कि यह किसी समस्या का वैध समाधान है। इस तरह, हमलावर आपूर्ति श्रृंखला पर हमले करने के लिए एआई को और अधिक हथियार बना सकते हैं।

आगे का रास्ता

विशेषज्ञों का कहना है कि इन जोखिमों को प्रबंधित करने के लिए मापी गई और सामूहिक कार्रवाई की आवश्यकता होगी, इससे पहले कि एआई नवाचार उद्योग की इसे नियंत्रित करने की क्षमता से आगे निकल जाए। लेकिन उनके पास इस बारे में भी विचार हैं कि एआई की समस्या का समाधान कैसे किया जाए।

हैर का मानना ​​है "AI को A से लड़ें” रणनीति, जिसमें “एआई द्वारा उत्पन्न जोखिमों को विफल करने के लिए सुरक्षा समाधानों और रणनीतियों में प्रगति समान या अधिक गति से विकसित होनी चाहिए।”

उन्होंने आगे कहा, "साइबर सुरक्षा सुरक्षा को एआई तकनीक का उपयोग करके साइबर खतरों से सफलतापूर्वक लड़ने के लिए एआई का लाभ उठाने की जरूरत है।" "तुलना में, विरासत सुरक्षा तकनीक इन हमलों के खिलाफ कोई मौका नहीं देती है।"

हालाँकि, संगठनों को भी एआई को अपनाने के लिए एक मापा दृष्टिकोण अपनाना चाहिए - जिसमें शामिल हैं एआई-आधारित सुरक्षा समाधान - ऐसा न हो कि वे अपने पर्यावरण में और अधिक जोखिम लाएँ, नेट्रिक्स के विल्सन सावधान करते हैं।

वह सलाह देते हैं, "समझें कि एआई क्या है और क्या नहीं।" "उन विक्रेताओं को चुनौती दें जो एआई को नियोजित करने का दावा करते हैं कि वे बताएं कि यह क्या करता है, यह उनके समाधान को कैसे बढ़ाता है, और यह आपके संगठन के लिए क्यों मायने रखता है।"

सिक्यूरिटी का राइनहार्ट केंद्रित समाधानों को तैनात करके और फिर संगठन को अनावश्यक जोखिम में डालने से तुरंत पहले रेलिंग लगाकर पर्यावरण में एआई को चरणबद्ध करने के लिए दो-स्तरीय दृष्टिकोण प्रदान करता है।

वे कहते हैं, "पहले एप्लिकेशन-विशिष्ट मॉडल अपनाएं, जो संभावित रूप से ज्ञान के आधार पर संवर्धित हों, जो विशिष्ट उपयोग के मामलों में मूल्य प्रदान करने के लिए तैयार किए गए हों।" "फिर... गोपनीयता और सुरक्षा मुद्दों के लिए इन मॉडलों को भेजे जाने वाले संदेशों की जांच करके उनकी सुरक्षा के लिए एक निगरानी प्रणाली लागू करें।"

विशेषज्ञ भी जोखिम को कम करने के लिए बाद में विचार करने के बजाय एआई को तैनात करने से पहले उसके आसपास सुरक्षा नीतियां और प्रक्रियाएं स्थापित करने की सलाह देते हैं। वे अनुपालन की निगरानी के लिए एक समर्पित एआई जोखिम अधिकारी या टास्क फोर्स भी स्थापित कर सकते हैं।

उद्यम के बाहर, समग्र रूप से उद्योग को भी एआई के आसपास सुरक्षा मानकों और प्रथाओं को स्थापित करने के लिए कदम उठाना चाहिए, जिसे प्रौद्योगिकी का विकास और उपयोग करने वाला हर कोई अपना सकता है - कुछ ऐसा जिसके लिए वैश्विक स्तर पर सार्वजनिक और निजी दोनों क्षेत्रों द्वारा सामूहिक कार्रवाई की आवश्यकता होगी। , डार्कट्रेस फ़ेडरल के फाउलर कहते हैं।

वह हवाला देता है सुरक्षित एआई सिस्टम बनाने के लिए दिशानिर्देश एआई के निरंतर विकास के साथ होने वाले प्रयासों के प्रकार के उदाहरण के रूप में यूएस साइबर सिक्योरिटी एंड इंफ्रास्ट्रक्चर सिक्योरिटी एजेंसी (सीआईएसए) और यूके नेशनल साइबर सिक्योरिटी सेंटर (एनसीएससी) द्वारा सहयोगात्मक रूप से प्रकाशित किया गया।

"संक्षेप में," सिक्यूरिटी के राइनहार्ट कहते हैं, "वर्ष 2024 इस उभरते जेनरेटर एआई युग में उपयोगकर्ताओं और डेटा की सुरक्षा के लिए पारंपरिक सुरक्षा और अत्याधुनिक एआई तकनीकों दोनों का तेजी से अनुकूलन देखेगा।"

समय टिकट:

से अधिक डार्क रीडिंग