संतुलन अधिनियम: जनरेटिव एआई के युग में मानव विशेषज्ञता का मूल्य - डेटावर्सिटी

संतुलन अधिनियम: जनरेटिव एआई के युग में मानव विशेषज्ञता का मूल्य - डेटावर्सिटी

स्रोत नोड: 3052574

जब सुरक्षा की बात आती है तो मनुष्य को उद्यम में सबसे कमजोर कड़ी माना जाता है। ठीक ही तो, जैसा कि 95% से ऊपर साइबर सुरक्षा की अधिकांश घटनाएं मानवीय भूल के कारण होती हैं। मनुष्य चंचल, पतनशील और अप्रत्याशित हैं, जिससे वे संगठनों के सिस्टम में प्रवेश पाने की चाहत रखने वाले साइबर अपराधियों के लिए आसान लक्ष्य बन जाते हैं।  

इससे मशीनों पर हमारी निर्भरता और भी अधिक महत्वपूर्ण हो जाती है। इस बिंदु तक, हम सत्य के रूप में कोड के साथ काम करने के लिए मशीनों पर भरोसा करने में सक्षम हैं। भले ही कोड में कमजोरियों या उनके मानव ऑपरेटरों की सामाजिक खामियों के माध्यम से उनसे समझौता किया जा सकता है, फिर भी समस्याओं का समाधान आमतौर पर स्पष्ट समाधान के साथ किया जाता है। 

हालाँकि, के उदय के साथ जनरेटिव ए.आई. (जेनएआई) और बड़े भाषा मॉडल (एलएलएम), संगठन अब सोशल इंजीनियरिंग हमलों का सामना कर रहे हैं जो एआई को ऐसे काम करने के लिए प्रेरित करते हैं जिन्हें करने का उसका इरादा नहीं था। जैसे-जैसे हम एआई पर अधिक भार डालते हैं, इन नए आक्रमण पैटर्न को देखना दिलचस्प होगा।

इस दुविधा का सामना करते हुए, इस जटिल और विकसित एआई सुरक्षा परिदृश्य को नेविगेट करना एक बार फिर मनुष्यों पर निर्भर है। यह सीआईएसओ को एआई के लाभों के साथ-साथ कमियों को स्पष्ट रूप से बताने और एआई-संचालित उत्पादों और क्षमताओं से जुड़े सुरक्षा विचारों की लंबी सूची को पहचानने के लिए कहता है। 

जेनरेटिव एआई का जल्दबाज़ी में कार्यान्वयन नई साइबर सुरक्षा चुनौतियाँ लाता है

शुरुआत करने के लिए, जब जेनएआई और एलएलएम की बात आती है तो एक आम मुद्दा एआई-जनरेटेड सामग्री पर व्यापक निर्भरता है। मानव इनपुट या निरीक्षण के बिना भ्रामक या गलत सूचना की पुष्टि या जांच किए बिना एआई-जनरेटेड सामग्री पर भरोसा करने से गलत डेटा का प्रसार हो सकता है जो खराब निर्णय लेने और कम महत्वपूर्ण सोच को सूचित करता है। एलएलएम को मतिभ्रम के लिए जाना जाता है, इसलिए कुछ दुष्प्रचार का परिणाम दुर्भावनापूर्ण इरादे से भी नहीं हो सकता है।

उसी तरह, जेनएआई के विकास के बाद पेश किए जा रहे असुरक्षित कोड की मात्रा भी सीआईएसओ के लिए एक महत्वपूर्ण चुनौती बन जाएगी, अगर सक्रिय रूप से अनुमान नहीं लगाया गया। एआई इंजन सुरक्षा कमजोरियों के साथ खराब कोड लिखने के लिए जाने जाते हैं। उचित मानवीय निरीक्षण के बिना, GenAI उचित तकनीकी आधार के बिना लोगों को कोड शिप करने का अधिकार देता है। इससे इन उपकरणों का अनुचित तरीके से उपयोग करने वाले संगठनों के लिए सॉफ़्टवेयर विकास जीवनचक्र में सुरक्षा जोखिम बढ़ जाता है।

डेटा लीक एक और प्रचलित मुद्दा है। कुछ मामलों में, हमलावर संवेदनशील जानकारी निकालने के लिए त्वरित इंजेक्शन का उपयोग कर सकते हैं जो एआई मॉडल ने किसी अन्य उपयोगकर्ता से सीखा है। कई बार यह हानिरहित हो सकता है, लेकिन दुर्भावनापूर्ण उपयोग निश्चित रूप से वर्जित नहीं है। बुरे कलाकार जानबूझकर सावधानीपूर्वक तैयार किए गए संकेतों के साथ एआई टूल की जांच कर सकते हैं, जिसका उद्देश्य टूल द्वारा याद की गई संवेदनशील जानकारी को निकालना है, जिससे संवेदनशील या गोपनीय जानकारी लीक हो सकती है।

एआई कुछ साइबर सुरक्षा अंतरालों को बढ़ा सकता है लेकिन इसमें अन्य को बंद करने की महत्वपूर्ण क्षमता है

अंत में, यह समझा जाता है कि जेनएआई और एलएलएम के प्रसार से कुछ कारणों से हमारे उद्योग की हमले की सतह में कुछ कमी आएगी। सबसे पहले, GenAI के साथ कोड उत्पन्न करने की क्षमता सॉफ्टवेयर इंजीनियर बनने की सीमा को कम कर देती है, जिसके परिणामस्वरूप कमजोर कोड और यहां तक ​​कि कमजोर सुरक्षा मानक भी सामने आते हैं। दूसरा, GenAI को बड़ी मात्रा में डेटा की आवश्यकता होती है, जिसका अर्थ है कि डेटा उल्लंघनों का पैमाना और प्रभाव तेजी से बढ़ेगा। तीसरा, किसी भी उभरती हुई तकनीक की तरह, डेवलपर्स को इस बात की पूरी जानकारी नहीं हो सकती है कि उनके कार्यान्वयन का किस तरह से शोषण या दुरुपयोग किया जा सकता है। 

फिर भी, संतुलित दृष्टिकोण अपनाना आवश्यक है। जबकि जेन एआई की कोड पीढ़ी की सुविधा चिंताएं बढ़ा सकती है, यह साइबर सुरक्षा परिदृश्य में सकारात्मक विशेषताएं भी लाती है। उदाहरण के लिए, यह क्रॉस-साइट स्क्रिप्टिंग (XSS) या SQL इंजेक्शन जैसी सुरक्षा कमजोरियों की प्रभावी ढंग से पहचान कर सकता है। यह दोहरी प्रकृति सूक्ष्म समझ के महत्व को रेखांकित करती है। एआई को पूरी तरह से हानिकारक के रूप में देखने के बजाय, यह कृत्रिम बुद्धिमत्ता और साइबर सुरक्षा में मानव भागीदारी के बीच पूरक संबंध पर जोर देता है। सीआईएसओ को जेनएआई को लागू करने और अपने संगठनों को मजबूत करने के लिए मानव-केंद्रित दृष्टिकोण की खोज करते हुए जेनएआई और एलएलएम के संबंधित जोखिमों को समझना चाहिए।

मनुष्य वही उठाता है जो एआई पीछे छोड़ता है

सीआईएसओ को केवल जेनएआई की जटिलताओं को सुलझाने का काम नहीं सौंपा गया है। उन्हें अपने संगठन के लिए आगे बढ़ने का मार्ग प्रशस्त करना चाहिए और नेतृत्व को प्रदर्शित करना चाहिए कि कैसे उनका संगठन GenAI-प्रभुत्व वाली दुनिया में फलता-फूलता रह सकता है। 

जबकि अंतिम उपयोगकर्ता अक्सर कई सुरक्षा कमजोरियों के लिए ज़िम्मेदार होते हैं, एक अच्छी तरह से प्रशिक्षित और सुरक्षा-दिमाग वाले इंसान की तुलना में साइबर अपराध का कोई बेहतर बचाव नहीं है। इससे कोई फर्क नहीं पड़ता कि किसी संगठन के पास खतरे का पता लगाने वाले कौन से उपकरण मौजूद हैं, जब सॉफ्टवेयर के परीक्षण की बात आती है तो स्क्रीन के पीछे के व्यक्ति की जगह कोई नहीं ले सकता। 

संगठन इसकी शक्ति का उपयोग करके साइबर अपराधियों को मात दे सकते हैं नैतिक हैकिंग। जबकि कुछ लोग पुरानी गलतफहमियों के कारण हैकर्स को अपने नेटवर्क में आमंत्रित करने से झिझकते हैं, ये कानून का पालन करने वाले साइबर सुरक्षा विशेषज्ञ बुरे अभिनेताओं से मुकाबला करने के लिए सबसे उपयुक्त हैं - क्योंकि, एआई के विपरीत, वे साइबर हमलावरों के दिमाग में घुस सकते हैं।

वास्तव में, हैकर्स पहले से ही साइबर अपराधियों के खिलाफ लड़ाई में स्वचालित उपकरणों को पूरक बना रहे हैं 92% एथिकल हैकर्स यह कहते हुए कि वे उन कमजोरियों का पता लगा सकते हैं जिन्हें स्कैनर नहीं ढूंढ सकते। हैकिंग पर से हमेशा के लिए पर्दा हटाकर, बिजनेस लीडर आधुनिक साइबर अपराध से लड़ने में एआई और मानव विशेषज्ञों के बीच अधिक प्रभावी संतुलन बनाने के लिए एथिकल हैकिंग और मानव समर्थन को अपना सकते हैं। हमारा हालिया हैकर-संचालित सुरक्षा रिपोर्ट इस पर प्रकाश डालते हुए, हमारे 91% ग्राहकों का कहना है कि हैकर्स एआई या स्कैनिंग समाधानों की तुलना में अधिक प्रभावशाली और मूल्यवान भेद्यता रिपोर्ट प्रदान करते हैं। जैसे-जैसे एआई हमारे भविष्य को आकार दे रहा है, एथिकल हैकर समुदाय इसके सुरक्षित एकीकरण को सुनिश्चित करने के लिए प्रतिबद्ध रहेगा।

अत्यधिक कुशल हैकरों के नेटवर्क के साथ स्वचालन के संयोजन का मतलब है कि कंपनियां महत्वपूर्ण एप्लिकेशन त्रुटियों का शोषण होने से पहले ही पता लगा सकती हैं। जब संगठन स्वचालित सुरक्षा उपकरणों को एथिकल हैकिंग के साथ प्रभावी ढंग से मिलाते हैं, तो वे लगातार विकसित हो रहे डिजिटल हमले की सतह में अंतराल को बंद कर देते हैं। 

ऐसा इसलिए है क्योंकि सुरक्षा टीम की उत्पादकता में सुधार के लिए मनुष्य और एआई मिलकर काम कर सकते हैं: 

  1. हमले की सतही टोही: आधुनिक संगठन एक व्यापक और जटिल आईटी बुनियादी ढांचा विकसित कर सकते हैं जिसमें विभिन्न प्रकार के अधिकृत और गैर-स्वीकृत हार्डवेयर और सॉफ्टवेयर शामिल हैं। सॉफ्टवेयर और हार्डवेयर जैसी आईटी परिसंपत्तियों का एक सर्व-समावेशी सूचकांक विकसित करना कमजोरियों को कम करने, पैच प्रबंधन को सुव्यवस्थित करने और उद्योग के आदेशों के अनुपालन में सहायता के लिए महत्वपूर्ण है। यह उन बिंदुओं की पहचान और विश्लेषण करने में भी मदद करता है जिनके माध्यम से कोई हमलावर किसी संगठन को निशाना बना सकता है।
  2. सतत मूल्यांकन: पॉइंट-इन-टाइम सुरक्षा से आगे बढ़ते हुए, संगठन डिजिटल परिदृश्य के निरंतर परीक्षण को प्राप्त करने के लिए वास्तविक समय पर हमले की सतह की अंतर्दृष्टि के साथ मानव सुरक्षा विशेषज्ञों की सरलता को जोड़ सकते हैं। निरंतर प्रवेश परीक्षण आईटी टीमों को निरंतर सिमुलेशन के परिणामों को देखने में सक्षम बनाता है जो दर्शाता है कि वर्तमान परिवेश और संभावित कमजोर स्थानों में उल्लंघन कैसा दिखेगा जहां टीमें वास्तविक समय में अनुकूलन कर सकती हैं।
  3. प्रक्रिया संवर्द्धन: विश्वसनीय मानव हैकर्स प्रक्रिया संवर्द्धन में सहायता के लिए सुरक्षा टीमों को कमजोरियों और संपत्तियों के बारे में बहुमूल्य जानकारी दे सकते हैं।

निष्कर्ष

चूंकि जेनरेटिव एआई इतनी तेज गति से विकसित हो रहा है, सीआईएसओ को अपनी समझ का लाभ उठाना चाहिए कि मनुष्य एआई सुरक्षा को बढ़ाने और अपने बोर्ड और नेतृत्व टीम से समर्थन हासिल करने के लिए कैसे सहयोग कर सकते हैं। परिणामस्वरूप, संगठनों के पास इन चुनौतियों से प्रभावी ढंग से निपटने के लिए पर्याप्त कर्मचारी और संसाधन हो सकते हैं। एथिकल हैकर्स के साथ सहयोग के माध्यम से त्वरित एआई कार्यान्वयन और व्यापक सुरक्षा के बीच सही संतुलन बनाना उचित एआई-संचालित समाधानों में निवेश के तर्क को मजबूत करता है।

समय टिकट:

से अधिक डेटावर्सिटी