भारतीय प्रधानमंत्री के सलाहकारों का कहना है कि AI 'मास सिज़ोफ्रेनिया' का कारण बन सकता है

भारतीय प्रधानमंत्री के सलाहकारों का कहना है कि AI 'मास सिज़ोफ्रेनिया' का कारण बन सकता है

स्रोत नोड: 3091579

भारत की प्रधान मंत्री की आर्थिक सलाहकार परिषद (ईएसीपीएम) ने एक दस्तावेज़ लिखकर चेतावनी दी है कि वर्तमान वैश्विक एआई नियम अप्रभावी होने की संभावना है, और वैकल्पिक रणनीति के साथ प्रौद्योगिकी को विनियमित करने की सिफारिश की है - जैसे कि वित्तीय बाजारों में उपयोग की जाती है।

काउंसिल एआई को लेकर काफी चिंतित है. इसका दस्तावेज़ चेतावनी देता है, "निगरानी, ​​प्रेरक संदेश और सिंथेटिक मीडिया पीढ़ी के संयोजन के माध्यम से, द्वेषपूर्ण एआई सूचना पारिस्थितिकी तंत्र को तेजी से नियंत्रित कर सकता है और यहां तक ​​कि मानव व्यवहार को मजबूर करने के लिए अनुकूलित धोखाधड़ी वाली वास्तविकताओं का निर्माण कर सकता है, जिससे बड़े पैमाने पर सिज़ोफ्रेनिया उत्पन्न हो सकता है।"

संगठन एआई के प्रति अमेरिका के दृष्टिकोण की आलोचना करता है, इसे बहुत ही लापरवाह मानता है, यूके को इनोवेशन और अहस्तक्षेप समर्थक बताकर जोखिम पेश करता है, और ईयू के एआई नियमों को ब्लॉक के सदस्य देशों के अलग-अलग होने और अलग-अलग जोर देने और अनुप्रयोगों को अपनाने के कारण त्रुटिपूर्ण बताता है। प्रवर्तन उपाय.

दस्तावेज़ में यह भी तर्क दिया गया है कि "एक सर्व-शक्तिशाली केंद्रीकृत नौकरशाही प्रणाली" के साथ विनियमन करने की चीन की प्रवृत्ति त्रुटिपूर्ण है - जैसा कि "कोविड-19 की संभावित लैब-लीक उत्पत्ति" से प्रदर्शित होता है।

हम यहाँ पर शीशे के माध्यम से देख रहे हैं, दोस्तों।

(रिकॉर्ड के लिए, राष्ट्रीय खुफिया निदेशक के अमेरिकी कार्यालय के पास है कोई संकेत नहीं मिला कि यह वायरस चीनी लैब से लीक हुआ है।)

लेकिन हम पचाते हैं।

परिषद का सुझाव है कि एआई को "फीडबैक लूप, चरण परिवर्तन और प्रारंभिक स्थितियों के प्रति संवेदनशीलता के माध्यम से विकसित होने वाली विकेन्द्रीकृत स्व-संगठित प्रणाली" माना जाए और ऐसी प्रणालियों के अन्य उदाहरण प्रस्तुत किए जाएं - जैसे कि वित्तीय बाजारों में देखी जाने वाली गैर-रेखीय संस्थाएं, चींटी कालोनियों का व्यवहार , या यातायात पैटर्न।

“एआई की गैर-रैखिक, अप्रत्याशित प्रकृति के कारण पारंपरिक तरीके कम पड़ जाते हैं। एआई सिस्टम कॉम्प्लेक्स एडेप्टिव सिस्टम (सीएएस) के समान हैं, जहां घटक अप्रत्याशित तरीके से बातचीत करते हैं और विकसित होते हैं। समझाया [पीडीएफ] परिषद।

परिषद "पूर्व-पूर्व" उपायों पर भरोसा करने के लिए उत्सुक नहीं है, क्योंकि एआई सिस्टम द्वारा पेश किए जाने वाले जोखिम के बारे में पहले से जानना असंभव है - इसका व्यवहार बहुत सारे कारकों का परिणाम है।

इसलिए दस्तावेज़ में भारत को पाँच नियामक उपाय अपनाने का प्रस्ताव है:

  • रेलिंग और विभाजन स्थापित करना, जिससे यह सुनिश्चित होना चाहिए कि एआई प्रौद्योगिकियां न तो अपने इच्छित कार्य से आगे बढ़ेंगी और न ही परमाणु हथियार निर्णय लेने जैसे खतरनाक क्षेत्रों पर अतिक्रमण करेंगी। यदि वे किसी तरह एक प्रणाली में उस रेलिंग को तोड़ते हैं, तो यह सुनिश्चित करने के लिए विभाजन होते हैं कि यह फैल न जाए।
  • मैन्युअल ओवरराइड और प्राधिकरण चोकप्वाइंट सुनिश्चित करना जो मनुष्यों को नियंत्रण में रखता है, और मानव निर्णय निर्माताओं के लिए बहु-कारक प्रमाणीकरण और बहु-स्तरीय समीक्षा प्रक्रिया के साथ उन्हें सुरक्षित रखता है।
  • पारदर्शिता और व्याख्यात्मकता ऑडिट-अनुकूल वातावरण, नियमित ऑडिट और मूल्यांकन, और मानकीकृत विकास दस्तावेज़ीकरण को बढ़ावा देने के लिए कोर एल्गोरिदम के लिए खुली लाइसेंसिंग जैसे उपायों के साथ।
  • विशिष्ट जवाबदेही पूर्वनिर्धारित दायित्व प्रोटोकॉल, अनिवार्य मानकीकृत घटना रिपोर्टिंग और जांच तंत्र के माध्यम से।
  • एक विशेष नियामक संस्था बनानाजिसे व्यापक जनादेश दिया गया है, वह फीडबैक-संचालित दृष्टिकोण अपनाता है, एआई सिस्टम व्यवहार की निगरानी और ट्रैक करता है, स्वचालित अलर्ट सिस्टम को एकीकृत करता है और एक राष्ट्रीय रजिस्ट्री स्थापित करता है।

परिषद ने अपने विचारों को वितरित करने के तरीकों के लिए अन्य सीएएस प्रणालियों की ओर देखने की सिफारिश की - मुख्य रूप से, वित्तीय बाजार।

दस्तावेज़ में कहा गया है, "वित्तीय बाजारों जैसी अराजक प्रणालियों को नियंत्रित करने की अंतर्दृष्टि जटिल प्रौद्योगिकियों के लिए व्यवहार्य विनियमन दृष्टिकोण प्रदर्शित करती है," समर्पित एआई नियामकों को भारत के सेबी या यूएसए के एसईसी जैसे वित्तीय नियामकों पर आधारित किया जा सकता है।

जिस तरह बाजार खतरे में होने पर निकाय व्यापार रोक देते हैं, उसी तरह नियामक भी इसी तरह के "चोकपॉइंट" अपना सकते हैं, जिस पर एआई को नियंत्रण में लाया जाएगा। अनिवार्य वित्तीय रिपोर्टिंग उस प्रकार के प्रकटीकरण के लिए एक अच्छा मॉडल है जिसे एआई ऑपरेटरों को दाखिल करने की आवश्यकता हो सकती है।

लेखकों की चिंताएं इस धारणा से प्रेरित हैं कि एआई की बढ़ती सर्वव्यापकता - इसके कामकाज की अस्पष्टता के साथ मिलकर - का मतलब है कि महत्वपूर्ण बुनियादी ढांचे, रक्षा संचालन और कई अन्य क्षेत्र खतरे में हैं।

वे जिन खतरों को रेखांकित करते हैं उनमें "भगोड़ा एआई" शामिल है जहां सिस्टम मानव नियंत्रण से परे पुनरावर्ती रूप से आत्म-सुधार कर सकते हैं और "मानव कल्याण के साथ गलत तालमेल" और तितली प्रभाव - एक परिदृश्य "जहां मामूली परिवर्तन महत्वपूर्ण, अप्रत्याशित परिणाम दे सकते हैं।"

परिषद ने चेतावनी दी, "इसलिए, हितों को अधिकतम करने के लक्ष्य के साथ एल्गोरिदम, प्रशिक्षण सेट और मॉडल पर अपारदर्शी राज्य नियंत्रण की एक प्रणाली विनाशकारी परिणाम पैदा कर सकती है।"

दस्तावेज़ में कहा गया है कि इसके प्रस्तावित नियमों का मतलब यह हो सकता है कि कुछ परिदृश्यों को खारिज करने की आवश्यकता है।

काउंसिल का मानना ​​है, ''हम कभी भी हर चीज के लिए सुपर कनेक्टेड इंटरनेट की अनुमति नहीं दे सकते।'' लेकिन इससे यह निष्कर्ष निकलता है कि मजबूत नियमों से मानवता को और अधिक लाभ हो सकता है।

“एआई उपकरण बनाने वालों को कथित अनपेक्षित परिणामों के लिए आसानी से नहीं छोड़ा जाएगा - जिससे पूर्व-पूर्व 'स्किन इन द गेम' डाला जाएगा। मनुष्य ओवरराइड और प्राधिकरण शक्तियां बरकरार रखेंगे। नियमित अनिवार्य ऑडिट को व्याख्यात्मकता लागू करनी होगी।" ®

समय टिकट:

से अधिक रजिस्टर