विशेषज्ञों ने अभी कार्रवाई नहीं की तो एआई से विलुप्त होने की चेतावनी दी है

विशेषज्ञों ने अभी कार्रवाई नहीं की तो एआई से विलुप्त होने की चेतावनी दी है

स्रोत नोड: 2688105

एआई के बारे में एक और विनाशकारी खुला पत्र चर्चा में है। इस बार तकनीकी नेताओं, एमएल दिग्गजों और यहां तक ​​​​कि कुछ मशहूर हस्तियों ने दुनिया से कृत्रिम बुद्धिमत्ता द्वारा उत्पन्न कथित विलुप्त होने के स्तर के खतरों को अधिक गंभीरता से लेने का आग्रह करने के लिए हस्ताक्षर किए हैं। 

अधिक उपयुक्त बयान, एआई अग्रणी जैसे व्यक्तियों द्वारा हस्ताक्षरित सेंटर फॉर एआई सेफ्टी (सीएआईएस) का संदेश है जेफ्री हिंटन, ओपनएआई के सीईओ सैम अल्टमैन, एन्क्रिप्शन गुरु मार्टिन हेलमैन, माइक्रोसॉफ्ट सीटीओ केविन स्कॉट, और अन्य एक हैं एकल घोषणात्मक वाक्य यदि इस पर ध्यान न दिया गया तो सर्वनाश की भविष्यवाणी करना:

"महामारी और परमाणु युद्ध जैसे अन्य सामाजिक-स्तर के जोखिमों के साथ-साथ एआई से विलुप्त होने के जोखिम को कम करना एक वैश्विक प्राथमिकता होनी चाहिए।" 

इतना संक्षिप्त क्यों? लक्ष्य था "एआई वैज्ञानिकों, तकनीकी नेताओं और प्रोफेसरों के व्यापक और बढ़ते गठबंधन को प्रदर्शित करना जो एआई विलुप्त होने के जोखिमों से चिंतित हैं। हमें दांव की व्यापक स्वीकृति की आवश्यकता है ताकि हम उपयोगी नीतिगत चर्चा कर सकें, ”सीएआईएस के निदेशक डैन हेंड्रिक्स ने बताया रजिस्टर.

सीएआईएस अपने में कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) का कोई उल्लेख नहीं करता है एआई जोखिमों की सूची, हम लिखते हैं। और वर्तमान पीढ़ी के मॉडल, जैसे कि चैटजीपीटी, मानवता के लिए सर्वनाशकारी खतरा नहीं हैं, हेंड्रिक्स ने हमें बताया। इस सप्ताह की चेतावनी इस बारे में है कि आगे क्या हो सकता है।

हेंड्रिक्स ने कहा, "यह कथन जिस प्रकार के विनाशकारी खतरों का उल्लेख करता है वे भविष्य के उन्नत एआई सिस्टम से जुड़े हैं।" उन्होंने कहा कि "सर्वनाशकारी खतरे" के स्तर तक पहुंचने के लिए आवश्यक प्रगति में केवल दो से 10 साल ही लग सकते हैं, कई दशक नहीं। “हमें अभी से तैयारी करने की जरूरत है। हालाँकि, एआई सिस्टम जो भयावह परिणाम दे सकते हैं, उन्हें एजीआई होने की आवश्यकता नहीं है, ”उन्होंने कहा। 

क्योंकि मनुष्य वैसे भी पूर्णतः शांतिपूर्ण हैं

एक ऐसा धमकी हथियारीकरण है, या यह विचार है कि कोई व्यक्ति परोपकारी एआई को अत्यधिक विनाशकारी बना सकता है, जैसे कि रासायनिक या जैविक हथियार विकसित करने के लिए दवा खोज बॉट का उपयोग करना, या मशीन-आधारित युद्ध के लिए सुदृढीकरण सीखने का उपयोग करना। जैसा कि कहा गया है, मनुष्य पहले से ही उन प्रकार के हथियारों का निर्माण करने में काफी सक्षम हैं, जो किसी व्यक्ति, पड़ोस, शहर या देश को खत्म कर सकते हैं।

हमें चेतावनी दी गई है कि एआई को व्यक्तिगत या सामाजिक मूल्यों की परवाह किए बिना अपने लक्ष्यों को आगे बढ़ाने के लिए भी प्रशिक्षित किया जा सकता है। यह उन मनुष्यों को "कमजोर" कर सकता है जो कौशल और क्षमताओं को स्वचालित मशीनों को सौंप देते हैं, जिससे एआई के नियंत्रकों और स्वचालन द्वारा विस्थापित लोगों के बीच शक्ति असंतुलन पैदा होता है, या जानबूझकर गलत सूचना फैलाने के लिए उपयोग किया जाता है। अन्यथा.

फिर, इसमें शामिल किसी भी एआई को सामान्य होने की आवश्यकता नहीं है, और यह देखने के लिए बहुत अधिक खिंचाव नहीं है कि वर्तमान पीढ़ी के एआई के विकसित होने की क्षमता उस प्रकार के जोखिम पैदा कर सकती है जिसके बारे में सीएआईएस चिंतित है। सॉफ़्टवेयर वास्तव में कितना विनाशकारी या सक्षम हो सकता है या होगा, और यह वास्तव में क्या हासिल कर सकता है, इस पर आपकी अपनी राय हो सकती है।

सीएआईएस का तर्क है कि एआई के पहले से ही महसूस किए जा रहे नकारात्मक प्रभावों की जांच करना और उनका समाधान करना और उन मौजूदा प्रभावों को दूरदर्शिता में बदलना महत्वपूर्ण है। हेंड्रिक्स ने कहा, "जैसा कि हम तत्काल एआई जोखिमों से जूझ रहे हैं... एआई उद्योग और दुनिया भर की सरकारों को भी इस जोखिम का गंभीरता से सामना करने की जरूरत है कि भविष्य के एआई मानव अस्तित्व के लिए खतरा पैदा कर सकते हैं।" कहा गवाही में।

“दुनिया ने परमाणु युद्ध से संबंधित जोखिमों को कम करने के लिए सफलतापूर्वक सहयोग किया है। भविष्य के एआई सिस्टम से उत्पन्न खतरों से निपटने के लिए समान स्तर के प्रयास की आवश्यकता है, ”हेंड्रिक्स ने आग्रह किया, कॉर्पोरेट, अकादमिक और विचारशील नेताओं की एक सूची ने उनका समर्थन किया। 

मस्क बोर्ड पर नहीं हैं

अन्य हस्ताक्षरकर्ताओं में Google डीपमाइंड के प्रमुख वैज्ञानिक इयान गुडफेलो, दार्शनिक डेविड चाल्मर्स और डैनियल डेनेट, लेखक और ब्लॉगर सैम हैरिस और संगीतकार/एलोन मस्क के पूर्व, ग्रिम्स शामिल हैं। स्वयं व्यक्ति की बात करें तो मस्क के हस्ताक्षर अनुपस्थित हैं। 

ट्विटर के सीईओ था उन लोगों में से जिन्होंने एक पर हस्ताक्षर किए खुला पत्र पिछले मार्च में फ्यूचर ऑफ लाइफ इंस्टीट्यूट द्वारा प्रकाशित आग्रह किया गया था छह महीने का विराम एआई सिस्टम के प्रशिक्षण पर "जीपीटी-4 से अधिक शक्तिशाली।" आश्चर्य की बात नहीं कि ओपनएआई के सीईओ ऑल्टमैन के हस्ताक्षर अनुपस्थित थे कि विशेष पत्र, जाहिरा तौर पर क्योंकि इसमें उनकी कंपनी को सीधे तौर पर बुलाया गया था। 

OpenAI ने तब से जारी किया है इसकी अपनी चेतावनियाँ हैं उन्नत एआई द्वारा उत्पन्न खतरों के बारे में और एआई के उपयोग को विनियमित करने के लिए अंतर्राष्ट्रीय परमाणु ऊर्जा एजेंसी के समान एक वैश्विक निगरानी संस्था की स्थापना का आह्वान किया।

वह चेतावनी और नियामक कॉल, ऐतिहासिक रूप से खराब समय के मामले में, उसी दिन ऑल्टमैन आई थी धमकी दी यूरोपीय संघ से ओपनएआई और चैटजीपीटी को ब्लॉक के ऊपर खींचने के लिए एआई एक्ट. वह जिन नियमों का समर्थन करते हैं, वे एक बात हैं, लेकिन ऑल्टमैन ने ब्रुसेल्स से कहा कि एआई प्रतिबंध का उनका विचार बहुत दूर का नियामक पुल था, बहुत-बहुत धन्यवाद। 

यूरोपीय संघ के सांसद जवाब दिया यह कहकर कि वे OpenAI द्वारा निर्देशित नहीं होंगे, और यदि कंपनी बुनियादी शासन और पारदर्शिता नियमों का पालन नहीं कर सकती है, तो "उनके सिस्टम यूरोपीय बाजार के लिए उपयुक्त नहीं हैं," डच एमईपी किम वैन स्पैरेंटक ने जोर देकर कहा। 

हमने ओपनएआई से ऑल्टमैन की स्थिति पर स्पष्टीकरण मांगा है और अगर हमें कोई जवाब मिलेगा तो हम इस कहानी को अपडेट करेंगे। ®

समय टिकट:

से अधिक रजिस्टर