OpenAI वैश्विक एजेंसी को अधीक्षण को विनियमित करने के लिए कहता है

OpenAI वैश्विक एजेंसी को अधीक्षण को विनियमित करने के लिए कहता है

स्रोत नोड: 2674707

GPT-4 निर्माता OpenAI के शीर्ष अधिकारियों के अनुसार, मानवता के लिए प्रौद्योगिकी सुरक्षित है यह सुनिश्चित करने के लिए एक अंतरराष्ट्रीय एजेंसी को कृत्रिम सामान्य बुद्धि का निरीक्षण और ऑडिट करने का प्रभारी होना चाहिए।

सीईओ सैम ऑल्टमैन और सह-संस्थापक ग्रेग ब्रोकमैन और इल्या सुतस्केवर ने कहा कि यह "कल्पना योग्य" है कि एआई असाधारण क्षमता प्राप्त करेगा जो अगले दशक में मनुष्यों से अधिक होगी।

"संभावित उतार-चढ़ाव दोनों के संदर्भ में, अधीक्षण अन्य प्रौद्योगिकियों की तुलना में अधिक शक्तिशाली होगा, जिनके साथ मानवता को अतीत में संघर्ष करना पड़ा है। हम नाटकीय रूप से अधिक समृद्ध भविष्य प्राप्त कर सकते हैं; लेकिन हमें वहां पहुंचने के लिए जोखिम का प्रबंधन करना होगा," तिकड़ी लिखा था मंगलवार को.

उन्होंने तर्क दिया कि इस तरह की शक्तिशाली तकनीक के निर्माण की लागत केवल कम हो रही है क्योंकि अधिक लोग इसे आगे बढ़ाने की दिशा में काम कर रहे हैं। प्रगति को नियंत्रित करने के लिए, अंतर्राष्ट्रीय परमाणु ऊर्जा एजेंसी (IAEA) जैसे अंतर्राष्ट्रीय संगठन द्वारा विकास की निगरानी की जानी चाहिए।

IAEA की स्थापना 1957 में उस समय की गई थी जब सरकारों को डर था कि शीत युद्ध के दौरान परमाणु हथियार विकसित किए जा सकते हैं। एजेंसी परमाणु ऊर्जा को विनियमित करने में मदद करती है, और यह सुनिश्चित करने के लिए सुरक्षा उपाय निर्धारित करती है कि परमाणु ऊर्जा का उपयोग सैन्य उद्देश्यों के लिए नहीं किया जाता है।

“हमें अंतत: अधीक्षण प्रयासों के लिए IAEA जैसी किसी चीज़ की आवश्यकता है; एक निश्चित क्षमता (या कंप्यूट जैसे संसाधन) सीमा से ऊपर के किसी भी प्रयास को एक अंतरराष्ट्रीय प्राधिकरण के अधीन करने की आवश्यकता होगी जो सिस्टम का निरीक्षण कर सके, ऑडिट की आवश्यकता हो, सुरक्षा मानकों के अनुपालन के लिए परीक्षण, तैनाती की डिग्री और सुरक्षा के स्तर आदि पर प्रतिबंध लगा सके। " उन्होंने कहा।

ऐसा समूह ट्रैकिंग गणना और ऊर्जा उपयोग, बड़े और शक्तिशाली मॉडल को प्रशिक्षित करने और चलाने के लिए आवश्यक महत्वपूर्ण संसाधनों का प्रभारी होगा।

OpenAI के शीर्ष अधिकारियों ने सुझाव दिया, "हम सामूहिक रूप से सहमत हो सकते हैं कि सीमा पर AI क्षमता में वृद्धि की दर प्रति वर्ष एक निश्चित दर तक सीमित है।" कंपनियों को स्वैच्छिक रूप से निरीक्षणों के लिए सहमत होना होगा, और एजेंसी को "अस्तित्व संबंधी जोखिम को कम करने" पर ध्यान देना चाहिए, न कि विनियामक मुद्दों पर जो देश के व्यक्तिगत कानूनों द्वारा परिभाषित और निर्धारित हैं।

पिछले हफ्ते, ऑल्टमैन ने यह विचार सामने रखा कि कंपनियों को सीनेट में एक विशिष्ट सीमा से ऊपर उन्नत क्षमताओं वाले मॉडल बनाने के लिए लाइसेंस प्राप्त करना चाहिए। सुनवाई. उनके सुझाव की बाद में आलोचना की गई क्योंकि यह छोटी कंपनियों या ओपन सोर्स समुदाय द्वारा निर्मित एआई सिस्टम को गलत तरीके से प्रभावित कर सकता है, जिनके पास कानूनी आवश्यकताओं को पूरा करने के लिए संसाधन होने की संभावना कम है।

उन्होंने कहा, "हमें लगता है कि कंपनियों और ओपन सोर्स प्रोजेक्ट्स को एक महत्वपूर्ण क्षमता सीमा के नीचे मॉडल विकसित करने की अनुमति देना महत्वपूर्ण है, बिना उस तरह के नियमन के जो हम यहां वर्णित करते हैं (लाइसेंस या ऑडिट जैसे बोझिल तंत्र सहित)," उन्होंने कहा।

मार्च के अंत में एलोन मस्क एक खुले पत्र के 1,000 हस्ताक्षरकर्ताओं में से एक थे, जिन्होंने मानवता के लिए संभावित जोखिमों के कारण एआई को GPT4 की तुलना में अधिक शक्तिशाली विकसित करने और प्रशिक्षण देने के लिए छह महीने के ठहराव का आह्वान किया था, कुछ ऐसा जो ऑल्टमैन ने किया था। की पुष्टि की अप्रैल के मध्य में यह कर रहा था।

पत्र में कहा गया है, "शक्तिशाली एआई सिस्टम को केवल तभी विकसित किया जाना चाहिए जब हमें भरोसा हो कि उनका प्रभाव सकारात्मक होगा और उनके जोखिम प्रबंधनीय होंगे।"

अल्फाबेट और गूगल के सीईओ सुंदर पिचाई ने सप्ताहांत में फाइनेंशियल टाइम्स में एक लेख लिखा, कहावत: "मैं अभी भी मानता हूं कि एआई विनियमित नहीं करने के लिए बहुत महत्वपूर्ण है, और अच्छी तरह से विनियमित नहीं करने के लिए बहुत महत्वपूर्ण है"। ®

समय टिकट:

से अधिक रजिस्टर