मेटा के मुख्य एआई वैज्ञानिक ने एआई के अस्तित्व संबंधी खतरे को खारिज किया

मेटा के मुख्य एआई वैज्ञानिक ने एआई के अस्तित्व संबंधी खतरे को खारिज किया

स्रोत नोड: 2951498

कृत्रिम बुद्धिमत्ता (एआई) पर वैश्विक बहस अहम मोड़ पर पहुंच गई है। उद्योग जगत के दिग्गजों की हालिया घोषणाएं विचारों में भारी अंतर का संकेत देती हैं। मेटा के मुख्य एआई वैज्ञानिक यान लेकन एक छोर पर खड़े होकर एआई के वर्तमान स्वरूप में सुरक्षा पर जोर दे रहे हैं।

इसके विपरीत, डॉ. जेफ्री हिंटन, जिन्हें प्यार से "एआई का गॉडफादर" कहा जाता था, ने अपनी गंभीर चिंताओं पर प्रकाश डालने के लिए Google से इस्तीफा दे दिया।

महान एआई बहस

अपने में साक्षात्कार फाइनेंशियल टाइम्स के साथ, लेकन ने कोई शब्द नहीं कहा। उन्होंने एआई के अस्तित्वगत जोखिम के बारे में चिंताओं को "समय से पहले" बताया। उन्होंने आगे बताया कि यह विचार कि एआई मानवता को खत्म कर सकता है, "बेतुका" था। हालाँकि, यह परिप्रेक्ष्य एआई के इर्द-गिर्द मौजूदा बहस को इतना दिलचस्प बना देता है।

वह एआई की वर्तमान सीमाओं पर जोर देते हैं: "अस्तित्व संबंधी जोखिम पर बहस बहुत समय से पहले है जब तक कि हमारे पास एक ऐसी प्रणाली के लिए डिज़ाइन नहीं है जो सीखने की क्षमताओं के मामले में एक बिल्ली को टक्कर दे सकती है, जो इस समय हमारे पास नहीं है।" इसके अतिरिक्त, LeCun ने इस बात पर प्रकाश डाला कि हमारे वर्तमान AI मॉडल को हमारी दुनिया की जटिलताओं को समझने की आवश्यकता है। वे वास्तव में योजना या तर्क नहीं कर सकते।

हालाँकि, ऐसा आशावाद एआई समुदाय के बाहर साझा किया जाता है। डॉ. हिंटन का प्रस्थान Google और उसके बाद के स्पष्टीकरण इस विचलन पर जोर देते हैं। उनकी तात्कालिक चिंताओं में एआई की क्षमता भी शामिल है गलत इस्तेमाल ऑनलाइन प्लेटफॉर्म पर. उन्हें डर है कि AI इंटरनेट पर नकली फ़ोटो, वीडियो और टेक्स्ट की बाढ़ ला सकता है, जिससे वास्तविक और AI-जनित सामग्री के बीच अंतर करना अधिक जटिल हो जाएगा।

इन प्रत्यक्ष निहितार्थों से परे, हिंटन की व्यापक आशंकाएं एआई के सामाजिक प्रभाव, विशेष रूप से संभावित नौकरी हानि और बढ़ती एआई हथियारों की दौड़ के इर्द-गिर्द घूमती हैं। यह बाद की चिंता स्पष्ट रूप से घातक स्वायत्त हथियार प्रणाली (एलएडब्ल्यूएस) विकसित करने से संबंधित है।

एआई गलत कदम और दुरुपयोग

एआई वार्तालाप का एक अन्य आयाम इसका संभावित दुरुपयोग है। उदाहरण के लिए, विश्व-प्रसिद्ध क्रिप्टोक्यूरेंसी प्लेटफ़ॉर्म बिनेंस ने खुद को एआई-जनरेटेड स्मीयर अभियान के बीच पाया। एआई ने गलत तरीके से अपने सीईओ, चांगपेंग "सीजेड" झाओ को चीनी कम्युनिस्ट पार्टी के युवा संगठन के साथ जोड़ दिया।

इसके अलावा, एआई टूल ने फर्जी खबरें पैदा करने की क्षमता दिखाई है, जिससे मीडिया परिदृश्य में महत्वपूर्ण चिंताएं पैदा हो रही हैं। उदाहरण के लिए, डेली मेल को एआई-जनित जानकारी के आधार पर एक कहानी प्रकाशित करने के लिए गुमराह किया गया था, जिसे बाद में उसने वापस ले लिया। ये उदाहरण उन आशंकाओं को रेखांकित करते हैं जिनके ख़िलाफ़ डॉ. हिंटन जैसे विशेषज्ञ वकालत कर रहे हैं।

वैश्विक सावधानी का आह्वान

हालाँकि व्यक्तिगत आवाज़ें आवश्यक हैं, सामूहिक स्वीकृतियाँ और भी अधिक प्रभावशाली हैं। OpenAI और Google DeepMind जैसे संगठनों के प्रमुखों सहित कई AI विशेषज्ञों ने संयुक्त रूप से चिंता व्यक्त की है। उनका संयुक्त बयान, संक्षिप्त लेकिन प्रभावशाली, पढ़ता है, "महामारी और परमाणु युद्ध जैसे अन्य सामाजिक-स्तर के जोखिमों के साथ-साथ एआई से विलुप्त होने के जोखिम को कम करना एक वैश्विक प्राथमिकता होनी चाहिए।"

हालाँकि, सावधानी के इस सामूहिक आह्वान के भीतर भी आगे का रास्ता अधिक स्पष्ट हो सकता है। ओपनएआई के सीईओ, सैम ऑल्टमैन ने इस जटिल कथा की एक झलक प्रदान की। जबकि वह एक के सामने पेश हुए थे सीनेट की सुनवाई एआई विनियमन पर चर्चा करने के लिए, उन्होंने नवाचार को रोके बिना जांच और संतुलन के महत्व को रेखांकित किया।

एआई के साथ आगे बढ़ना

इन बहसों पर ध्यान देना महत्वपूर्ण होगा क्योंकि समाज एआई-प्रभुत्व वाले युग में गहराई से उतरेगा। जबकि लेकुन जैसे उद्योग जगत के नेता एआई के सकारात्मक प्रक्षेपवक्र में विश्वास व्यक्त करते हैं, हिंटन जैसी सावधानी की आवाजें हमें आगे की चुनौतियों की याद दिलाती हैं।

नवाचार और विनियमन के बीच एक नाजुक संतुलन बनाना महत्वपूर्ण होगा। एआई के संभावित खतरों और अवसरों के बारे में चल रही चर्चा अकादमिक से अधिक है क्योंकि यह इस बात में निर्णायक भूमिका निभाएगी कि मानवता इस परिवर्तनकारी तकनीक का उपयोग कैसे करती है।

समय टिकट:

से अधिक मेटान्यूज