ماہرین نے خبردار کیا ہے کہ اگر ابھی کارروائی نہ کی گئی تو AI کے معدوم ہو جائیں گے۔

ماہرین نے خبردار کیا ہے کہ اگر ابھی کارروائی نہ کی گئی تو AI کے معدوم ہو جائیں گے۔

ماخذ نوڈ: 2688105

AI کے چکر لگانے کے بارے میں ایک اور تباہ کن کھلا خط ہے۔ اس بار ٹیک لیڈروں، ایم ایل کے روشن خیالوں، اور یہاں تک کہ چند مشہور شخصیات نے بھی دستخط کیے ہیں تاکہ دنیا پر زور دیا جائے کہ وہ مصنوعی ذہانت سے لاحق مبینہ معدومیت کی سطح کے خطرات کو زیادہ سنجیدگی سے لیں۔ 

زیادہ مناسب طور پر ایک بیان، سنٹر فار اے آئی سیفٹی (سی اے آئی ایس) کا پیغام جس پر اے آئی کے علمبردار جیسے افراد نے دستخط کیے ہیں۔ جیفری ہنٹناوپن اے آئی کے سی ای او سیم آلٹ مین، انکرپشن گرو مارٹن ہیل مین، مائیکروسافٹ کے سی ٹی او کیون سکاٹ، اور دیگر واحد اعلانیہ جملہ قیامت کی پیشین گوئی اگر اس پر توجہ نہ دی گئی:

"اے آئی سے معدومیت کے خطرے کو کم کرنا دیگر سماجی سطح کے خطرات جیسے وبائی امراض اور جوہری جنگ کے ساتھ ساتھ ایک عالمی ترجیح ہونی چاہیے۔" 

اتنا مختصر کیوں؟ مقصد "AI سائنسدانوں، ٹیک لیڈروں، اور پروفیسروں کے وسیع اور بڑھتے ہوئے اتحاد کو ظاہر کرنا تھا جو AI کے معدوم ہونے کے خطرات سے پریشان ہیں۔ CAIS کے ڈائریکٹر ڈین ہینڈریکس نے بتایا کہ ہمیں داؤ پر وسیع پیمانے پر تسلیم کرنے کی ضرورت ہے تاکہ ہم مفید پالیسی پر بات چیت کر سکیں۔ رجسٹر.

CAIS نے اپنے میں مصنوعی جنرل انٹیلی جنس (AGI) کا کوئی ذکر نہیں کیا۔ AI خطرات کی فہرست، ہم نوٹ کرتے ہیں۔ اور موجودہ نسل کے ماڈلز، جیسے ChatGPT، انسانیت کے لیے کوئی خطرہ نہیں ہیں، ہینڈریکس نے ہمیں بتایا۔ اس ہفتے کی وارننگ اس بارے میں ہے کہ آگے کیا ہو سکتا ہے۔

ہینڈریکس نے رائے دی کہ "تباہ کن خطرات کی اقسام جن کا اس بیان سے مراد مستقبل کے جدید ترین AI سسٹمز سے ہے۔" انہوں نے مزید کہا کہ "Apocalyptic خطرے" کی سطح تک پہنچنے کے لیے درکار ضروری پیشرفت دو سے 10 سال کے فاصلے پر ہوسکتی ہے، کئی دہائیوں سے نہیں۔ "ہمیں ابھی تیاری کرنی ہے۔ تاہم، AI نظام جو تباہ کن نتائج کا باعث بن سکتے ہیں، انہیں AGIs ہونے کی ضرورت نہیں ہے،" انہوں نے کہا۔ 

Because humans are perfectly peaceful anyway

ایک ایسا ہی خطرہ is weaponization, or the idea that someone could repurpose benevolent AI to be highly destructive, such as using a drug discovery bot to develop chemical or biological weapons, or using reinforcement learning for machine-based combat. That said, Humans are already quite capable of manufacturing those sorts of weapons, which can take out a person, neighborhood, city, or country.

AI could also be trained to pursue its goals without regard for individual or societal values, we’re warned. It could “enfeeble” humans who end up ceding skills and abilities to automated machines, causing a power imbalance between AI’s controllers and those displaced by automation, or be used to spread disinformation, intentionally or دوسری صورت میں.

Again, none of the AI involved in that needs to be general, and it’s not too much of a stretch to see the potential for current-generation AI to evolve to pose the sorts of risks CAIS is worried about. You may have you own opinions on how truly destructive or capable the software could or will be, and what it could actually achieve.

It’s crucial, CAIS’ argument goes, to examine and address the negative impacts of AI that are already being felt, and to turn those extant impacts into foresight. “As we grapple with immediate AI risks … the AI industry and governments around the world need to also seriously confront the risk that future AIs could pose a threat to human existence,” Hendrycks نے کہا ایک بیان میں.

"دنیا نے ایٹمی جنگ سے متعلق خطرات کو کم کرنے کے لیے کامیابی سے تعاون کیا ہے۔ مستقبل کے AI سسٹمز سے لاحق خطرات سے نمٹنے کے لیے اسی سطح کی کوششوں کی ضرورت ہے،‘‘ ہینڈریکس نے کارپوریٹ، تعلیمی اور فکری رہنماؤں کی فہرست کے ساتھ اس کی حمایت کرنے پر زور دیا۔ 

مسک بورڈ پر نہیں ہے۔

دیگر دستخط کنندگان میں گوگل ڈیپ مائنڈ کے پرنسپل سائنسدان ایان گڈ فیلو، فلسفی ڈیوڈ چلمرز اور ڈینیئل ڈینیٹ، مصنف اور بلاگر سیم ہیرس اور موسیقار/ایلون مسک کے سابق، گرائمز شامل ہیں۔ خود آدمی کی بات کرتے ہوئے، مسک کے دستخط غائب ہیں۔ 

ٹویٹر کے سی ای او تھا دستخط کرنے والوں میں کھلا خط اس پچھلے مارچ میں فیوچر آف لائف انسٹی ٹیوٹ کی طرف سے شائع کیا گیا چھ ماہ کا وقفہ AI سسٹمز کی تربیت پر "GPT-4 سے زیادہ طاقتور۔" حیرت انگیز طور پر، OpenAI کے سی ای او آلٹ مین کے دستخط موجود نہیں تھے۔ کہ خاص خط، ظاہری طور پر اس لیے کہ اس نے ان کی کمپنی کو براہ راست باہر بلایا۔ 

اوپن اے آئی نے تب سے جاری کیا ہے۔ اس کی اپنی انتباہات اعلی درجے کی AI سے لاحق خطرات کے بارے میں اور AI کے استعمال کو منظم کرنے کے لیے بین الاقوامی ایٹمی توانائی ایجنسی کے مشابہ ایک عالمی واچ ڈاگ کے قیام کا مطالبہ کیا۔

وہ انتباہ اور ریگولیٹری کال، تاریخی طور پر خراب وقت کے معاملے میں، اسی دن آلٹ مین آیا دھمکی اوپن اے آئی اور اس کے ساتھ چیٹ جی پی ٹی کو یورپی یونین سے بلاک کے اوپر کھینچنے کے لیے اے آئی ایکٹ. وہ جن اصولوں کی حمایت کرتا ہے وہ ایک چیز ہے، لیکن آلٹ مین نے برسلز کو بتایا کہ AI پابندی کا ان کا خیال ایک ریگولیٹری پل بہت دور تھا، آپ کا بہت بہت شکریہ۔ 

یورپی یونین کے ارکان پارلیمنٹ جواب یہ کہہ کر کہ انہیں OpenAI کی طرف سے حکم نہیں دیا جائے گا، اور یہ کہ اگر کمپنی بنیادی گورننس اور شفافیت کے قوانین کی تعمیل نہیں کر سکتی ہے، تو "ان کے سسٹم یورپی مارکیٹ کے لیے موزوں نہیں ہیں،" ڈچ MEP Kim van Sparrentak نے زور دے کر کہا۔ 

ہم نے اوپن اے آئی سے Altman کی پوزیشن (زبانوں) کے بارے میں وضاحت طلب کی ہے اور اگر ہم دوبارہ سنیں گے تو اس کہانی کو اپ ڈیٹ کریں گے۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر