اوپن اے آئی نے عالمی ایجنسی سے سپر انٹیلی جنس کو منظم کرنے کا مطالبہ کیا۔

اوپن اے آئی نے عالمی ایجنسی سے سپر انٹیلی جنس کو منظم کرنے کا مطالبہ کیا۔

ماخذ نوڈ: 2674707

GPT-4 بنانے والی کمپنی OpenAI کے اعلیٰ حکام کے مطابق، ایک بین الاقوامی ایجنسی کو مصنوعی جنرل انٹیلی جنس کے معائنہ اور آڈٹ کا انچارج ہونا چاہیے تاکہ یہ یقینی بنایا جا سکے کہ ٹیکنالوجی انسانیت کے لیے محفوظ ہے۔

سی ای او سیم آلٹمین اور شریک بانی گریگ بروک مین اور الیا سوٹسکیور نے کہا کہ یہ "قابل فہم" ہے کہ AI اگلی دہائی میں انسانوں سے زیادہ غیر معمولی صلاحیتیں حاصل کر لے گا۔

"ممکنہ اتار چڑھاؤ اور نشیب و فراز دونوں کے لحاظ سے، سپر انٹیلی جنس دوسری ٹیکنالوجیز کے مقابلے میں زیادہ طاقتور ہو گی جن کا انسانیت کو ماضی میں مقابلہ کرنا پڑا ہے۔ ہم ڈرامائی طور پر زیادہ خوشحال مستقبل حاصل کر سکتے ہیں۔ لیکن ہمیں وہاں پہنچنے کے لیے خطرے کا انتظام کرنا ہوگا،" تینوں لکھا ہے منگل کو.

انہوں نے دلیل دی کہ اس طرح کی طاقتور ٹیکنالوجی کی تعمیر کی لاگت صرف کم ہو رہی ہے کیونکہ زیادہ سے زیادہ لوگ اسے آگے بڑھانے کے لیے کام کر رہے ہیں۔ پیشرفت کو کنٹرول کرنے کے لیے، ترقی کی نگرانی بین الاقوامی جوہری توانائی ایجنسی (IAEA) جیسی بین الاقوامی تنظیم کے ذریعے کی جانی چاہیے۔

IAEA کا قیام 1957 میں ایک ایسے وقت میں کیا گیا تھا جب حکومتوں کو خدشہ تھا کہ سرد جنگ کے دوران جوہری ہتھیار تیار کیے جائیں گے۔ ایجنسی نیوکلیئر پاور کو ریگولیٹ کرنے میں مدد کرتی ہے، اور اس بات کو یقینی بنانے کے لیے حفاظتی اقدامات طے کرتی ہے کہ جوہری توانائی کو فوجی مقاصد کے لیے استعمال نہ کیا جائے۔

"ہمیں ممکنہ طور پر سپر انٹیلی جنس کی کوششوں کے لیے IAEA جیسی کسی چیز کی ضرورت ہوگی۔ کسی خاص صلاحیت (یا کمپیوٹ جیسے وسائل) کی حد سے زیادہ کسی بھی کوشش کو ایک بین الاقوامی اتھارٹی کے تابع کرنے کی ضرورت ہوگی جو سسٹم کا معائنہ کر سکے، آڈٹ کی ضرورت ہو، حفاظتی معیارات کی تعمیل کے لیے ٹیسٹ، تعیناتی کی ڈگریوں اور سیکورٹی کی سطحوں پر پابندیاں لگا سکے، وغیرہ، " وہ کہنے لگے.

اس طرح کا گروپ کمپیوٹ اور توانائی کے استعمال سے باخبر رہنے کا انچارج ہو گا، بڑے اور طاقتور ماڈلز کو تربیت دینے اور چلانے کے لیے درکار اہم وسائل۔

"ہم اجتماعی طور پر اس بات پر متفق ہو سکتے ہیں کہ فرنٹیئر پر AI کی صلاحیت میں اضافے کی شرح ایک مخصوص شرح فی سال تک محدود ہے،" OpenAI کے اعلیٰ افسر نے مشورہ دیا۔ کمپنیوں کو رضاکارانہ طور پر معائنہ کے لیے رضامند ہونا پڑے گا، اور ایجنسی کو "وجود کے خطرے کو کم کرنے" پر توجہ مرکوز کرنی چاہیے، نہ کہ انضباطی مسائل پر جن کی تعریف کسی ملک کے انفرادی قوانین کے ذریعے کی گئی ہے۔

پچھلے ہفتے، آلٹ مین نے یہ خیال پیش کیا کہ کمپنیوں کو سینیٹ میں ایک مخصوص حد سے اوپر اعلی درجے کی صلاحیتوں کے ساتھ ماڈلز بنانے کے لیے لائسنس حاصل کرنا چاہیے۔ سماعت. اس کی تجویز پر بعد میں تنقید کی گئی کیونکہ یہ چھوٹی کمپنیوں یا اوپن سورس کمیونٹی کے ذریعہ بنائے گئے AI سسٹمز کو غیر منصفانہ طور پر متاثر کر سکتی ہے جن کے پاس قانونی تقاضوں کو پورا کرنے کے لیے وسائل ہونے کا امکان کم ہے۔

"ہم سمجھتے ہیں کہ کمپنیوں اور اوپن سورس پروجیکٹس کو قابلیت کی ایک اہم حد سے نیچے ماڈلز تیار کرنے کی اجازت دینا ضروری ہے، اس قسم کے ضابطے کے بغیر جس کی ہم یہاں وضاحت کرتے ہیں (بشمول لائسنس یا آڈٹ جیسے بوجھل میکانزم)،" انہوں نے کہا۔

ایلون مسک مارچ کے آخر میں ایک کھلے خط کے 1,000 دستخط کنندگان میں سے ایک تھا جس میں انسانیت کو لاحق ممکنہ خطرات کی وجہ سے GPT4 سے زیادہ طاقتور AI کو تیار کرنے اور تربیت دینے میں چھ ماہ کے وقفے کا مطالبہ کیا گیا تھا، جو کہ Altman اس بات کی تصدیق اپریل کے وسط میں یہ کر رہا تھا۔

خط میں کہا گیا ہے کہ "طاقتور AI سسٹمز کو صرف اس وقت تیار کیا جانا چاہیے جب ہمیں یقین ہو کہ ان کے اثرات مثبت ہوں گے اور ان کے خطرات قابل انتظام ہوں گے۔"

الفابیٹ اور گوگل کے سی ای او سندر پچائی نے ہفتے کے آخر میں فنانشل ٹائمز میں ایک تحریر لکھا، یہ کہہ: "میں اب بھی مانتا ہوں کہ AI بہت اہم ہے کہ وہ ریگولیٹ نہ ہو، اور بہت اہم ہے کہ اچھی طرح سے ریگولیٹ نہ ہو"۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر