ہندوستانی وزیر اعظم کے مشیروں کا کہنا ہے کہ اے آئی 'بڑے پیمانے پر شیزوفرینیا' کا سبب بن سکتا ہے

ہندوستانی وزیر اعظم کے مشیروں کا کہنا ہے کہ اے آئی 'بڑے پیمانے پر شیزوفرینیا' کا سبب بن سکتا ہے

ماخذ نوڈ: 3091579

ہندوستان کی اقتصادی مشاورتی کونسل برائے وزیر اعظم (EACPM) نے ایک دستاویز تحریر کی ہے جس میں انتباہ کیا گیا ہے کہ موجودہ عالمی AI ضوابط کے غیر موثر ہونے کا امکان ہے، اور اس ٹیکنالوجی کو متبادل حربوں کے ساتھ ریگولیٹ کرنے کی سفارش کی ہے – جیسے کہ مالیاتی منڈیوں میں استعمال ہوتی ہے۔

کونسل AI کے بارے میں بہت پریشان ہے۔ اس کی دستاویز میں متنبہ کیا گیا ہے کہ "نگرانی، قائل کرنے والے پیغام رسانی اور مصنوعی میڈیا کی تیاری کے امتزاج کے ذریعے، بدتمیز AI تیزی سے معلومات کے ماحولیاتی نظام کو کنٹرول کر سکتا ہے اور یہاں تک کہ انسانی رویے کو مجبور کرنے کے لیے اپنی مرضی کے مطابق فریب دینے والی حقیقتوں کو گھڑ سکتا ہے، جس سے بڑے پیمانے پر شیزوفرینیا ہو سکتا ہے۔"

org نے AI کے بارے میں امریکہ کے نقطہ نظر کو بہت ہینڈ آف قرار دیتے ہوئے تنقید کی ہے، UK کو جدت پسندی اور laissez-faire کے حامی ہونے کے باعث خطرہ پیش کرنے کے طور پر، اور یورپی یونین کے AI قوانین کو خامیوں کے طور پر بلاک کے رکن ممالک کے الگ ہونے اور اپنانے کی وجہ سے نفاذ کے اقدامات.

دستاویز میں یہ دلیل بھی دی گئی ہے کہ چین کا "ایک تمام طاقتور مرکزی بیوروکریٹک نظام" کے ساتھ ریگولیٹ کرنے کا رجحان خامی ہے - جیسا کہ "COVID-19 کی ممکنہ لیب لیک ہونے والی اصل" سے ظاہر ہوتا ہے۔

ہم لوگ یہاں دیکھنے والے شیشے سے گزر رہے ہیں۔

(ریکارڈ کے لیے، نیشنل انٹیلی جنس کے ڈائریکٹر کے امریکی دفتر کے پاس ہے۔ کوئی اشارہ نہیں ملا کہ یہ وائرس ایک چینی لیب سے لیک ہوا تھا۔)

لیکن ہم کھدائی کرتے ہیں۔

کونسل تجویز کرتی ہے کہ AI کو "فیڈ بیک لوپس، فیز ٹرانزیشن اور ابتدائی حالات کے لیے حساسیت کے ذریعے ایک وکندریقرت خود کو منظم کرنے والا نظام سمجھا جائے" اور اس طرح کے نظاموں کی دوسری مثالیں پیش کرتا ہے - جیسے مالیاتی منڈیوں میں نظر آنے والے غیر خطی اداروں، چیونٹی کالونیوں کا برتاؤ۔ ، یا ٹریفک پیٹرن۔

AI کی غیر لکیری، غیر متوقع نوعیت کی وجہ سے روایتی طریقے کم پڑ جاتے ہیں۔ اے آئی سسٹمز کمپلیکس اڈاپٹیو سسٹمز (سی اے ایس) کے مشابہ ہیں، جہاں پرزے غیر متوقع طریقوں سے بات چیت کرتے اور تیار ہوتے ہیں۔ وضاحت کی [پی ڈی ایف] کونسل۔

کونسل "سابقہ" اقدامات پر بھروسہ کرنے کی خواہش مند نہیں ہے، کیونکہ یہ پہلے سے جاننا ناممکن ہے کہ ایک AI سسٹم کیا خطرہ پیش کرے گا - اس کا رویہ بہت سارے عوامل کا نتیجہ ہے۔

اس لیے دستاویز بھارت کو پانچ ریگولیٹری اقدامات اپنانے کی تجویز پیش کرتی ہے:

  • گارڈریلز اور پارٹیشنز کا قیام، جو اس بات کو یقینی بنائے کہ AI ٹیکنالوجیز نہ تو اپنے مطلوبہ کام سے تجاوز کریں اور نہ ہی جوہری ہتھیاروں کی فیصلہ سازی جیسے خطرناک علاقوں پر تجاوز کریں۔ اگر وہ کسی طرح ایک سسٹم میں اس گارڈریل کی خلاف ورزی کرتے ہیں، تو پارٹیشن اس بات کو یقینی بنانے کے لیے موجود ہیں کہ یہ پھیل نہ جائے۔
  • دستی اوور رائیڈز اور اجازت کے چوکی پوائنٹس کو یقینی بنانا جو انسانوں کو کنٹرول میں رکھتی ہے، اور انہیں کثیر عنصر کی تصدیق اور انسانی فیصلہ سازوں کے لیے ایک کثیر سطحی جائزہ کے عمل سے محفوظ رکھتی ہے۔
  • شفافیت اور وضاحت کی اہلیت آڈٹ کے موافق ماحول کو فروغ دینے کے لیے بنیادی الگورتھم کے لیے کھلا لائسنسنگ جیسے اقدامات کے ساتھ، باقاعدہ آڈٹ اور تشخیصات، اور معیاری ترقیاتی دستاویزات۔
  • الگ الگ احتساب پہلے سے طے شدہ ذمہ داری پروٹوکول، لازمی معیاری واقعہ کی رپورٹنگ، اور تحقیقاتی طریقہ کار کے ذریعے۔
  • ایک خصوصی ریگولیٹری باڈی کا قیامجسے ایک وسیع مینڈیٹ دیا جاتا ہے، فیڈ بیک پر مبنی نقطہ نظر کو اپناتا ہے، AI سسٹم کے رویے پر نظر رکھتا ہے اور ٹریک کرتا ہے، خودکار الرٹ سسٹم کو مربوط کرتا ہے اور ایک قومی رجسٹری قائم کرتا ہے۔

کونسل نے اپنے آئیڈیاز فراہم کرنے کے طریقے کے بارے میں آئیڈیاز کے لیے دوسرے CAS سسٹمز کو تلاش کرنے کی سفارش کی - بنیادی طور پر، مالیاتی منڈی۔

"مالیاتی منڈیوں جیسے افراتفری کے نظام پر حکمرانی کرنے والی بصیرت پیچیدہ ٹیکنالوجیز کے لیے قابل عمل ضابطے کے طریقوں کو ظاہر کرتی ہے،" دستاویز مشاہدہ کرتی ہے، تجویز کرتی ہے کہ سرشار AI ریگولیٹرز کو ہندوستان کے SEBI یا USA کے SEC جیسے مالیاتی ریگولیٹرز پر بنایا جا سکتا ہے۔

جس طرح وہ ادارے جب مارکیٹ خطرے میں ہوتے ہیں تو تجارتی روک لگاتے ہیں، اسی طرح ریگولیٹرز بھی اسی طرح کے "چوک پوائنٹس" کو اپنا سکتے ہیں جس پر AI کو ہیل پر لایا جائے گا۔ لازمی مالیاتی رپورٹنگ اس قسم کے انکشاف کے لیے ایک اچھا نمونہ ہے جس کی AI آپریٹرز کو فائل کرنے کی ضرورت ہو سکتی ہے۔

مصنفین کے خدشات کو اس یقین سے تقویت ملی ہے کہ AI کی بڑھتی ہوئی ہر جگہ - اس کے کام کی دھندلاپن کے ساتھ مل کر - کا مطلب ہے کہ اہم بنیادی ڈھانچہ، دفاعی آپریشنز، اور بہت سے دوسرے شعبے خطرے میں ہیں۔

وہ جن خطرات کا خاکہ پیش کرتے ہیں ان میں "بھاگنے والا AI" ہے جہاں نظام بار بار خود کو انسانی قابو سے باہر کر سکتے ہیں اور "انسانی فلاح و بہبود کو غلط انداز میں لا سکتے ہیں" اور تتلی کا اثر - ایک ایسا منظر نامہ "جہاں معمولی تبدیلیاں اہم، غیر متوقع نتائج کا باعث بن سکتی ہیں۔"

کونسل نے متنبہ کیا کہ "لہذا، الگورتھم، ٹریننگ سیٹس، اور ماڈلز پر مبہم ریاستی کنٹرول کا نظام جس کا مقصد مفادات کو زیادہ سے زیادہ کرنا ہے، تباہ کن نتائج کا باعث بن سکتا ہے۔"

دستاویز نوٹ کرتی ہے کہ اس کے مجوزہ ضوابط کا مطلب یہ ہو سکتا ہے کہ کچھ منظرناموں کو مسترد کرنے کی ضرورت ہے۔

کونسل نے اعتراف کیا کہ "ہم کبھی بھی ہر چیز کے سپر منسلک انٹرنیٹ کی اجازت نہیں دے سکتے ہیں۔" لیکن یہ نتیجہ اخذ کرتا ہے کہ مضبوط ضابطوں سے انسانیت کو بہت کچھ حاصل کرنا ہو سکتا ہے۔

AI ٹولز بنانے والے غیر ارادی نتائج کے لیے آسانی سے نہیں چھوڑے جائیں گے - اس طرح 'گیم میں جلد' کا سابقہ ​​داخل کیا جائے گا۔ انسانوں کو اوور رائڈ اور اجازت دینے کے اختیارات برقرار رہیں گے۔ باقاعدگی سے لازمی آڈٹ کو وضاحت کی اہلیت کو نافذ کرنا ہوگا۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر