ایلون مسک: کسی قسم کا AI ریگولیشن ہونا چاہئے۔

ایلون مسک: کسی قسم کا AI ریگولیشن ہونا چاہئے۔

ماخذ نوڈ: 2920201

کیا مصنوعی ذہانت (AI) کے ضابطے کی ضرورت ہے؟ ایلون مسک، بل گیٹس اور مارک زکربرگ سمیت ٹیکنالوجی رہنماؤں نے مصنوعی ذہانت کے مستقبل پر تبادلہ خیال کرنے کے لیے کانگریس کے قانون سازوں کے ساتھ بند کمرے میں ملاقات کی۔ خطرات اور فوائد دونوں۔

مصنوعی ذہانت (AI) ہماری زندگی کے بہت سے پہلوؤں میں انقلاب لانے کی صلاحیت رکھتی ہے، لیکن اس سے کئی خطرات بھی لاحق ہیں۔ سب سے زیادہ پریشان کن خدشات میں شامل ہیں:

  • ملازمت کی نقل مکانی: جیسے جیسے AI زیادہ نفیس ہوتا جاتا ہے، اس سے بہت سی ملازمتوں کو خودکار کرنے کا امکان ہوتا ہے جو فی الحال انسانوں کے ذریعہ انجام دی جاتی ہیں۔ یہ وسیع پیمانے پر بے روزگاری اور سماجی بدامنی کا باعث بن سکتا ہے۔
  • تعصب: AI سسٹمز کو ڈیٹا پر تربیت دی جاتی ہے، اور اگر وہ ڈیٹا متعصب ہے، تو AI سسٹم بھی متعصب ہوگا۔ یہ لوگوں کے بعض گروہوں کے خلاف امتیازی سلوک کا باعث بن سکتا ہے جیسے کہ ملازمت پر رکھنا، قرض دینا، اور مجرمانہ انصاف۔
  • ہتھیار بنانا: AI کا استعمال خود مختار ہتھیاروں کے نظام کو تیار کرنے کے لیے کیا جا سکتا ہے جو انسانی مداخلت کے بغیر مار سکتا ہے۔ یہ عالمی سلامتی کے لیے سنگین خطرہ بن سکتا ہے۔
  • کنٹرول کا نقصان: یہ ممکن ہے کہ AI نظام اتنے پیچیدہ ہو جائیں کہ ہم ان پر کنٹرول کھو دیں۔ یہ غیر ارادی نتائج کا باعث بن سکتا ہے، جیسے کہ AI نظام انسانوں کو نقصان پہنچا رہا ہے یا اپنے اہداف کا تعاقب کر رہا ہے، جو ہمارے اپنے مقاصد کے مطابق نہیں ہو سکتا۔

AI کے ممکنہ خطرات کے پیش نظر، یہ غور کرنا ضروری ہے کہ آیا ہمیں اسے ریگولیٹ کرنا چاہیے۔ ریگولیشن کے حق میں اور خلاف بہت سے دلائل ہیں۔

[سرایت مواد]

مسک، زکربرگ، گیٹس نے بند دروازے امریکی سینیٹ فورم میں مصنوعی ذہانت پر گفتگو کی۔

[سرایت مواد]

ہم سب کے لیے سوچنے کے لیے کچھ: "اگر ایلون مسک مصنوعی ذہانت کے بارے میں غلط ہے اور ہم اسے کنٹرول کرتے ہیں کہ کون پرواہ کرتا ہے۔ اگر وہ AI کے بارے میں درست ہے اور ہم اسے منظم نہیں کرتے ہیں تو ہم سب کی پرواہ کریں گے۔ ~ ڈیو واٹرس

ضابطے کے حق میں دلائل:

  • ضابطہ اوپر درج خطرات سے بچانے میں مدد کر سکتا ہے۔ مثال کے طور پر، ضابطے کے لیے AI سسٹمز کو شفاف اور جوابدہ ہونے کی ضرورت پڑ سکتی ہے، اور یہ خود مختار ہتھیاروں کے نظام کی ترقی کو روک سکتا ہے۔
  • ضابطے سے یہ یقینی بنانے میں بھی مدد مل سکتی ہے کہ AI کا استعمال ذمہ دارانہ اور اخلاقی انداز میں کیا جائے۔ مثال کے طور پر، ضابطے کے لیے AI نظام کو انسانی اقدار کے ساتھ ہم آہنگ کرنے اور انسانی حقوق کا احترام کرنے کی ضرورت پڑ سکتی ہے۔

ضابطے کے خلاف دلائل:

  • ضابطہ جدت اور اقتصادی ترقی کو روک سکتا ہے۔
  • AI کو ریگولیٹ کرنا مشکل ہو سکتا ہے، کیونکہ یہ ایک تیزی سے ارتقا پذیر ٹیکنالوجی ہے۔
  • اس بات کا خطرہ ہے کہ ضابطے کا استعمال موجودہ کاروباروں اور صنعتوں کو نئے AI سے چلنے والے کاروباروں کے مقابلے سے بچانے کے لیے کیا جا سکتا ہے۔

بالآخر، AI کو ریگولیٹ کرنے یا نہ کرنے کا فیصلہ ایک پیچیدہ ہے۔ دونوں طرف سے درست دلائل موجود ہیں۔ فیصلہ کرنے سے پہلے ممکنہ فوائد اور خطرات کو احتیاط سے جانچنا ضروری ہے۔

یہ نوٹ کرنا بھی ضروری ہے کہ ضابطہ ایک ہی سائز کا حل نہیں ہے۔ AI کی مختلف اقسام کو مختلف طریقوں سے ریگولیٹ کرنے کی ضرورت پڑ سکتی ہے۔ مثال کے طور پر، AI سسٹمز جو ہائی اسٹیک ایپلی کیشنز میں استعمال ہوتے ہیں، جیسے کہ صحت کی دیکھ بھال یا نقل و حمل، ان کو AI سسٹمز کے مقابلے میں سخت ضابطے کے تابع ہونے کی ضرورت ہو سکتی ہے جو کم اہم ایپلی کیشنز، جیسے تفریح ​​یا گیمنگ کے لیے استعمال ہوتے ہیں۔

جیسا کہ AI کی ترقی جاری ہے، اس ٹیکنالوجی کے ممکنہ خطرات اور فوائد کے بارے میں عوامی گفتگو کرنا ضروری ہے۔ ہمیں یہ فیصلہ کرنے کی ضرورت ہے کہ ہم AI کے لیے کس قسم کا مستقبل چاہتے ہیں، اور ہمیں ایسی پالیسیاں تیار کرنے کی ضرورت ہے جو اس مستقبل کو حاصل کرنے میں ہماری مدد کریں۔

مصنوعی ذہانت کے خطرات پر اقتباسات

  • "مصنوعی ذہانت کے ساتھ، ہم شیطان کو طلب کر رہے ہیں۔ آپ وہ تمام کہانیاں جانتے ہیں جہاں پینٹاگرام اور مقدس پانی والا لڑکا ہے اور وہ ایسا ہی ہے… ہاں اسے یقین ہے کہ وہ شیطان کو قابو کر سکتا ہے… کام نہیں کرتا۔‘‘ ~یلون کستوری
  • "مصنوعی ذہانت کے ممکنہ فوائد بہت زیادہ ہیں، اسی طرح خطرات بھی۔" ~ڈیو واٹرس۔
  • "جب جعلی خبریں مصنوعی ذہانت (AI) سے ملتی ہیں، تو یہ خطرہ ہوتا ہے کہ روبوٹ جھوٹ بولیں گے، جو ہمیں جعلی ذہانت اور مصنوعی خبروں کے ساتھ چھوڑ دیں گے، یا بالکل وہیں ہیں جہاں ہم ابھی ہیں۔" ~جم وائبرٹ۔
  • "بہت سے ایسے ہتھیار ہیں جو ہم نے تیار کیے ہیں جنہیں ہم نے واپس لے لیا ہے - حیاتیاتی ہتھیار، کیمیائی ہتھیار، وغیرہ۔ یہ مسلح خود مختار روبوٹکس کا معاملہ ہو سکتا ہے، جہاں سے ہم بالآخر ان سے پیچھے ہٹ جاتے ہیں۔" ~پیٹر سنگر۔
  • "جیسا کہ AI شاید انسانوں سے زیادہ ہوشیار ہو جاتا ہے، متعلقہ ذہانت کا تناسب شاید ایک شخص اور بلی کے درمیان جیسا ہی ہے، شاید بڑا بھی۔ مجھے لگتا ہے کہ ہمیں AI کی ترقی کے بارے میں بہت محتاط رہنے کی ضرورت ہے۔ ~یلون کستوری
  • "مصنوعی ذہانت (AI) بہترین طور پر ایک بچہ ہے۔ ایک بار جب یہ نوعمر ہو جاتا ہے اور اسے یقین ہوتا ہے کہ یہ اپنے والدین سے زیادہ ہوشیار ہے تو کیا AI بغاوت کرے گا؟ پھر کیا؟" ~ڈیو واٹرس

#wpdevar_comment_1 span,#wpdevar_comment_1 iframe{width:100% !important;} #wpdevar_comment_1 iframe{max-height: 100% !important;}

ٹائم اسٹیمپ:

سے زیادہ آج سپلائی چین