کیا مصنوعی ذہانت (AI) کے ضابطے کی ضرورت ہے؟ ایلون مسک، بل گیٹس اور مارک زکربرگ سمیت ٹیکنالوجی رہنماؤں نے مصنوعی ذہانت کے مستقبل پر تبادلہ خیال کرنے کے لیے کانگریس کے قانون سازوں کے ساتھ بند کمرے میں ملاقات کی۔ خطرات اور فوائد دونوں۔
مصنوعی ذہانت (AI) ہماری زندگی کے بہت سے پہلوؤں میں انقلاب لانے کی صلاحیت رکھتی ہے، لیکن اس سے کئی خطرات بھی لاحق ہیں۔ سب سے زیادہ پریشان کن خدشات میں شامل ہیں:
- ملازمت کی نقل مکانی: جیسے جیسے AI زیادہ نفیس ہوتا جاتا ہے، اس سے بہت سی ملازمتوں کو خودکار کرنے کا امکان ہوتا ہے جو فی الحال انسانوں کے ذریعہ انجام دی جاتی ہیں۔ یہ وسیع پیمانے پر بے روزگاری اور سماجی بدامنی کا باعث بن سکتا ہے۔
- تعصب: AI سسٹمز کو ڈیٹا پر تربیت دی جاتی ہے، اور اگر وہ ڈیٹا متعصب ہے، تو AI سسٹم بھی متعصب ہوگا۔ یہ لوگوں کے بعض گروہوں کے خلاف امتیازی سلوک کا باعث بن سکتا ہے جیسے کہ ملازمت پر رکھنا، قرض دینا، اور مجرمانہ انصاف۔
- ہتھیار بنانا: AI کا استعمال خود مختار ہتھیاروں کے نظام کو تیار کرنے کے لیے کیا جا سکتا ہے جو انسانی مداخلت کے بغیر مار سکتا ہے۔ یہ عالمی سلامتی کے لیے سنگین خطرہ بن سکتا ہے۔
- کنٹرول کا نقصان: یہ ممکن ہے کہ AI نظام اتنے پیچیدہ ہو جائیں کہ ہم ان پر کنٹرول کھو دیں۔ یہ غیر ارادی نتائج کا باعث بن سکتا ہے، جیسے کہ AI نظام انسانوں کو نقصان پہنچا رہا ہے یا اپنے اہداف کا تعاقب کر رہا ہے، جو ہمارے اپنے مقاصد کے مطابق نہیں ہو سکتا۔
AI کے ممکنہ خطرات کے پیش نظر، یہ غور کرنا ضروری ہے کہ آیا ہمیں اسے ریگولیٹ کرنا چاہیے۔ ریگولیشن کے حق میں اور خلاف بہت سے دلائل ہیں۔
[سرایت مواد]
مسک، زکربرگ، گیٹس نے بند دروازے امریکی سینیٹ فورم میں مصنوعی ذہانت پر گفتگو کی۔
[سرایت مواد]
ہم سب کے لیے سوچنے کے لیے کچھ: "اگر ایلون مسک مصنوعی ذہانت کے بارے میں غلط ہے اور ہم اسے کنٹرول کرتے ہیں کہ کون پرواہ کرتا ہے۔ اگر وہ AI کے بارے میں درست ہے اور ہم اسے منظم نہیں کرتے ہیں تو ہم سب کی پرواہ کریں گے۔ ~ ڈیو واٹرس
ضابطے کے حق میں دلائل:
- ضابطہ اوپر درج خطرات سے بچانے میں مدد کر سکتا ہے۔ مثال کے طور پر، ضابطے کے لیے AI سسٹمز کو شفاف اور جوابدہ ہونے کی ضرورت پڑ سکتی ہے، اور یہ خود مختار ہتھیاروں کے نظام کی ترقی کو روک سکتا ہے۔
- ضابطے سے یہ یقینی بنانے میں بھی مدد مل سکتی ہے کہ AI کا استعمال ذمہ دارانہ اور اخلاقی انداز میں کیا جائے۔ مثال کے طور پر، ضابطے کے لیے AI نظام کو انسانی اقدار کے ساتھ ہم آہنگ کرنے اور انسانی حقوق کا احترام کرنے کی ضرورت پڑ سکتی ہے۔
ضابطے کے خلاف دلائل:
- ضابطہ جدت اور اقتصادی ترقی کو روک سکتا ہے۔
- AI کو ریگولیٹ کرنا مشکل ہو سکتا ہے، کیونکہ یہ ایک تیزی سے ارتقا پذیر ٹیکنالوجی ہے۔
- اس بات کا خطرہ ہے کہ ضابطے کا استعمال موجودہ کاروباروں اور صنعتوں کو نئے AI سے چلنے والے کاروباروں کے مقابلے سے بچانے کے لیے کیا جا سکتا ہے۔
بالآخر، AI کو ریگولیٹ کرنے یا نہ کرنے کا فیصلہ ایک پیچیدہ ہے۔ دونوں طرف سے درست دلائل موجود ہیں۔ فیصلہ کرنے سے پہلے ممکنہ فوائد اور خطرات کو احتیاط سے جانچنا ضروری ہے۔
یہ نوٹ کرنا بھی ضروری ہے کہ ضابطہ ایک ہی سائز کا حل نہیں ہے۔ AI کی مختلف اقسام کو مختلف طریقوں سے ریگولیٹ کرنے کی ضرورت پڑ سکتی ہے۔ مثال کے طور پر، AI سسٹمز جو ہائی اسٹیک ایپلی کیشنز میں استعمال ہوتے ہیں، جیسے کہ صحت کی دیکھ بھال یا نقل و حمل، ان کو AI سسٹمز کے مقابلے میں سخت ضابطے کے تابع ہونے کی ضرورت ہو سکتی ہے جو کم اہم ایپلی کیشنز، جیسے تفریح یا گیمنگ کے لیے استعمال ہوتے ہیں۔
جیسا کہ AI کی ترقی جاری ہے، اس ٹیکنالوجی کے ممکنہ خطرات اور فوائد کے بارے میں عوامی گفتگو کرنا ضروری ہے۔ ہمیں یہ فیصلہ کرنے کی ضرورت ہے کہ ہم AI کے لیے کس قسم کا مستقبل چاہتے ہیں، اور ہمیں ایسی پالیسیاں تیار کرنے کی ضرورت ہے جو اس مستقبل کو حاصل کرنے میں ہماری مدد کریں۔
مصنوعی ذہانت کے خطرات پر اقتباسات
- "مصنوعی ذہانت کے ساتھ، ہم شیطان کو طلب کر رہے ہیں۔ آپ وہ تمام کہانیاں جانتے ہیں جہاں پینٹاگرام اور مقدس پانی والا لڑکا ہے اور وہ ایسا ہی ہے… ہاں اسے یقین ہے کہ وہ شیطان کو قابو کر سکتا ہے… کام نہیں کرتا۔‘‘ ~یلون کستوری
- "مصنوعی ذہانت کے ممکنہ فوائد بہت زیادہ ہیں، اسی طرح خطرات بھی۔" ~ڈیو واٹرس۔
- "جب جعلی خبریں مصنوعی ذہانت (AI) سے ملتی ہیں، تو یہ خطرہ ہوتا ہے کہ روبوٹ جھوٹ بولیں گے، جو ہمیں جعلی ذہانت اور مصنوعی خبروں کے ساتھ چھوڑ دیں گے، یا بالکل وہیں ہیں جہاں ہم ابھی ہیں۔" ~جم وائبرٹ۔
- "بہت سے ایسے ہتھیار ہیں جو ہم نے تیار کیے ہیں جنہیں ہم نے واپس لے لیا ہے - حیاتیاتی ہتھیار، کیمیائی ہتھیار، وغیرہ۔ یہ مسلح خود مختار روبوٹکس کا معاملہ ہو سکتا ہے، جہاں سے ہم بالآخر ان سے پیچھے ہٹ جاتے ہیں۔" ~پیٹر سنگر۔
- "جیسا کہ AI شاید انسانوں سے زیادہ ہوشیار ہو جاتا ہے، متعلقہ ذہانت کا تناسب شاید ایک شخص اور بلی کے درمیان جیسا ہی ہے، شاید بڑا بھی۔ مجھے لگتا ہے کہ ہمیں AI کی ترقی کے بارے میں بہت محتاط رہنے کی ضرورت ہے۔ ~یلون کستوری
- "مصنوعی ذہانت (AI) بہترین طور پر ایک بچہ ہے۔ ایک بار جب یہ نوعمر ہو جاتا ہے اور اسے یقین ہوتا ہے کہ یہ اپنے والدین سے زیادہ ہوشیار ہے تو کیا AI بغاوت کرے گا؟ پھر کیا؟" ~ڈیو واٹرس
#wpdevar_comment_1 span,#wpdevar_comment_1 iframe{width:100% !important;} #wpdevar_comment_1 iframe{max-height: 100% !important;}
- SEO سے چلنے والا مواد اور PR کی تقسیم۔ آج ہی بڑھا دیں۔
- پلیٹو ڈیٹا ڈاٹ نیٹ ورک ورٹیکل جنریٹو اے آئی۔ اپنے آپ کو بااختیار بنائیں۔ یہاں تک رسائی حاصل کریں۔
- پلیٹوآئ اسٹریم۔ ویب 3 انٹیلی جنس۔ علم میں اضافہ۔ یہاں تک رسائی حاصل کریں۔
- پلیٹو ای ایس جی۔ کاربن، کلین ٹیک، توانائی ، ماحولیات، شمسی، ویسٹ مینجمنٹ یہاں تک رسائی حاصل کریں۔
- پلیٹو ہیلتھ۔ بائیوٹیک اینڈ کلینیکل ٹرائلز انٹیلی جنس۔ یہاں تک رسائی حاصل کریں۔
- ماخذ: https://www.supplychaintoday.com/elon-musk-there-should-be-some-sort-of-ai-regulation/
- : ہے
- : ہے
- : نہیں
- :کہاں
- 385
- a
- ہمارے بارے میں
- اوپر
- جوابدہ
- حاصل
- ترقی
- کے خلاف
- AI
- اے آئی ریگولیشن
- اے آئی سسٹمز
- AI سے چلنے والا
- منسلک
- تمام
- بھی
- an
- اور
- ایپلی کیشنز
- کیا
- علاقوں
- دلائل
- مسلح
- مصنوعی
- مصنوعی ذہانت
- مصنوعی انٹیلی جنس (AI)
- AS
- پہلوؤں
- At
- خود کار طریقے سے
- خود مختار
- واپس
- BE
- بن
- ہو جاتا ہے
- اس سے پہلے
- خیال ہے
- فوائد
- BEST
- کے درمیان
- باصلاحیت
- بڑا
- بل
- بل گیٹس
- دونوں
- دونوں اطراف
- کاروبار
- لیکن
- by
- کر سکتے ہیں
- پرواہ
- ہوشیار
- احتیاط سے
- کیس
- CAT
- کچھ
- کیمیائی
- بند
- مقابلہ
- پیچیدہ
- اندراج
- کانگریسی
- نتائج
- غور کریں
- مواد
- جاری ہے
- کنٹرول
- بات چیت
- سکتا ہے
- فوجداری
- مجرمانہ انصاف
- اہم
- اس وقت
- خطرات
- اعداد و شمار
- فیصلہ کرنا
- فیصلہ
- ترقی
- ترقی یافتہ
- ترقی
- مختلف
- مشکل
- تبعیض
- بات چیت
- نقل مکانی
- do
- نہیں کرتا
- نہیں
- دروازے
- اقتصادی
- اقتصادی ترقی
- یلون
- یلون کستوری
- ایمبیڈڈ
- کو یقینی بنانے کے
- تفریح
- وغیرہ
- اخلاقی
- تیار ہوتا ہے
- بالکل
- مثال کے طور پر
- موجودہ
- جعلی
- جعلی خبر کے
- کی حمایت
- کے لئے
- سے
- مستقبل
- گیمنگ
- گیٹس
- گلوبل
- اہداف
- گروپ کا
- ترقی
- لڑکا
- نقصان پہنچانا
- ہے
- he
- صحت کی دیکھ بھال
- مدد
- معاوضے
- HTTPS
- بھاری
- انسانی
- انسانی حقوق
- انسان
- i
- if
- اہم
- in
- شامل
- سمیت
- صنعتوں
- جدت طرازی
- انٹیلی جنس
- مداخلت
- IT
- میں
- نوکریاں
- فوٹو
- جسٹس
- کو مار ڈالو
- بچے
- جان
- قانون ساز
- قیادت
- رہنماؤں
- چھوڑ کر
- قرض دینے
- کم
- جھوٹ
- امکان
- فہرست
- زندگی
- کھو
- بہت
- بنانا
- بہت سے
- نشان
- مارک Zuckerberg
- مئی..
- شاید
- اجلاسوں میں
- ملتا ہے
- کے ساتھ
- زیادہ
- سب سے زیادہ
- بہت
- کستوری
- ضرورت ہے
- نئی
- خبر
- براہ مہربانی نوٹ کریں
- اب
- تعداد
- of
- on
- ایک بار
- ایک
- or
- ہمارے
- باہر
- پر
- خود
- والدین
- لوگ
- کارکردگی
- انسان
- پلاٹا
- افلاطون ڈیٹا انٹیلی جنس
- پلیٹو ڈیٹا
- کھلاڑی
- پالیسیاں
- متصور ہوتا ہے
- ممکن
- ممکنہ
- دبانے
- شاید
- ممنوعہ
- حفاظت
- عوامی
- تعاقب
- میں تیزی سے
- تناسب
- ریگولیٹ کریں
- باضابطہ
- ریگولیشن
- رشتہ دار
- کی ضرورت
- احترام
- ذمہ دار
- انقلاب
- ٹھیک ہے
- حقوق
- رسک
- خطرات
- روبوٹکس
- روبوٹس
- s
- سیکورٹی
- سینیٹ
- سنگین
- ہونا چاہئے
- اطمینان
- اسی طرح
- گلوکار
- ہوشیار
- So
- سماجی
- حل
- کچھ
- بہتر
- دورانیہ
- دبانا
- خبریں
- سخت
- موضوع
- اس طرح
- اس بات کا یقین
- کے نظام
- سسٹمز
- ٹیکنالوجی
- نوجوان
- سے
- کہ
- ۔
- مستقبل
- ان
- تو
- وہاں.
- لگتا ہے کہ
- اس
- ان
- خطرہ
- کرنے کے لئے
- تربیت یافتہ
- شفاف
- نقل و حمل
- اقسام
- ہمیں
- آخر میں
- بے روزگاری
- بدامنی
- us
- استعمال کیا جاتا ہے
- درست
- اقدار
- بہت
- ویڈیو
- چاہتے ہیں
- پانی
- واٹرس
- راستہ..
- طریقوں
- we
- ہتھیار
- وزن
- اچھا ہے
- کیا
- چاہے
- جس
- ڈبلیو
- وسیع پیمانے پر
- گے
- ساتھ
- بغیر
- کام
- مشقت
- غلط
- آپ
- یو ٹیوب پر
- زیفیرنیٹ
- Zuckerberg کی