پینٹاگون AI کا باس ٹیک کو جنگ میں لے جانے کے لیے 'جائز اعتماد' تلاش کرتا ہے۔

پینٹاگون AI کا باس ٹیک کو جنگ میں لے جانے کے لیے 'جائز اعتماد' تلاش کرتا ہے۔

ماخذ نوڈ: 2975340

پینٹاگون کے چیف ڈیجیٹل اور مصنوعی ذہانت کے افسر، کریگ مارٹیل نے کہا کہ وہ ChatGPT جیسے جنریٹیو مصنوعی ذہانت کے نظام کی طرف سے دھوکہ دینے اور غلط معلومات بونے کی صلاحیت سے پریشان ہیں۔ اگست میں DefCon ہیکر کنونشن میں ٹیکنالوجی پر ان کی گفتگو بہت کامیاب رہی۔ لیکن وہ قابل اعتماد AI پر کھٹا ہے۔

ایک سپاہی نہیں بلکہ ایک ڈیٹا سائنسدان، مارٹیل نے پچھلے سال نوکری لینے سے پہلے LinkedIn، Dropbox اور Lyft سمیت کمپنیوں میں مشین لرننگ کی سربراہی کی۔

امریکی فوج کے ڈیٹا کی جانچ کرنا اور اس بات کا تعین کرنا کہ AI جنگ میں حصہ لینے کے لیے کافی بھروسہ مند ہے، ایک بڑھتی ہوئی غیر مستحکم دنیا میں ایک بڑا چیلنج ہے جہاں متعدد ممالک مہلک خود مختار ہتھیار تیار کرنے کی دوڑ میں لگے ہوئے ہیں۔

انٹرویو کی لمبائی اور وضاحت کے لیے ترمیم کی گئی ہے۔

-

س: آپ کا اصل مشن کیا ہے؟

A: ہمارا کام بورڈ روم سے میدان جنگ تک فیصلے سے فائدہ اٹھانا ہے۔ میں اسے اپنے کام کے طور پر کچھ خاص مشنوں سے نمٹنا نہیں دیکھتا بلکہ اس کے بجائے ایسے اوزار، عمل، انفراسٹرکچر اور پالیسیاں تیار کرنا جو محکمہ کو مجموعی طور پر پیمانے کی اجازت دیتا ہے۔

سوال: تو مقصد عالمی معلومات کا غلبہ ہے؟ آپ کو کامیاب ہونے کے لیے کیا ضرورت ہے؟

A: We are finally getting at network-centric warfare — how to get the right data to the right place at the right time. There is a hierarchy of needs: quality data at the bottom, analytics and metrics in the middle, AI at the top. For this to work, most important is high-quality data.

سوال: ہمیں فوجی ایپلی کیشنز میں AI کے استعمال کے بارے میں کیسے سوچنا چاہئے؟

A: تمام AI، واقعی، مستقبل کی پیشین گوئی کرنے کے لیے ماضی کو گن رہا ہے۔ مجھے حقیقت میں نہیں لگتا کہ AI کی جدید لہر کوئی مختلف ہے۔

چین، یوکرین

سوال: کیا چین AI ہتھیاروں کی دوڑ جیت رہا ہے؟

ج: مجھے وہ استعارہ کچھ ناقص لگتا ہے۔ جب ہمارے پاس جوہری ہتھیاروں کی دوڑ تھی تو یہ یک سنگی ٹیکنالوجی کے ساتھ تھی۔ AI ایسا نہیں ہے۔ نہ ہی یہ ایک پنڈورا باکس ہے۔ یہ ٹیکنالوجیز کا ایک مجموعہ ہے جسے ہم کیس بہ بنیاد بنیادوں پر لاگو کرتے ہیں، تجرباتی طور پر اس بات کی تصدیق کرتے ہیں کہ آیا یہ مؤثر ہے یا نہیں۔

س: امریکی فوج یوکرین کی مدد کے لیے AI ٹیکنالوجی کا استعمال کر رہی ہے۔ آپ کیسے مدد کر رہے ہیں؟

A: ہماری ٹیم یوکرین کے ساتھ شامل نہیں ہے سوائے اس کے کہ اتحادی کیسے مدد فراہم کرتے ہیں ڈیٹا بیس بنانے میں مدد کریں۔ اسے اسکائی بلیو کہتے ہیں۔ ہم صرف اس بات کو یقینی بنانے میں مدد کر رہے ہیں کہ منظم رہے۔

س: خود مختار مہلک ہتھیاروں کے بارے میں بہت بحث ہے - جیسے حملہ ڈرون۔ اتفاق رائے یہ ہے کہ انسانوں کو بالآخر ایک نگران کردار تک محدود کردیا جائے گا - مشنوں کو ختم کرنے کے قابل ہونا لیکن زیادہ تر مداخلت نہیں کرنا۔ آواز ٹھیک ہے؟

ج: فوج میں ہم اس وقت تک ٹیکنالوجی کے ساتھ تربیت کرتے ہیں جب تک کہ ہمارے اندر ایک معقول اعتماد پیدا نہ ہو۔ ہم کسی سسٹم کی حدود کو سمجھتے ہیں، جانتے ہیں کہ یہ کب کام کرتا ہے اور کب نہیں کرتا۔ یہ خود مختار نظام کا نقشہ کیسے بناتا ہے؟ میری گاڑی لے لو۔ مجھے اس پر انکولی کروز کنٹرول پر بھروسہ ہے۔ دوسری طرف، وہ ٹیکنالوجی جو اسے لین بدلنے سے روکتی ہے، خوفناک ہے۔ اس لیے مجھے اس سسٹم پر درست اعتماد نہیں ہے اور نہ ہی اسے استعمال کرتا ہوں۔ اسے فوج کے حوالے کر دیں۔

'وفادار ونگ مین'

س: ترقی میں ایئر فورس کے "وفادار ونگ مین" پروگرام میں ڈرونز انسانوں کے ذریعے اڑائے گئے لڑاکا طیاروں کے ساتھ مل کر اڑتے ہوں گے۔ کیا کمپیوٹر وژن اتنا اچھا ہے کہ دوست اور دشمن میں فرق کر سکے؟

A: کمپیوٹر ویژن نے پچھلے 10 سالوں میں حیرت انگیز پیش رفت کی ہے۔ آیا یہ کسی خاص صورتحال میں کارآمد ہے ایک تجرباتی سوال ہے۔ ہمیں اس درستگی کا تعین کرنے کی ضرورت ہے جو ہم استعمال کے معاملے کے لیے قبول کرنے کے لیے تیار ہیں اور اس معیار کے خلاف تعمیر کریں - اور ٹیسٹ کریں۔ تو ہم عام نہیں کر سکتے۔ میں واقعی چاہوں گا کہ ہم ٹیکنالوجی کے بارے میں بات کرنا چھوڑ دیں اور اس کے بجائے ان صلاحیتوں کے بارے میں بات کریں جو ہم چاہتے ہیں۔

س: آپ فی الحال جنریٹو AI اور بڑی زبان کے ماڈلز کا مطالعہ کر رہے ہیں۔ اسے محکمہ دفاع میں کب استعمال کیا جا سکتا ہے؟

A: تجارتی بڑی زبان کے ماڈل یقینی طور پر سچ بولنے پر مجبور نہیں ہیں، اس لیے مجھے شک ہے۔ اس نے کہا، ٹاسک فورس لیما (اگست میں شروع کی گئی) کے ذریعے ہم 160 سے زیادہ استعمال کے معاملات کا مطالعہ کر رہے ہیں۔ ہم فیصلہ کرنا چاہتے ہیں کہ کم خطرہ اور محفوظ کیا ہے۔ میں یہاں سرکاری پالیسی ترتیب نہیں دے رہا ہوں، لیکن آئیے قیاس کرتے ہیں۔

کم خطرہ کچھ ایسا ہو سکتا ہے جیسے تحریری یا کمپیوٹر کوڈ میں پہلے ڈرافٹ تیار کرنا۔ ایسے معاملات میں، انسان ترمیم کرنے جا رہے ہیں، یا سافٹ ویئر کے معاملے میں، مرتب کریں گے. یہ ممکنہ طور پر معلومات کی بازیافت کے لیے بھی کام کر سکتا ہے — جہاں حقائق کو درست کرنے کے لیے ان کی تصدیق کی جا سکتی ہے۔

س: AI کے ساتھ ایک بڑا چیلنج سسٹمز اور لیبل ڈیٹا کو جانچنے اور جانچنے کے لیے درکار ہنر کی خدمات حاصل کرنا اور اسے برقرار رکھنا ہے۔ AI ڈیٹا سائنسدان پینٹاگون کی روایتی طور پر ادائیگی کے مقابلے میں بہت زیادہ کماتے ہیں۔ یہ کتنا بڑا مسئلہ ہے؟

A: یہ کیڑے کا ایک بہت بڑا ڈبہ ہے۔ ہم نے ابھی ایک ڈیجیٹل ٹیلنٹ مینجمنٹ آفس بنایا ہے اور اس بارے میں سخت سوچ رہے ہیں کہ کام کے کرداروں کے پورے نئے سیٹ کو کیسے پُر کیا جائے۔ مثال کے طور پر، کیا ہمیں واقعی ایسے لوگوں کی خدمات حاصل کرنے کی ضرورت ہے جو 20-30 سال تک محکمہ دفاع میں رہنا چاہتے ہیں؟ شاید نہیں۔

لیکن کیا ہوگا اگر ہم انہیں تین یا چار میں حاصل کر سکیں؟ کیا ہوگا اگر ہم نے ان کے کالج کے لیے ادائیگی کی اور وہ ہمیں تین یا چار سال میں واپس ادا کریں اور پھر اس تجربے کے ساتھ چلے جائیں اور سلیکن ویلی سے ملازمت حاصل کرلیں؟ ہم اس طرح تخلیقی سوچ رہے ہیں۔ کیا ہم، مثال کے طور پر، تنوع پائپ لائن کا حصہ بن سکتے ہیں؟ HBCUs (تاریخی طور پر سیاہ فام کالجوں اور یونیورسٹیوں) میں بھرتی؟

ٹائم اسٹیمپ:

سے زیادہ دفاعی خبریں پینٹاگون