Skynet Ahoy؟ Next-Gen AI سیکیورٹی کے خطرات کے لیے کیا توقع کی جائے۔

Skynet Ahoy؟ Next-Gen AI سیکیورٹی کے خطرات کے لیے کیا توقع کی جائے۔

ماخذ نوڈ: 3037761

جیسا کہ مصنوعی ذہانت (AI) میں جدت تیزی سے جاری ہے، 2024 تنظیموں اور گورننگ باڈیز کے لیے حفاظتی معیارات، پروٹوکولز، اور دیگر محافظوں کو قائم کرنے کے لیے ایک اہم وقت ہو گا تاکہ AI کو ان سے آگے جانے سے روکا جا سکے۔

بڑے لینگوئج ماڈلز (LLMs)، نفیس الگورتھم اور بڑے پیمانے پر ڈیٹا سیٹس سے تقویت یافتہ، قابل ذکر زبان کی سمجھ بوجھ اور انسان جیسی بات چیت کی صلاحیتوں کا مظاہرہ کرتے ہیں۔ آج تک کے ان پلیٹ فارمز میں سے ایک سب سے نفیس OpenAI کا GPT-4 ہے، جو جدید استدلال اور مسئلہ حل کرنے کی صلاحیتوں پر فخر کرتا ہے اور کمپنی کے ChatGPT بوٹ کو طاقت دیتا ہے۔ اور کمپنی نے مائیکروسافٹ کے ساتھ شراکت میں GPT-5 پر کام شروع کر دیا ہے جس کے سی ای او سیم آلٹ مین نے کہا بہت آگے جائیں گے - "سپر انٹیلی جنس" رکھنے کے مقام تک۔

یہ ماڈل تنظیموں کے لیے اہم پیداواری صلاحیت اور کارکردگی میں اضافے کی بہت زیادہ صلاحیت کی نمائندگی کرتے ہیں، لیکن ماہرین اس بات پر متفق ہیں کہ اب وقت آگیا ہے کہ پوری صنعت کے لیے موروثی سلامتی کے خطرات سے نمٹنے کے لیے ان کی ترقی اور تعیناتی سے لاحق ہے۔ بے شک، Writerbuddy AI کی حالیہ تحقیق، جو AI پر مبنی مواد لکھنے کا ٹول پیش کرتا ہے، نے پایا کہ ChatGPT کو پہلے ہی 14 بلین وزٹ اور گنتی ہو چکی ہے۔

جیسا کہ تنظیمیں AI میں ترقی کی طرف گامزن ہیں، اسے "سخت اخلاقی تحفظات اور خطرے کے جائزوں کے ساتھ ملنا چاہیے،" AI پر مبنی پرائیویسی اور سیکیورٹی فرم MineOS کے سی ای او گال رینگل کہتے ہیں۔

کیا AI ایک وجودی خطرہ ہے؟

AI کی اگلی نسل کے لیے سیکورٹی کے حوالے سے خدشات مارچ میں پھیلنا شروع ہوئے، تقریباً 34,000 سرکردہ تکنیکی ماہرین کے دستخط شدہ ایک کھلے خط کے ساتھ جس میں AI سے زیادہ طاقتور جنریٹو AI سسٹمز کی ترقی کو روکنے کا مطالبہ کیا گیا تھا۔ OpenAI کا GPT-4. اس خط میں معاشرے کے لیے "گہرے خطرات" کا حوالہ دیا گیا جن کی ٹیکنالوجی نمائندگی کرتی ہے اور "اے آئی لیبز کی جانب سے قابو سے باہر ہونے والی دوڑ سے کہیں زیادہ طاقتور ڈیجیٹل ذہنوں کو تیار کرنے اور ان کو تعینات کرنے کے لیے جسے کوئی بھی - یہاں تک کہ ان کے تخلیق کار بھی نہیں - سمجھ سکتے ہیں، پیش گوئی کر سکتے ہیں، یا قابل اعتماد طریقے سے کنٹرول۔"

ان ڈسٹوپیئن اندیشوں کے باوجود، زیادہ تر سیکورٹی ماہرین قیامت کے دن کے منظر نامے کے بارے میں اتنے فکر مند نہیں ہیں جس میں مشینیں انسانوں سے زیادہ ہوشیار ہو جائیں اور دنیا پر قبضہ کر لیں۔

سائبر سیکیورٹی فرم نیٹرکس کے سیلز انجینئرنگ کے ڈائریکٹر میٹ ولسن کہتے ہیں، "کھلے خط میں اے آئی کی تیز رفتار ترقی اور وسیع پیمانے پر ممکنہ ایپلی کیشنز کے بارے میں درست خدشات کا ذکر کیا گیا ہے، 'کیا یہ انسانیت کے لیے اچھا ہے'۔" "کچھ منظرناموں میں متاثر کن ہونے کے باوجود، AI ٹولز کے عوامی ورژن اتنے خطرناک دکھائی نہیں دیتے۔"

محققین نوٹ کرتے ہیں کہ جو چیز اس سے متعلق ہے وہ یہ ہے کہ AI کی پیشرفت اور اپنانا خطرات کو مناسب طریقے سے سنبھالنے کے لیے بہت تیزی سے آگے بڑھ رہے ہیں۔ AI سیکیورٹی فراہم کرنے والے سلیش نیکسٹ کے سی ای او پیٹرک ہار کا مشاہدہ ہے، "ہم پنڈورا کے باکس پر ڈھکن واپس نہیں رکھ سکتے۔"

مزید برآں، محض "خلا میں جدت کی شرح کو روکنے کی کوشش کرنے سے ان خطرات کو کم کرنے میں مدد نہیں ملے گی" جو یہ پیش کرتا ہے، جنہیں الگ سے حل کیا جانا چاہیے، مارکس فولر، AI سیکیورٹی فرم ڈارک ٹریس فیڈرل کے سی ای او کا مشاہدہ کرتے ہیں۔ ان کا کہنا ہے کہ اس کا مطلب یہ نہیں ہے کہ اے آئی کی ترقی کو بغیر جانچ پڑتال جاری رکھنا چاہئے۔ اس کے برعکس، خطرے کی تشخیص اور مناسب حفاظتی اقدامات کو نافذ کرنے کی شرح اس شرح سے مماثل ہونی چاہیے جس پر LLMs کو تربیت اور ترقی دی جا رہی ہے۔

"AI ٹیکنالوجی تیزی سے تیار ہو رہی ہے، لہذا حکومتوں اور AI کا استعمال کرنے والی تنظیموں کو بھی AI حفاظت کے بارے میں بات چیت کو تیز کرنا چاہیے،" فولر بتاتے ہیں۔

تخلیقی AI خطرات

جنریٹیو AI کے لیے بہت سے بڑے پیمانے پر تسلیم شدہ خطرات ہیں جو غور طلب ہیں اور ٹیکنالوجی کی آنے والی نسلوں کے ہوشیار ہونے کے ساتھ ہی یہ بدتر ہوتے جائیں گے۔ خوش قسمتی سے انسانوں کے لیے، ان میں سے کوئی بھی سائنس فکشن قیامت کا منظر پیش نہیں کرتا جس میں AI اپنے تخلیق کاروں کو تباہ کرنے کی سازش کرتا ہے۔

اس کے بجائے، ان میں بہت زیادہ مانوس خطرات شامل ہیں، جیسے کہ ڈیٹا لیک، ممکنہ طور پر کاروباری حساس معلومات؛ بدنیتی پر مبنی سرگرمی کے لیے غلط استعمال؛ اور غلط نتائج جو صارفین کو گمراہ یا الجھا سکتے ہیں، بالآخر منفی کاروباری نتائج کا باعث بنتے ہیں۔

چونکہ LLMs کو درست اور سیاق و سباق سے متعلقہ نتائج فراہم کرنے کے لیے ڈیٹا کی وسیع مقدار تک رسائی کی ضرورت ہوتی ہے، اس لیے حساس معلومات کو نادانستہ طور پر ظاہر کیا جا سکتا ہے یا غلط استعمال کیا جا سکتا ہے۔

"بنیادی خطرہ ملازمین کو کھانا کھلانا ہے۔ کاروباری حساس معلومات کے ساتھ جب اس سے کوئی منصوبہ لکھنے یا کمپنی کی ملکیتی معلومات پر مشتمل ای میلز یا بزنس ڈیک کو دوبارہ بیان کرنے کے لیے کہا جائے،" رنگیل نوٹ کرتا ہے۔

سائبر اٹیک کے نقطہ نظر سے، دھمکی دینے والے اداکاروں نے پہلے ہی ChatGPT اور دیگر AI سسٹمز کو ہتھیار بنانے کے بے شمار طریقے تلاش کر لیے ہیں۔ ایک طریقہ یہ ہے کہ ماڈلز کو جدید ترین کاروباری ای میل کمپرومائز (BEC) اور دیگر فشنگ اٹیک بنانے کے لیے استعمال کیا جائے، جس کے لیے سماجی طور پر انجینئرڈ، ذاتی نوعیت کے پیغامات کی تخلیق کی ضرورت ہوتی ہے۔

ہار کا کہنا ہے کہ "مالویئر کے ساتھ، ChatGPT سائبر جرائم پیشہ افراد کو میلویئر کا پتہ لگانے والے انجنوں سے ایک قدم آگے رہنے کے لیے لامحدود کوڈ میں تبدیلیاں کرنے کے قابل بناتا ہے۔"

AI فریب کاری بھی ایک اہم حفاظتی خطرہ کا باعث بنتی ہے اور نقصان دہ اداکاروں کو LLM پر مبنی ٹیکنالوجی جیسے ChatGPT کو منفرد انداز میں مسلح کرنے کی اجازت دیتی ہے۔ اے آئی ہیلوسینیشن اے آئی کی طرف سے ایک قابل فہم جواب ہے جو کہ ناکافی، متعصب، یا بالکل درست نہیں ہے۔ "افسانہ یا دیگر ناپسندیدہ ردعمل تنظیموں کو غلط فیصلہ سازی، عمل، اور گمراہ کن مواصلات کی طرف لے جا سکتے ہیں،" Avivah Litan، گارٹنر کے نائب صدر نے خبردار کیا۔

ڈیٹا سیکیورٹی فراہم کنندہ Securiti میں AI کے نائب صدر مائیکل رائن ہارٹ کا مشاہدہ ہے کہ دھمکی آمیز اداکار بھی LLMs کو زہر دینے کے لیے ان فریب کا استعمال کر سکتے ہیں اور "ایک سوال کے جواب میں مخصوص غلط معلومات پیدا کر سکتے ہیں۔" "یہ کمزور سورس کوڈ جنریشن کے لیے قابل توسیع ہے اور ممکنہ طور پر، ایسے ماڈلز چیٹ کرنے کے لیے جو کسی سائٹ کے صارفین کو غیر محفوظ کارروائیوں کی طرف لے جانے کے قابل ہے۔"

حملہ آور اس حد تک بھی جا سکتے ہیں۔ سافٹ ویئر پیکجز کے بدنیتی پر مبنی ورژن شائع کریں۔ کہ LLM کسی سافٹ ویئر ڈویلپر کو تجویز کر سکتا ہے، یہ مانتے ہوئے کہ یہ کسی مسئلے کا جائز حل ہے۔ اس طرح، حملہ آور سپلائی چین حملوں کو بڑھانے کے لیے AI کو مزید ہتھیار بنا سکتے ہیں۔

آگے بڑھنے کا راستہ

ماہرین نوٹ کرتے ہیں کہ ان خطرات کو سنبھالنے کے لیے پیمائش اور اجتماعی کارروائی کی ضرورت ہوگی اس سے پہلے کہ AI جدت طرازی اس پر قابو پانے کی صنعت کی صلاحیت کو ختم کر دے۔ لیکن ان کے پاس AI کے مسئلے کو حل کرنے کے بارے میں بھی خیالات ہیں۔

ہار ایک پر یقین رکھتا ہے "اے کے ساتھ اے آئی کا مقابلہ کریں۔"حکمت عملی، جس میں" AI کے ذریعے پیدا ہونے والے خطرات کو ناکام بنانے کے لیے حفاظتی حل اور حکمت عملیوں میں پیشرفت کو مساوی یا زیادہ رفتار سے تیار ہونا چاہیے۔

"سائبر سیکیورٹی کے تحفظ کو AI ٹیکنالوجی کا استعمال کرتے ہوئے سائبر خطرات سے کامیابی کے ساتھ لڑنے کے لیے AI کا فائدہ اٹھانے کی ضرورت ہے،" وہ مزید کہتے ہیں۔ "اس کے مقابلے میں، میراثی سیکورٹی ٹیکنالوجی ان حملوں کے خلاف کوئی موقع نہیں رکھتی۔"

تاہم، تنظیموں کو بھی AI کو اپنانے کے لیے ایک پیمائشی طریقہ اختیار کرنا چاہیے - بشمول AI پر مبنی سیکیورٹی حل - ایسا نہ ہو کہ وہ اپنے ماحول میں مزید خطرات لادیں، نیٹریکس ولسن نے خبردار کیا۔

"سمجھیں کہ AI کیا ہے، اور کیا نہیں ہے،" وہ مشورہ دیتے ہیں۔ "وہ دکانداروں کو چیلنج کریں جو AI کو ملازمت دینے کا دعوی کرتے ہیں کہ یہ بیان کریں کہ یہ کیا کرتا ہے، یہ ان کے حل کو کیسے بڑھاتا ہے، اور یہ آپ کی تنظیم کے لیے کیوں اہمیت رکھتا ہے۔"

Securiti's Rinehart AI کو ماحول میں مرحلہ وار کرنے کے لیے ایک دو سطحی نقطہ نظر پیش کرتا ہے جس میں فوکسڈ سلوشنز کی تعیناتی کی جاتی ہے اور پھر تنظیم کو غیر ضروری خطرے سے دوچار کرنے سے پہلے فوری طور پر گارڈریلز لگاتے ہیں۔

"سب سے پہلے ایپلیکیشن کے مخصوص ماڈلز کو اپنائیں، جو ممکنہ طور پر علمی بنیادوں سے بڑھے ہوئے ہیں، جو مخصوص استعمال کے معاملات میں قدر فراہم کرنے کے لیے تیار کیے گئے ہیں،" وہ کہتے ہیں۔ "پھر … رازداری اور سلامتی کے مسائل کے لیے ان سے آنے والے پیغامات کی جانچ پڑتال کرکے ان ماڈلز کی حفاظت کے لیے نگرانی کا نظام نافذ کریں۔"

ماہرین یہ بھی تجویز کرتے ہیں کہ AI کے ارد گرد حفاظتی پالیسیاں اور طریقہ کار ترتیب دیں اس سے پہلے کہ اسے خطرے کو کم کرنے کے لیے سوچا جائے۔ وہ تعمیل کی نگرانی کے لیے ایک سرشار AI رسک آفیسر یا ٹاسک فورس بھی تشکیل دے سکتے ہیں۔

انٹرپرائز سے باہر، مجموعی طور پر صنعت کو بھی AI کے ارد گرد حفاظتی معیارات اور طرز عمل قائم کرنے کے لیے اقدامات کرنے چاہییں جنہیں ٹیکنالوجی تیار کرنے والا اور استعمال کرنے والا ہر شخص اپنا سکتا ہے - ایسی چیز جس کے لیے عالمی سطح پر عوامی اور نجی شعبے دونوں کی جانب سے اجتماعی کارروائی کی ضرورت ہوگی۔ ، DarkTrace Federal's Fowler کہتے ہیں۔

انہوں نے حوالہ دیا محفوظ AI نظام بنانے کے لیے رہنما خطوط US Cybersecurity and Infrastructure Security Agency (CISA) اور UK National Cyber ​​Security Center (NCSC) کے تعاون سے شائع کی گئی کوششوں کی ایک مثال کے طور پر جو کہ AI کے مسلسل ارتقاء کے ساتھ ہونی چاہیے۔

Securiti's Rinehart کا کہنا ہے کہ "اصل میں، 2024 اس ابھرتے ہوئے تخلیقی AI دور میں صارفین اور ڈیٹا کی حفاظت کے لیے روایتی سیکیورٹی اور جدید ترین AI تکنیکوں دونوں کی تیزی سے موافقت کا مشاہدہ کرے گا۔"

ٹائم اسٹیمپ:

سے زیادہ گہرا پڑھنا