سائبرسیکیوریٹی پر AI کا اثر - ڈیٹاورسٹی

سائبرسیکیوریٹی پر AI کا اثر - ڈیٹاورسٹی

ماخذ نوڈ: 2995031

مصنوعی ذہانت نے لوگوں کی ملازمتیں لینے سے لے کر غلط معلومات پھیلانے اور کاپی رائٹس کی خلاف ورزی تک ہر چیز کے لیے میڈیا کی بہت زیادہ توجہ مبذول کرائی ہے، لیکن سائبر سیکیورٹی پر AI کا اثر اس کا سب سے اہم فوری مسئلہ ہو سکتا ہے۔

سیکیورٹی ٹیموں پر AI کا اثر متوقع طور پر دوہرا ہے۔ صحیح طریقے سے لاگو ہونے پر، یہ سائبرسیکیوریٹی پریکٹیشنرز کے لیے ایک طاقتور قوت ضرب ثابت ہو سکتا ہے، جیسے کہ کمپیوٹر کی رفتار سے ڈیٹا کی وسیع مقدار پر کارروائی کرنا، دور دراز ڈیٹا پوائنٹس کے درمیان کنکشن تلاش کرنا، پیٹرن دریافت کرنا، حملوں کا پتہ لگانا، اور حملے کی پیش رفت کی پیش گوئی کرنا۔ لیکن، جیسا کہ سیکورٹی پریکٹیشنرز اچھی طرح جانتے ہیں، AI ہمیشہ صحیح طریقے سے لاگو نہیں ہوتا ہے۔ یہ شناختی سمجھوتہ اور فشنگ سے لے کر رینسم ویئر اور سپلائی چین کے حملوں تک، سائبرسیکیوریٹی کے خطرات کی پہلے سے مسلط لائن اپ کو تیز کرتا ہے۔

CISOs اور سیکورٹی ٹیموں کو AI کے فوائد اور خطرات دونوں کو سمجھنے کی ضرورت ہے، جس کے لیے مہارتوں میں کافی حد تک توازن کی ضرورت ہے۔ سیکورٹی انجینئرز، مثال کے طور پر، مشین لرننگ، ماڈل کے معیار اور تعصبات، اعتماد کی سطح، اور کارکردگی کے میٹرکس کی بنیادی باتوں کو سمجھنا چاہیے۔ ڈیٹا سائنسدان ہائبرڈ ٹیموں میں مؤثر طریقے سے تعاون کرنے کے لیے سائبر سیکیورٹی کے بنیادی اصول، حملے کے نمونے، اور رسک ماڈلنگ سیکھنے کی ضرورت ہے۔

AI ماڈلز کو سائبر سیکیورٹی میں مدد کے لیے مناسب تربیت کی ضرورت ہے۔

AI کے ایندھن سے چلنے والے خطرات کے پھیلاؤ سے نمٹنے کا کام CISOs اور پہلے سے زیادہ کام کرنے والی سیکیورٹی ٹیموں کے لیے چیلنجوں کو بڑھا دیتا ہے جنہیں نہ صرف نئی جدید ترین فشنگ مہموں سے نمٹنا چاہیے۔ بڑی زبان کا ماڈل (LLM) ChatGPT کی طرح، لیکن پھر بھی DMZ میں ایک ایسے سرور کے بارے میں فکر مند ہونا پڑے گا جو ایک بڑا خطرہ بن سکتا ہے۔

دوسری طرف، AI خطرے کی تشخیص اور خطرات کا پتہ لگانے میں ٹیموں کا کافی وقت اور محنت بچا سکتا ہے۔ یہ جواب میں بھی مدد کر سکتا ہے - حالانکہ اسے احتیاط سے کرنا چاہیے۔ ایک AI ماڈل تجزیہ کاروں کو کندھے سے سرف کر سکتا ہے تاکہ یہ سیکھ سکے کہ وہ واقعات کو کیسے ٹرائی کرتے ہیں، اور پھر وہ کام خود انجام دیتے ہیں یا انسانی جائزے کے لیے مقدمات کو ترجیح دیتے ہیں۔ لیکن ٹیموں کو یہ یقینی بنانا ہوگا کہ صحیح لوگ AI ہدایات دے رہے ہیں۔

برسوں پہلے، مثال کے طور پر، میں نے ایک تجربہ کیا تھا جہاں میں نے مختلف مہارتوں کے 10 تجزیہ کاروں سے مشتبہ ڈیٹا کے اخراج کے 100 کیسز کا جائزہ لیا تھا۔ دو سینئر تجزیہ کاروں نے تمام مثبت اور منفی پہلوؤں کی درست نشاندہی کی، تین کم تجربہ کار تجزیہ کاروں نے تقریباً تمام معاملات کو غلط قرار دیا، اور باقی پانچ نے بے ترتیب نتائج حاصل کیے۔ اس سے کوئی فرق نہیں پڑتا ہے کہ ایک AI ماڈل کتنا اچھا ہے، اگر اس طرح کی ٹیم کے ذریعہ تربیت دی جائے تو یہ بیکار ہوگا۔

AI ایک طاقتور کار کی طرح ہے: یہ ایک تجربہ کار ڈرائیور کے ہاتھوں میں عجائبات کر سکتی ہے یا کسی ناتجربہ کار کے ہاتھوں بہت زیادہ نقصان پہنچا سکتی ہے۔ یہ ایک ایسا شعبہ ہے جہاں مہارتوں کی کمی AI کے سائبر سیکیورٹی کے اثرات کو متاثر کر سکتی ہے۔

CTOs ایک AI حل کا انتخاب کیسے کر سکتے ہیں؟

AI کے بارے میں ہائپ کو دیکھتے ہوئے، تنظیموں کو آسانی سے ٹیکنالوجی کو اپنانے میں جلدی کرنے کا لالچ دیا جا سکتا ہے۔ لیکن AI کو مناسب طریقے سے تربیت دینے کے علاوہ، ایسے سوالات ہیں جو CTOs کو جواب دینے کی ضرورت ہے، مناسبیت کے مسائل سے شروع کرتے ہوئے:

  • کیا AI تنظیم کے ماحولیاتی نظام میں فٹ ہے؟ اس میں پلیٹ فارم، بیرونی اجزاء جیسے ڈیٹا بیس اور سرچ انجن، مفت اور اوپن سورس سافٹ ویئر اور لائسنسنگ، اور تنظیم کی سیکیورٹی اور سرٹیفیکیشن، بیک اپ اور فیل اوور بھی شامل ہیں۔ 
  • کیا AI انٹرپرائز کے سائز کے مطابق ہے؟
  • AI کو برقرار رکھنے اور چلانے کے لیے سیکیورٹی ٹیم کو کن مہارتوں کی ضرورت ہے؟

CTOs کو بھی AI حل کے لیے خاص طور پر سوالات کو حل کرنا چاہیے: 

  • ایک مخصوص AI پروڈکٹ کے دعوی کردہ افعال میں سے کون سے آپ کے کاروباری مقاصد کے مطابق ہیں؟
  • کیا موجودہ ٹولز کا استعمال کرتے ہوئے وہی فعالیت حاصل کی جا سکتی ہے؟
  • کیا حل درحقیقت خطرات کا پتہ لگاتا ہے؟

اس آخری سوال کا جواب دینا مشکل ہو سکتا ہے کیونکہ نقصان دہ سائبر سکیورٹی کے واقعات جائز سرگرمی کے مقابلے میں معمولی پیمانے پر ہوتے ہیں۔ لائیو ڈیٹا کا استعمال کرتے ہوئے تصور کے محدود ثبوت کے مطالعہ میں، اگر کچھ نہیں ہے تو AI ٹول کچھ بھی نہیں جان سکتا ہے۔ وینڈرز اکثر مصنوعی ڈیٹا یا ریڈ ٹیم کے حملوں کا استعمال AI کی صلاحیت کو ظاہر کرنے کے لیے کرتے ہیں، لیکن سوال یہ رہتا ہے کہ آیا یہ درست پتہ لگانے کی صلاحیت کا مظاہرہ کر رہا ہے یا محض اس مفروضے کی توثیق کر رہا ہے جس کے تحت اشارے تیار کیے گئے تھے۔

اس بات کا تعین کرنا مشکل ہے کہ AI کیوں سوچتا ہے کہ کچھ حملہ تھا کیونکہ AI الگورتھم بنیادی طور پر بلیک باکسز ہیں، جو ابھی تک یہ بتانے سے قاصر ہیں کہ وہ کسی خاص نتیجے پر کیسے پہنچے – جیسا کہ DARPA کے ذریعہ دکھایا گیا ہے۔ قابل وضاحت AI (XAI) پروگرام.

AI کے خطرات کو کم کرنا

ایک AI حل صرف اتنا ہی اچھا ہے جتنا اس کے ساتھ کام کرتا ہے۔ اخلاقی رویے کو یقینی بنانے کے لیے، AI ماڈلز کو اخلاقی ڈیٹا پر تربیت دی جانی چاہیے، نہ کہ کوڑے کے تھوک جمع کرنے پر جو ورلڈ وائڈ ویب پر ہے۔ اور کوئی بھی ڈیٹا سائنسدان جانتا ہے کہ ماڈل کو تربیت دینے کے لیے ایک متوازن، غیر جانبدارانہ، صاف ڈیٹاسیٹ تیار کرنا ایک مشکل، تھکا دینے والا، اور غیر مہذب کام ہے۔ 

اس کی وجہ سے، AI ماڈلز، بشمول LLMs، کو بالآخر اسی طرح منظم کیا جا سکتا ہے جس طرح وہ سائبر سیکیورٹی کی بہترین خدمت کریں گے - بطور خاص ماڈل ("سب جاننے والے" عام مقصد کے ماڈلز کے برخلاف) جو مخصوص شعبوں کی خدمت کرتے ہیں اور ان کی تربیت کی جاتی ہے۔ فیلڈ میں مضامین کے ماہرین کے ذریعہ تیار کردہ ڈیٹا۔ 

اس وقت کی میڈیا کی چیخ و پکار کے جواب میں AI کو سنسر کرنے کی کوشش کرنے سے مسئلہ حل نہیں ہوگا۔ قابل اعتماد ڈیٹاسیٹس بنانے میں صرف محنتی کام ہی ایسا کر سکتا ہے۔ جب تک کہ AI کمپنیاں - اور VCs جو ان کی پشت پناہی کرتے ہیں - اس نقطہ نظر کو قابل احترام مواد فراہم کرنے کے واحد طریقہ کے طور پر قبول نہیں کرتے، یہ کچرا اندر/کوڑا پھینکنا ہے۔ 

کیا AI ترقی کو زیادہ منظم کیا جانا چاہئے؟

AI کی ترقی نے بہت کچھ پیدا کیا ہے۔ جائز خدشات ڈیپ فیکس اور صوتی کلوننگ سے لے کر جدید ترین فشنگ/ویشنگ/مسکرانا، قاتل روبوٹس، اور یہاں تک کہ ایک کے امکان کے بارے میں AI apocalypse. ایلیزر یوڈکوسکی، مصنوعی جنرل انٹیلی جنس (AGI) میں سب سے زیادہ قابل احترام ناموں میں سے ایک، نے حال ہی میں ایک کال جاری کی ہے۔یہ سب بند کرویہ کہتے ہوئے کہ چھ ماہ کا مجوزہ موقوف کافی نہیں تھا۔

لیکن آپ نئی ٹکنالوجیوں کی ترقی کو نہیں روک سکتے، یہ ایک حقیقت ہے جو قدیم زمانے میں کیمیا دانوں کے زمانے سے عیاں ہے۔ لہذا، عملی نقطہ نظر سے، AI کو کنٹرول سے باہر ہونے سے روکنے اور AI سے چلنے والے معدوم ہونے کے واقعے کے خطرے کو کم کرنے کے لیے کیا کیا جا سکتا ہے؟ اس کا جواب دوسرے شعبوں میں استعمال کیے گئے کنٹرول کے بہت سے ایسے ہی سیٹ ہیں جن میں ہتھیار بنانے کی صلاحیت موجود ہے: 

  • شفاف تحقیق۔ اوپن سورس اے آئی ڈیولپمنٹ نہ صرف جدت کو آگے بڑھاتی ہے اور رسائی کو جمہوری بناتی ہے، بلکہ اس کے بہت سے حفاظتی فوائد بھی ہوتے ہیں، جن میں سیکیورٹی کی خامیوں اور ترقی کی خطرناک خطوط کو تلاش کرنے سے لے کر ممکنہ بدسلوکی کے خلاف دفاع پیدا کرنے تک۔ بگ ٹیک اب تک اوپن سورس کی کوششوں کی حمایت کرتا ہے، لیکن اگر مقابلہ تیز ہوتا ہے تو یہ تبدیل ہو سکتا ہے۔ اوپن سورس تک رسائی کو برقرار رکھنے کے لیے قانون سازی کے اقدامات کی ضرورت ہو سکتی ہے۔
  • تجربات پر مشتمل ہے۔ کافی اعلی درجے کی AI کے ساتھ تمام تجربات کو سینڈ باکس کرنے کی ضرورت ہے، حفاظت اور حفاظتی طریقہ کار کو سختی سے نافذ کیا جائے۔ یہ فول پروف اقدامات نہیں ہیں لیکن یہ مقامی خلفشار اور عالمی تباہی کے درمیان فرق کر سکتے ہیں۔
  • سوئچز کو مار ڈالو۔ تریاق اور ویکسین کی طرح، بھاگنے والے یا تباہ کن AI مختلف حالتوں کے خلاف انسدادی اقدامات کو ترقی کے عمل کا ایک لازمی حصہ بننے کی ضرورت ہے۔ یہاں تک کہ رینسم ویئر بنانے والے بھی ایک کِل سوئچ بناتے ہیں۔ 
  • اس کے استعمال کے طریقہ کار کو منظم کریں۔ AI ایک ایسی ٹیکنالوجی ہے جس کا استعمال انسانیت کی بھلائی کے لیے کیا جا سکتا ہے یا اس کے تباہ کن نتائج کے ساتھ زیادتی کی جا سکتی ہے۔ اس کی ایپلی کیشنز کو ریگولیشن کرنا عالمی حکومتوں کے لیے ایک کام ہے، اور اس کی فوری ضرورت ChatGPT کے اگلے ورژن کو سنسر کرنے کی ضرورت سے کہیں زیادہ ہے۔ دی EU AI ایکٹ ایک اچھی، جامع بنیاد ہے جس کا مقصد بدعت کو دبائے بغیر غلط استعمال کو روکنا ہے۔ امریکہ AI بل آف رائٹس اور AI پر حالیہ ایگزیکٹو آرڈر کم مخصوص ہیں اور ایسا لگتا ہے کہ مناسب ماڈل کی ترقی، تربیت اور روک تھام کے مسائل کی بجائے سیاسی درستگی پر زیادہ توجہ مرکوز کرتا ہے۔ تاہم، یہ اقدامات صرف ایک آغاز ہیں۔ 

نتیجہ

AI سائبرسیکیوریٹی میں آ رہا ہے چاہے CISOs اسے چاہیں یا نہ چاہیں، اور یہ سائبرسیکیوریٹی کے میدان میں کافی فوائد اور خطرات دونوں لائے گا، خاص طور پر اس کی حتمی آمد کے ساتھ۔ پوسٹ کوانٹم خفیہ نگاری. کم از کم، CISOs کو AI-hyped ٹولز کے فوائد اور AI سے چلنے والے حملوں کے خطرات کو سمجھنے کے لیے وقت لگانا چاہیے۔ آیا وہ AI میں پیسہ لگاتے ہیں یا نہیں اس کا انحصار زیادہ تر AI سیکیورٹی پروڈکٹس کے ٹھوس فوائد، AI حملوں کے عوامی نتائج اور، ایک خاص حد تک، ChatGPT کے ساتھ ان کے ذاتی تجربے پر ہوتا ہے۔ 

CISOs کو جس چیلنج کا سامنا ہے وہ یہ ہے کہ AI کو مؤثر طریقے سے اور ذمہ داری سے کیسے نافذ کیا جائے۔

ٹائم اسٹیمپ:

سے زیادہ ڈیٹاورسٹی