AI-Automated Cybersecurity: کیا خود کار بنایا جائے؟ - KDnuggets

AI-Automated Cybersecurity: کیا خود کار بنایا جائے؟ - KDnuggets

ماخذ نوڈ: 3029021

AI-Automated Cybersecurity: کیا خود کار بنایا جائے؟
تصویر بذریعہ ایڈیٹر
 

آئیے اس کا سامنا کریں: اگرچہ موجودہ ہائپ کی وجہ سے کچھ IT پیشہ وروں کا AI کے خلاف گھٹنے ٹیکنے والا ردعمل ہو سکتا ہے، لیکن AI کو سائبر سیکیورٹی کنٹرولز سمیت کئی روزمرہ کے کاروباری عملوں میں سرایت کرنے سے پہلے صرف وقت کی بات ہے۔ لیکن اب، جب یہ ٹیکنالوجی ابھی جوان ہے، تو AI آٹومیشن کے حقیقی مضمرات اور چیلنجوں کو سمجھنا مشکل ہو سکتا ہے۔

یہ مضمون کچھ عام خرافات کو ختم کرتا ہے کہ کس طرح AI سائبرسیکیوریٹی کو بڑھا سکتا ہے اور آئی ٹی اور سائبرسیکیوریٹی لیڈروں کو اس بارے میں سفارشات فراہم کرتا ہے کہ کس طرح خودکار کرنے کے بارے میں باخبر فیصلے کیے جائیں۔ 

اس افسانے میں مت خریدیں کہ AI آپ کے تمام ملازمین کو تبدیل کرنے والا ہے۔ یہاں تک کہ اگر یہ ممکن تھا، ہم ایک معاشرے کے طور پر اس چھلانگ کے لئے تیار نہیں ہیں. ایک جیٹ پر سوار ہونے کا تصور کریں اور یہ دیکھیں کہ روانگی سے پہلے کوئی بھی انسانی پائلٹ کاک پٹ میں داخل نہیں ہوتا ہے۔ اس میں کوئی شک نہیں کہ جہاز میں بغاوت ہو گی، مسافروں کا مطالبہ تھا کہ پرواز کے لیے پائلٹ موجود ہو۔ آٹو پائلٹ فنکشن جتنا موثر ہے، اس کی اپنی حدود ہیں، اس لیے لوگ اب بھی ایک انسان کو انچارج چاہتے ہیں۔ 

درحقیقت، جب صنعتی انقلاب نے زور پکڑا تو ہم نے انسانی عملے کو پیچھے ہٹاتے ہوئے نہیں دیکھا۔ اگرچہ مشینری نے دستی مشقت کے عناصر پر قبضہ کر لیا، لیکن اس نے خود انسانوں کی جگہ نہیں لی۔ بلکہ، مشینوں نے مینوفیکچرنگ کے عمل میں زیادہ کارکردگی، پیشن گوئی اور مستقل مزاجی لائی۔ درحقیقت، نئی ملازمتیں اور یہاں تک کہ نئی صنعتیں جن کے لیے نئی مہارتوں اور زیادہ تنوع کی ضرورت ہوتی ہے، نے جنم لیا۔ اسی طرح، AI کاروباری عمل میں کارکردگی، توسیع پذیری اور درستگی کی نئی سطحیں لائے گا، اور نئے مواقع بھی پیدا کرے گا اور لیبر مارکیٹ کو تبدیل کرے گا۔ دوسرے لفظوں میں، آپ کو اب بھی سائبرسیکیوریٹی کے اہلکاروں کی ضرورت ہوگی، لیکن وہ AI کی مدد سے ہنر مند ہوں گے۔ 

ایک اور اہم غلط فہمی یہ ہے کہ AI آٹومیشن لامحالہ لاگت کو کم کرے گی۔ یہ واقف لگ سکتا ہے؛ بادل کے بارے میں بھی کچھ عرصہ پہلے یہی کہا گیا تھا۔ وہ تنظیمیں جنہوں نے اپنے ڈیٹا سینٹرز کو کلاؤڈ پر منتقل کیا، پایا کہ اگرچہ کلاؤڈ کے OPEX لاگت کے ڈھانچے کو روایتی CAPEX اخراجات کے مقابلے میں فوائد حاصل ہیں، لیکن حتمی اخراجات بڑے ماحول کے لیے یکساں ہیں، کیونکہ زیادہ نفیس نظاموں کو زیادہ ہنر مند (اور مہنگے!) ہنر کی ضرورت ہوتی ہے۔ اسی طرح، آٹومیشن اخراجات کی تقسیم کو بدل دے گی، لیکن مجموعی اخراجات کو نہیں۔ 

آخر میں، مکمل طور پر خودکار AI سے چلنے والے سیکیورٹی حل کو بعض اوقات ایک مطلوبہ مقصد کے طور پر دیکھا جاتا ہے۔ حقیقت میں، یہ آسمانی خواب ہے جو اعتماد اور قابلِ سماعت ہونے کے سوالات اٹھاتا ہے۔ کیا ہوگا اگر وہ آٹومیشن خراب ہو جائے یا سمجھوتہ ہو جائے؟ آپ کس طرح اس بات کی تصدیق کرتے ہیں کہ نتائج اب بھی کاروباری مقاصد سے ہم آہنگ ہیں؟ سچی بات یہ ہے کہ ہم اس نئے AI خودکار نمونے کے ابتدائی مراحل میں ہیں، اور کوئی بھی صحیح معنوں میں یہ نہیں سمجھتا ہے کہ ایک دن سیکیورٹی کے نقطہ نظر سے AI آٹومیشن کا کیسے فائدہ اٹھایا جا سکتا ہے۔ AI اور آٹومیشن چاندی کی گولیاں نہیں ہیں (کچھ بھی نہیں ہے)۔

کچھ عمل خود کار طریقے سے دوسروں کے مقابلے میں بہتر ہیں. یہاں ایک اچھا تین نکاتی جائزہ ہے جو آپ کو یہ فیصلہ کرنے میں مدد کر سکتا ہے کہ آیا حفاظتی عمل آٹومیشن کے لیے موزوں ہے:

  • یہ عمل دہرایا جاتا ہے اور دستی طور پر انجام دینے پر وقت لگتا ہے۔ 
  • اس عمل کی کافی اچھی طرح وضاحت کی گئی ہے کہ اسے الگورتھم میں تبدیل کیا جا سکتا ہے۔
  • عمل کے نتائج قابل تصدیق ہیں، لہذا انسان اس بات کا تعین کر سکتا ہے کہ کب کچھ غلط ہے۔

آپ نہیں چاہتے کہ آپ کا مہنگا سیکیورٹی ٹیلنٹ سیکیورٹی لاگز پر ڈالنے، غلط کنفیگریشنز کو درست کرنے یا تجویز کردہ میٹرک الرٹس کی ترجمانی کرنے جیسے کام کرے۔ انہیں AI سے چلنے والے سیکیورٹی ٹولز سے لیس کرکے، آپ ان کی مرئیت میں اضافہ کر سکتے ہیں، مختلف خطرات کے بارے میں ان کی سمجھ کو بڑھا سکتے ہیں اور حملوں کے لیے ان کے ردعمل کو تیز کر سکتے ہیں۔ 

مزید وسیع طور پر، غور کریں کہ کس طرح پیشہ ورانہ کھیلوں کی ٹیمیں اپنے کھلاڑیوں کی کارکردگی کو بہتر بنانے کے لیے ٹیکنالوجی میں سرمایہ کاری کر رہی ہیں۔ اسی طرح، آپ کو اپنی سیکیورٹی ٹیموں کو خودکار ٹولز فراہم کرنے کی ضرورت ہے جن کی انہیں اپنے کھیل کو بہتر بنانے کی ضرورت ہے۔ مثال کے طور پر، اندرونی خطرہ ایک اہم خطرہ ہے، لیکن کمپنی میں ہر صارف پر نظر رکھنا عملی طور پر ناممکن ہے، اور بدمعاش ملازمین اکثر تب ہی ظاہر ہوتے ہیں جب وہ پہلے ہی کم از کم کچھ نقصان پہنچا چکے ہوں۔ AI پر مبنی حل اس خطرے کو کم کرنے میں زیادہ کارآمد ثابت ہو سکتے ہیں: صارف اور ہستی کے رویے کی بے ضابطگی (UEBA) کا پتہ لگانے کا حل صارف کے ڈیٹا تک رسائی کے پیٹرن میں ٹھیک ٹھیک تبدیلیوں اور ان کے ساتھیوں کے مقابلے ان کے رویے کے درمیان فرق کو دیکھ سکتا ہے، یہ دونوں ہی ایک اشارہ دیتے ہیں۔ ممکنہ خطرہ جس کا فوری جائزہ لینے کی ضرورت ہے۔ 

ایک اور شعبہ جہاں AI آپ کی ٹیم کی صلاحیتوں کو بالکل نئی سطح پر لے جا سکتا ہے وہ خطرہ کا شکار ہے۔ خودکار حل ان حملوں کے نشانات کو زیادہ درست طریقے سے شناخت کر سکتے ہیں جنہیں آپ کے تحفظ کے طریقہ کار نے ناکام بنا دیا ہو اور ان کا آپ کی خطرے کی ذہانت سے موازنہ کر سکتے ہیں۔ یہ ایک بڑے حملے کی علامات ہو سکتی ہیں اور آپ اس کے لیے بہتر طور پر تیار ہو سکتے ہیں۔ 

ChatGPT، Bard اور ہزاروں دیگر حیرت انگیز نئی ایپس ایگزیکٹوز کو AI کا عملی تجربہ کرنے کا موقع فراہم کرتی ہیں۔ اپنی سیکیورٹی ٹیموں کے ساتھ کام کرتے ہوئے، وہ ٹیکنالوجی کے لیے ممکنہ ایپلی کیشنز کو تلاش کر سکتے ہیں۔ لیکن آنکھیں بند کر کے آگے چارج کرنے کے بجائے، یہ اچھی طرح سے اندازہ لگانا ضروری ہے کہ کون سے عمل خودکار ہونے کا مطلب ہے۔ یہ مستعدی سے آئی ٹی رہنماؤں کو یہ یقینی بنانے میں مدد ملے گی کہ مجوزہ نئی ٹیکنالوجی کے خطرات اس کے فوائد سے زیادہ نہ ہوں۔
 
 

ایلیا سوٹنیکوف Netwrix میں سیکورٹی سٹریٹجسٹ اور صارف کے تجربے کے نائب صدر ہیں۔ وہ تکنیکی قابلیت، UX ڈیزائن، اور مصنوعات کے وژن اور حکمت عملی کے لیے ذمہ دار ہے۔

ٹائم اسٹیمپ:

سے زیادہ KDnuggets