بیلنسنگ ایکٹ: تخلیقی AI کے دور میں انسانی مہارت کی قدر - ڈیٹاورسٹی

بیلنسنگ ایکٹ: تخلیقی AI کے دور میں انسانی مہارت کی قدر - ڈیٹاورسٹی

ماخذ نوڈ: 3052574

جب سیکیورٹی کی بات آتی ہے تو انسانوں کو انٹرپرائز میں سب سے کمزور کڑی سمجھا جاتا ہے۔ بجا طور پر، جیسا کہ 95% سے اوپر سائبر سیکیورٹی کے واقعات انسانی غلطی کی وجہ سے ہوتے ہیں۔ انسان چست، غلط اور غیر متوقع ہوتے ہیں، جو انہیں سائبر کرائمینلز کے لیے آسان ہدف بناتے ہیں جو تنظیموں کے سسٹمز میں داخلہ حاصل کرنا چاہتے ہیں۔  

یہ مشینوں پر ہمارا انحصار زیادہ اہم بناتا ہے۔ اس وقت تک، ہم کوڈ کے ساتھ سچائی کے طور پر کام کرنے کے لیے مشینوں پر بھروسہ کرنے میں کامیاب رہے ہیں۔ اگرچہ کوڈ میں کمزوریوں کے ذریعے یا ان کے انسانی آپریٹرز کی سماجی خامیوں کے ذریعے ان سے سمجھوتہ کیا جا سکتا ہے، لیکن مسائل کو عام طور پر ایک واضح حل کے ساتھ پورا کیا جاتا ہے۔ 

تاہم، کے عروج کے ساتھ پیدا کرنے والا AI (GenAI) اور بڑے زبان کے ماڈل (LLMs)، تنظیموں کو اب سوشل انجینئرنگ کے حملوں کا سامنا ہے جو AI کو وہ کام کرنے کے لیے دھوکہ دیتے ہیں جن کا اس کا ارادہ نہیں تھا۔ جیسا کہ ہم AI پر زیادہ سے زیادہ آف لوڈ کرتے ہیں، یہ دیکھنا دلچسپ ہوگا کہ حملے کے ان نئے نمونوں کا استعمال ہوتا ہے۔

اس مخمصے کے عالم میں، یہ ایک بار پھر انسانوں پر منحصر ہے کہ وہ اس پیچیدہ اور ابھرتے ہوئے AI سیکیورٹی کے منظر نامے کو نیویگیٹ کریں۔ یہ CISOs سے AI کے فوائد کے ساتھ ساتھ خامیوں کو واضح طور پر بتانے اور AI سے چلنے والی مصنوعات اور صلاحیتوں سے منسلک حفاظتی تحفظات کی طویل فہرست کو تسلیم کرنے کا مطالبہ کرتا ہے۔ 

جنریٹو AI کا تیزی سے نفاذ سائبر سیکیورٹی کے نئے چیلنجز لاتا ہے۔

شروع کرنے کے لیے، جب GenAI اور LLMs کی بات آتی ہے تو ایک عام مسئلہ AI سے تیار کردہ مواد پر ایک وسیع حد سے زیادہ انحصار ہے۔ انسانی ان پٹ یا نگرانی کے بغیر گمراہ کن یا غلط معلومات کی تصدیق یا جانچ کیے بغیر AI سے تیار کردہ مواد پر بھروسہ کرنا غلط ڈیٹا کے پھیلاؤ کا باعث بن سکتا ہے جو ناقص فیصلہ سازی اور کم تنقیدی سوچ کو مطلع کرتا ہے۔ LLMs hallucinate کے لیے جانے جاتے ہیں، اس لیے ہو سکتا ہے کہ کچھ غلط معلومات بدنیتی پر مبنی ارادے سے بھی نہ نکلیں۔

اسی سلسلے میں، GenAI کے ارتقاء کے بعد متعارف کرائے جانے والے غیر محفوظ کوڈ کی مقدار بھی CISOs کے لیے ایک اہم چیلنج بن جائے گی، اگر اس کی پیشگی طور پر توقع نہ کی گئی ہو۔ AI انجنوں کو حفاظتی کمزوریوں کے ساتھ بگی کوڈ لکھنے کے لیے جانا جاتا ہے۔ مناسب انسانی نگرانی کے بغیر، GenAI مناسب تکنیکی بنیادوں کے بغیر لوگوں کو شپ کوڈ کے لیے بااختیار بناتا ہے۔ یہ ان ٹولز کو غلط طریقے سے استعمال کرنے والی تنظیموں کے لیے سافٹ ویئر ڈویلپمنٹ لائف سائیکل کے دوران سیکیورٹی کے خطرے کو بڑھاتا ہے۔

ڈیٹا کا رساو ایک اور عام مسئلہ ہے۔ بعض صورتوں میں، حملہ آور حساس معلومات نکالنے کے لیے فوری انجیکشن کا استعمال کر سکتے ہیں جو AI ماڈل نے کسی دوسرے صارف سے سیکھی ہے۔ کئی بار یہ بے ضرر ہو سکتا ہے، لیکن نقصان دہ استعمال یقینی طور پر ممنوع نہیں ہے۔ برے اداکار جان بوجھ کر AI ٹول کی باریک بینی سے تیار کردہ اشارے کے ساتھ چھان بین کر سکتے ہیں، جس کا مقصد حساس معلومات کو نکالنا ہے جسے ٹول نے حفظ کر رکھا ہے، جس سے حساس یا خفیہ معلومات کا اخراج ہوتا ہے۔

AI سائبرسیکیوریٹی کے کچھ فرقوں کو بڑھا سکتا ہے لیکن دوسروں کو بند کرنے کی اہم صلاحیت رکھتا ہے۔

آخر میں، یہ سمجھا جاتا ہے کہ GenAI اور LLMs کا پھیلاؤ کچھ وجوہات کی بنا پر ہماری صنعت کے حملے کی سطح میں کمی کو دور کر دے گا۔ سب سے پہلے، GenAI کے ساتھ کوڈ تیار کرنے کی صلاحیت اس بار کو کم کر دیتی ہے کہ کون سافٹ ویئر انجینئر ہو سکتا ہے، جس کے نتیجے میں کمزور کوڈ اور یہاں تک کہ سیکورٹی کے کمزور معیارات پیدا ہوتے ہیں۔ دوسرا، GenAI کو بہت زیادہ ڈیٹا کی ضرورت ہوتی ہے، جس کا مطلب ہے کہ ڈیٹا کی خلاف ورزیوں کا پیمانہ اور اثر تیزی سے بڑھے گا۔ تیسرا، کسی بھی ابھرتی ہوئی ٹکنالوجی کی طرح، ڈویلپرز ان طریقوں سے پوری طرح واقف نہیں ہوں گے جن سے ان کے نفاذ کا استحصال کیا جا سکتا ہے یا ان کا غلط استعمال کیا جا سکتا ہے۔ 

تاہم، متوازن نقطہ نظر کو اپنانا ضروری ہے۔ اگرچہ جنرل AI کی کوڈ جنریشن کی سہولت سے خدشات بڑھ سکتے ہیں، لیکن یہ سائبر سیکیورٹی کے منظر نامے میں مثبت صفات بھی لاتا ہے۔ مثال کے طور پر، یہ کراس سائٹ اسکرپٹنگ (XSS) یا SQL انجیکشن جیسی حفاظتی کمزوریوں کی مؤثر طریقے سے شناخت کر سکتا ہے۔ یہ دوہری فطرت ایک باریک بینی کی اہمیت کو واضح کرتی ہے۔ AI کو مکمل طور پر نقصان دہ کے طور پر دیکھنے کے بجائے، یہ مصنوعی ذہانت اور سائبر سیکیورٹی میں انسانی شمولیت کے درمیان تکمیلی تعلق پر زور دیتا ہے۔ CISOs کو GenAI اور LLMs کے متعلقہ خطرات کو سمجھنا چاہیے جب کہ GenAI کو لاگو کرنے اور اپنی تنظیموں کو مضبوط بنانے کے لیے ساتھ ہی ساتھ انسانی بنیادوں پر مبنی طریقوں کی تلاش بھی کریں۔

انسان وہ چیز اٹھاتے ہیں جو AI پیچھے چھوڑ جاتا ہے۔

CISOs کو صرف GenAI کی پیچیدگیوں کو کھولنے کا کام نہیں سونپا جاتا ہے۔ انہیں اپنی تنظیم کے لیے آگے کی راہ ہموار کرنی چاہیے اور قیادت کے سامنے یہ ظاہر کرنا چاہیے کہ ان کی تنظیم GenAI کے زیر تسلط دنیا میں کس طرح ترقی کی منازل طے کر سکتی ہے۔ 

اگرچہ اختتامی صارفین اکثر سیکیورٹی کے بہت سے خطرات کے ذمہ دار ہوتے ہیں، لیکن سائبر کرائم کے لیے ایک اچھی تربیت یافتہ اور حفاظتی ذہن رکھنے والے انسان سے بہتر کوئی دفاع نہیں ہوسکتا۔ اس سے کوئی فرق نہیں پڑتا ہے کہ کسی تنظیم کے پاس خطرے کا پتہ لگانے کے کون سے ٹولز موجود ہیں، جب سافٹ ویئر کی جانچ کی بات آتی ہے تو اسکرین کے پیچھے موجود شخص کی جگہ کوئی نہیں ہے۔ 

کی طاقت کا استعمال کرتے ہوئے تنظیمیں سائبر جرائم پیشہ افراد کو پیچھے چھوڑ سکتی ہیں۔ اخلاقی ہیکنگ اگرچہ کچھ فرسودہ غلط فہمیوں کی وجہ سے ہیکرز کو اپنے نیٹ ورک میں مدعو کرنے میں ہچکچاتے ہیں، یہ قانون کی پاسداری کرنے والے سائبر سیکیورٹی ماہرین برے اداکاروں سے مقابلہ کرنے کے لیے سب سے بڑا میچ ہیں - کیونکہ، AI کے برعکس، وہ سائبر حملہ کرنے والوں کے سروں میں جا سکتے ہیں۔

درحقیقت، ہیکرز پہلے ہی سائبر کرائمینلز کے خلاف جنگ میں خودکار ٹولز کی تکمیل کر رہے ہیں۔ 92 فیصد اخلاقی ہیکر کہتے ہیں کہ وہ ایسی کمزوریاں تلاش کر سکتے ہیں جو سکینر نہیں کر سکتے۔ اچھے کے لیے ہیکنگ پر پردہ ہٹا کر، کاروباری رہنما اخلاقی ہیکنگ اور انسانی مدد کو قبول کر سکتے ہیں تاکہ جدید سائبر کرائم سے لڑنے کے لیے AI اور انسانی ماہرین کے درمیان زیادہ موثر توازن قائم کیا جا سکے۔ ہمارے حالیہ ہیکر سے چلنے والی سیکیورٹی رپورٹ اس پر روشنی ڈالتا ہے، ہمارے 91% صارفین کا کہنا ہے کہ ہیکرز AI یا اسکیننگ حل کے مقابلے میں زیادہ مؤثر اور قیمتی خطرے کی رپورٹس فراہم کرتے ہیں۔ جیسا کہ AI ہمارے مستقبل کی تشکیل جاری رکھے ہوئے ہے، اخلاقی ہیکر کمیونٹی اپنے محفوظ انضمام کو یقینی بنانے کے لیے پرعزم رہے گی۔

انتہائی ہنر مند ہیکرز کے نیٹ ورک کے ساتھ آٹومیشن کے امتزاج کا مطلب ہے کہ کمپنیاں ایپلی کیشن کی اہم خامیوں کا فائدہ اٹھانے سے پہلے ان کی نشاندہی کر سکتی ہیں۔ جب تنظیمیں اخلاقی ہیکنگ کے ساتھ خودکار حفاظتی ٹولز کو مؤثر طریقے سے ملاتی ہیں، تو وہ ہمیشہ سے ابھرتی ہوئی ڈیجیٹل حملے کی سطح میں خلاء کو بند کر دیتی ہیں۔ 

اس کی وجہ یہ ہے کہ انسان اور AI سیکیورٹی ٹیم کی پیداواری صلاحیت کو بہتر بنانے کے لیے مل کر کام کر سکتے ہیں: 

  1. حملے کی سطح کی جاسوسی: جدید تنظیمیں ایک وسیع اور پیچیدہ IT انفراسٹرکچر کو ترقی دے سکتی ہیں جس میں متعدد مجاز اور غیر منظور شدہ ہارڈ ویئر اور سافٹ ویئر شامل ہیں۔ سافٹ ویئر اور ہارڈ ویئر جیسے آئی ٹی اثاثوں کا ایک ہمہ گیر انڈیکس تیار کرنا کمزوریوں کو کم کرنے، پیچ کے انتظام کو ہموار کرنے اور صنعت کے مینڈیٹ کی تعمیل میں مدد کرنے کے لیے اہم ہے۔ یہ ان نکات کی شناخت اور تجزیہ کرنے میں بھی مدد کرتا ہے جن کے ذریعے حملہ آور کسی تنظیم کو نشانہ بنا سکتا ہے۔
  2. مسلسل تشخیص: پوائنٹ ان ٹائم سیکیورٹی سے آگے بڑھتے ہوئے، تنظیمیں ڈیجیٹل لینڈ اسکیپ کی مسلسل جانچ حاصل کرنے کے لیے انسانی سلامتی کے ماہرین کی ذہانت کو ریئل ٹائم اٹیک سطح کی بصیرت کے ساتھ جوڑ سکتی ہیں۔ مسلسل دخول کی جانچ IT ٹیموں کو مستقل نقالی کے نتائج دیکھنے کے قابل بناتی ہے جو یہ ظاہر کرتی ہے کہ موجودہ ماحول میں خلاف ورزی کیسی نظر آئے گی اور ممکنہ کمزور مقامات جہاں ٹیمیں حقیقی وقت میں موافقت کر سکتی ہیں۔
  3. عمل میں اضافہ: قابل اعتماد انسانی ہیکرز حفاظتی ٹیموں کو کمزوریوں اور اثاثوں کے بارے میں قیمتی معلومات فراہم کر سکتے ہیں تاکہ عمل کو بہتر بنانے میں مدد ملے۔

نتیجہ

جیسا کہ تخلیقی AI اتنی تیز رفتاری سے تیار ہو رہا ہے، CISOs کو اپنی اس سمجھ سے فائدہ اٹھانا چاہیے کہ انسان کس طرح AI سیکیورٹی کو بڑھانے اور اپنے بورڈ اور قیادت کی ٹیم سے تعاون حاصل کرنے کے لیے تعاون کر سکتے ہیں۔ نتیجے کے طور پر، تنظیموں کے پاس ان چیلنجوں سے مؤثر طریقے سے نمٹنے کے لیے مناسب عملہ اور وسائل ہو سکتے ہیں۔ ایتھیکل ہیکرز کے ساتھ تعاون کے ذریعے تیز رفتار AI کے نفاذ اور جامع سیکیورٹی کے درمیان صحیح توازن قائم کرنا مناسب AI سے چلنے والے حل میں سرمایہ کاری کی دلیل کو مضبوط کرتا ہے۔

ٹائم اسٹیمپ:

سے زیادہ ڈیٹاورسٹی