ผลกระทบของ AI ต่อการรักษาความปลอดภัยทางไซเบอร์ - DATAVERSITY

ผลกระทบของ AI ต่อการรักษาความปลอดภัยทางไซเบอร์ – DATAVERSITY

โหนดต้นทาง: 2995031

ปัญญาประดิษฐ์ได้ดึงดูดความสนใจของสื่อมากมายสำหรับทุกสิ่งตั้งแต่การรับงานผู้คนไปจนถึงการแพร่กระจายข้อมูลที่บิดเบือนและการละเมิดลิขสิทธิ์ แต่ผลกระทบของ AI ต่อการรักษาความปลอดภัยทางไซเบอร์อาจเป็นปัญหาเร่งด่วนที่สุด

ผลกระทบของ AI ที่มีต่อทีมรักษาความปลอดภัยนั้นมีสองเท่าอย่างที่คาดการณ์ได้ เมื่อนำไปใช้อย่างถูกต้อง มันสามารถเป็นตัวทวีคูณที่ทรงพลังสำหรับผู้ปฏิบัติงานด้านความปลอดภัยทางไซเบอร์ ด้วยวิธีต่างๆ เช่น การประมวลผลข้อมูลจำนวนมหาศาลด้วยความเร็วของคอมพิวเตอร์ การค้นหาการเชื่อมต่อระหว่างจุดข้อมูลที่ห่างไกล การค้นพบรูปแบบ การตรวจจับการโจมตี และการทำนายความก้าวหน้าของการโจมตี แต่เนื่องจากผู้ปฏิบัติงานด้านความปลอดภัยตระหนักดีว่า AI ไม่ได้ถูกนำมาใช้อย่างเหมาะสมเสมอไป โดยเพิ่มความเข้มข้นของภัยคุกคามความปลอดภัยทางไซเบอร์ที่มีอยู่แล้ว ตั้งแต่การโจมตีข้อมูลระบุตัวตนและฟิชชิ่งไปจนถึงแรนซัมแวร์และการโจมตีในห่วงโซ่อุปทาน

CISO และทีมรักษาความปลอดภัยจำเป็นต้องเข้าใจทั้งข้อดีและความเสี่ยงของ AI ซึ่งจำเป็นต้องมีการปรับสมดุลทักษะอย่างมาก ตัวอย่างเช่น วิศวกรความปลอดภัยจะต้องเข้าใจพื้นฐานของแมชชีนเลิร์นนิง คุณภาพโมเดลและอคติ ระดับความเชื่อมั่น และตัวชี้วัดประสิทธิภาพ นักวิทยาศาสตร์ข้อมูล จำเป็นต้องเรียนรู้พื้นฐานด้านความปลอดภัยทางไซเบอร์ รูปแบบการโจมตี และการสร้างแบบจำลองความเสี่ยง เพื่อสนับสนุนทีมไฮบริดอย่างมีประสิทธิภาพ

โมเดล AI ต้องการการฝึกอบรมที่เหมาะสมเพื่อช่วยเหลือความปลอดภัยทางไซเบอร์

งานในการจัดการกับการแพร่กระจายของภัยคุกคามที่ขับเคลื่อนด้วย AI ทำให้เกิดความท้าทายสำหรับ CISO และทีมรักษาความปลอดภัยที่ทำงานหนักอยู่แล้ว ซึ่งไม่เพียงต้องจัดการกับแคมเปญฟิชชิ่งที่ซับซ้อนใหม่ที่สร้างขึ้นโดย แบบจำลองภาษาขนาดใหญ่ (LLM) เช่น ChatGPT แต่ยังต้องกังวลเกี่ยวกับเซิร์ฟเวอร์ที่ไม่ได้รับแพตช์ใน DMZ ซึ่งอาจเป็นภัยคุกคามที่ใหญ่กว่า

ในทางกลับกัน AI สามารถประหยัดเวลาและความพยายามของทีมได้มากในการประเมินความเสี่ยงและการตรวจจับภัยคุกคาม นอกจากนี้ยังสามารถช่วยตอบสนองได้แม้ว่าจะต้องทำอย่างระมัดระวังก็ตาม โมเดล AI สามารถท่องไหล่นักวิเคราะห์เพื่อเรียนรู้วิธีคัดแยกเหตุการณ์ จากนั้นจึงทำงานเหล่านั้นด้วยตัวเองหรือจัดลำดับความสำคัญของเคสสำหรับการตรวจสอบโดยมนุษย์ แต่ทีมต้องแน่ใจว่าคนที่เหมาะสมกำลังสอน AI

ตัวอย่างเช่น เมื่อหลายปีก่อน ฉันได้ทำการทดลองโดยให้นักวิเคราะห์ 10 คนซึ่งมีระดับทักษะต่างกันมา ตรวจสอบกรณีต้องสงสัยในการขโมยข้อมูล 100 กรณี นักวิเคราะห์อาวุโสสองคนระบุข้อดีและข้อเสียทั้งหมดได้อย่างถูกต้อง นักวิเคราะห์ที่มีประสบการณ์น้อยกว่าสามคนระบุผิดเกือบทุกกรณี และอีกห้าคนที่เหลือได้รับผลลัพธ์แบบสุ่ม ไม่ว่าโมเดล AI จะดีแค่ไหน มันก็ไม่มีประโยชน์หากได้รับการฝึกอบรมจากทีมแบบนั้น

AI ก็เหมือนกับรถยนต์ที่ทรงพลัง โดยสามารถสร้างสิ่งมหัศจรรย์ได้ในมือของผู้ขับขี่ที่มีประสบการณ์ หรือสร้างความเสียหายมากมายให้กับมือของผู้ไม่มีประสบการณ์ นั่นเป็นประเด็นหนึ่งที่การขาดแคลนทักษะอาจส่งผลต่อผลกระทบด้านความปลอดภัยทางไซเบอร์ของ AI

CTO จะเลือกโซลูชัน AI ได้อย่างไร

เมื่อพิจารณาถึงกระแสความนิยมเกี่ยวกับ AI องค์กรต่างๆ อาจถูกล่อลวงให้รีบนำเทคโนโลยีนี้ไปใช้ แต่นอกเหนือจากการฝึกอบรม AI อย่างเหมาะสมแล้ว ยังมีคำถามที่ CTO ต้องตอบ โดยเริ่มจากประเด็นเรื่องความเหมาะสม:

  • AI เข้ากับระบบนิเวศขององค์กรหรือไม่? ซึ่งรวมถึงแพลตฟอร์ม ส่วนประกอบภายนอก เช่น ฐานข้อมูลและเครื่องมือค้นหา ซอฟต์แวร์ฟรีและโอเพ่นซอร์สและใบอนุญาต ตลอดจนความปลอดภัยและการรับรองขององค์กร การสำรองข้อมูล และการเฟลโอเวอร์ 
  • AI ปรับขนาดตามขนาดขององค์กรหรือไม่?
  • ทีมรักษาความปลอดภัยจำเป็นต้องมีทักษะอะไรบ้างในการบำรุงรักษาและใช้งาน AI

CTO ยังต้องตอบคำถามเกี่ยวกับโซลูชัน AI โดยเฉพาะ: 

  • ฟังก์ชันใดที่อ้างสิทธิ์ของผลิตภัณฑ์ AI เฉพาะที่สอดคล้องกับวัตถุประสงค์ทางธุรกิจของคุณ
  • สามารถใช้ฟังก์ชันเดียวกันนี้ได้โดยใช้เครื่องมือที่มีอยู่หรือไม่
  • โซลูชันตรวจพบภัยคุกคามได้จริงหรือไม่

คำถามสุดท้ายนั้นอาจตอบได้ยาก เนื่องจากเหตุการณ์ความปลอดภัยทางไซเบอร์ที่เป็นอันตรายเกิดขึ้นในระดับที่เล็กมากเมื่อเทียบกับกิจกรรมที่ถูกกฎหมาย ในการศึกษาพิสูจน์แนวคิดแบบจำกัดโดยใช้ข้อมูลสด เครื่องมือ AI อาจตรวจไม่พบอะไรเลยหากไม่มีสิ่งใดอยู่ ผู้จำหน่ายมักใช้ข้อมูลสังเคราะห์หรือการโจมตีทีมแดงเพื่อแสดงความสามารถของ AI แต่คำถามยังคงอยู่ไม่ว่าจะเป็นการแสดงให้เห็นถึงความสามารถในการตรวจจับที่แท้จริง หรือเพียงการตรวจสอบความถูกต้องของสมมติฐานที่สร้างตัวบ่งชี้

เป็นการยากที่จะระบุได้ว่าเหตุใด AI จึงคิดว่ามีบางอย่างเป็นการโจมตี เนื่องจากอัลกอริธึมของ AI นั้นเป็นกล่องดำ แต่ก็ยังไม่สามารถอธิบายได้ว่าพวกเขามาถึงข้อสรุปบางอย่างได้อย่างไร ดังที่แสดงให้เห็นโดย DARPA AI ที่อธิบายได้ (XAI) โครงการ

การลดความเสี่ยงของ AI

โซลูชัน AI จะดีก็ต่อเมื่อข้อมูลที่ใช้งานได้เท่านั้น เพื่อให้มั่นใจถึงพฤติกรรมที่มีจริยธรรม โมเดล AI ควรได้รับการฝึกอบรมเกี่ยวกับข้อมูลด้านจริยธรรม ไม่ใช่การรวบรวมขยะแบบขายส่งบนเวิลด์ไวด์เว็บ และนักวิทยาศาสตร์ข้อมูลคนใดก็ตามรู้ดีว่าการสร้างชุดข้อมูลที่สมดุล เป็นกลาง และสะอาดเพื่อฝึกแบบจำลองนั้นเป็นงานที่ยาก น่าเบื่อ และไม่สวยงาม 

ด้วยเหตุนี้ โมเดล AI รวมถึง LLM จึงอาจได้รับการจัดการในที่สุดในลักษณะที่คล้ายคลึงกับวิธีที่จะให้บริการความปลอดภัยทางไซเบอร์ได้ดีที่สุด โดยเป็นโมเดลเฉพาะทาง (ตรงข้ามกับโมเดลวัตถุประสงค์ทั่วไปที่ "รู้ทุกอย่าง") ที่ให้บริการในสาขาเฉพาะและได้รับการฝึกอบรมเกี่ยวกับ ข้อมูลที่รวบรวมโดยผู้เชี่ยวชาญเฉพาะด้านในสาขานั้น 

การพยายามเซ็นเซอร์ AI เพื่อตอบสนองต่อเสียงโวยวายของสื่อในขณะนั้นไม่สามารถแก้ปัญหาได้ มีเพียงการทำงานอย่างขยันขันแข็งในการสร้างชุดข้อมูลที่เชื่อถือได้เท่านั้นที่สามารถทำได้ จนกว่าบริษัท AI และ VC ที่สนับสนุนพวกเขา จะยอมรับว่าแนวทางนี้เป็นวิธีเดียวในการนำเสนอเนื้อหาที่น่านับถือ นั่นคือขยะเข้า/ออก 

การพัฒนา AI ควรได้รับการควบคุมมากกว่านี้หรือไม่?

การพัฒนาของ AI ได้สร้างอะไรมากมาย ข้อกังวลที่ถูกต้องตามกฎหมาย เกี่ยวกับทุกสิ่งตั้งแต่ Deepfakes และการโคลนเสียงไปจนถึงฟิชชิ่ง/วิชชิ่ง/สมิชชิ่งขั้นสูง หุ่นยนต์นักฆ่า และแม้แต่ความเป็นไปได้ของ การเปิดเผยของ AI. Eliezer Yudkowsky หนึ่งในชื่อที่ได้รับการยอมรับมากที่สุดในด้านปัญญาประดิษฐ์ทั่วไป (AGI) ได้ออกแถลงการณ์เมื่อเร็ว ๆ นี้ “ปิดมันทั้งหมด” การกล่าวว่าการเลื่อนการชำระหนี้หกเดือนที่เสนอนั้นยังไม่เพียงพอ

แต่คุณไม่สามารถหยุดยั้งการพัฒนาเทคโนโลยีใหม่ ๆ ได้ ซึ่งเป็นความจริงที่เห็นได้ชัดมาตั้งแต่สมัยของนักเล่นแร่แปรธาตุในสมัยโบราณ ดังนั้น จากมุมมองเชิงปฏิบัติ สิ่งที่สามารถทำได้เพื่อป้องกันไม่ให้ AI เติบโตเกินกว่าการควบคุม และเพื่อลดความเสี่ยงของเหตุการณ์การสูญพันธุ์ที่ขับเคลื่อนด้วย AI คำตอบคือชุดควบคุมชุดเดียวกันหลายชุดที่ใช้ในสาขาอื่นที่มีศักยภาพในการติดตั้งอาวุธ: 

  • การวิจัยที่โปร่งใส การพัฒนา AI แบบโอเพ่นซอร์สไม่เพียงแต่ขับเคลื่อนนวัตกรรมและทำให้การเข้าถึงเป็นประชาธิปไตยเท่านั้น แต่ยังมีประโยชน์ด้านความปลอดภัยมากมาย ตั้งแต่การตรวจจับข้อบกพร่องด้านความปลอดภัยและแนวการพัฒนาที่เป็นอันตราย ไปจนถึงการสร้างการป้องกันต่อการละเมิดที่อาจเกิดขึ้น จนถึงขณะนี้ Big Tech สนับสนุนความพยายามของโอเพ่นซอร์ส แต่นั่นอาจเปลี่ยนแปลงได้หากการแข่งขันรุนแรงขึ้น อาจจำเป็นต้องมีมาตรการทางกฎหมายเพื่อรักษาการเข้าถึงโอเพ่นซอร์ส
  • มีการทดลอง. การทดลองทั้งหมดที่มี AI ขั้นสูงเพียงพอจำเป็นต้องทำแซนด์บ็อกซ์ โดยมีการบังคับใช้ขั้นตอนด้านความปลอดภัยและการรักษาความปลอดภัยอย่างเคร่งครัด สิ่งเหล่านี้ไม่ใช่มาตรการที่เข้าใจผิดได้ แต่อาจสร้างความแตกต่างระหว่างความวุ่นวายในท้องถิ่นและภัยพิบัติระดับโลก
  • ฆ่าสวิตช์ เช่นเดียวกับยาแก้พิษและวัคซีน มาตรการตอบโต้ต่อตัวแปร AI ที่หนีไม่พ้นหรือทำลายล้างจำเป็นต้องเป็นส่วนสำคัญของกระบวนการพัฒนา แม้แต่ผู้สร้างแรนซัมแวร์ก็ยังสร้าง kill switch ขึ้นมา 
  • ควบคุมวิธีการใช้ AI เป็นเทคโนโลยีที่สามารถนำไปใช้เพื่อประโยชน์ของมนุษยชาติหรือนำไปใช้ในทางที่ผิดพร้อมกับผลที่ตามมาร้ายแรง การควบคุมการสมัครเป็นงานสำหรับรัฐบาลโลก และความเร่งด่วนนั้นสูงกว่าความจำเป็นในการเซ็นเซอร์ ChatGPT เวอร์ชันถัดไปมาก ที่ พระราชบัญญัติ AI ของสหภาพยุโรป เป็นรากฐานที่กระชับและรัดกุมซึ่งมุ่งเป้าไปที่การป้องกันการใช้ในทางที่ผิดโดยไม่ขัดขวางนวัตกรรม สหรัฐอเมริกา AI บิลสิทธิ และคำสั่งผู้บริหารล่าสุดเกี่ยวกับ AI มีความเฉพาะเจาะจงน้อยกว่าและดูเหมือนจะมุ่งเน้นไปที่ความถูกต้องทางการเมืองมากกว่าประเด็นของการพัฒนาแบบจำลอง การฝึกอบรม และการกักกันที่เหมาะสม อย่างไรก็ตาม มาตรการเหล่านั้นเป็นเพียงจุดเริ่มต้นเท่านั้น 

สรุป

AI กำลังเข้ามาสู่ความปลอดภัยทางไซเบอร์ ไม่ว่า CISO จะต้องการหรือไม่ก็ตาม และจะนำทั้งประโยชน์และความเสี่ยงที่สำคัญมาสู่ด้านความปลอดภัยทางไซเบอร์ โดยเฉพาะอย่างยิ่งเมื่อการมาถึงของ การเข้ารหัสหลังควอนตัม. อย่างน้อยที่สุด CISO ควรลงทุนเวลาเพื่อทำความเข้าใจถึงประโยชน์ของเครื่องมือที่เน้น AI และภัยคุกคามของการโจมตีที่ขับเคลื่อนด้วย AI ไม่ว่าพวกเขาจะลงทุนเงินกับ AI หรือไม่นั้น ขึ้นอยู่กับประโยชน์ที่จับต้องได้ของผลิตภัณฑ์รักษาความปลอดภัยของ AI เป็นหลัก ผลที่ตามมาของการโจมตีของ AI ที่เผยแพร่ต่อสาธารณชน และประสบการณ์ส่วนตัวของพวกเขากับ ChatGPT ในระดับหนึ่ง 

ความท้าทายที่ CISO เผชิญคือการนำ AI ไปใช้อย่างมีประสิทธิภาพและมีความรับผิดชอบอย่างไร

ประทับเวลา:

เพิ่มเติมจาก ข้อมูล