การรักษาความปลอดภัยทางไซเบอร์อัตโนมัติด้วย AI: จะทำอะไรอัตโนมัติ? - เคนักเก็ต

การรักษาความปลอดภัยทางไซเบอร์อัตโนมัติด้วย AI: จะทำอะไรอัตโนมัติ? – เคนักเก็ต

โหนดต้นทาง: 3029021

การรักษาความปลอดภัยทางไซเบอร์อัตโนมัติด้วย AI: อะไรจะทำให้เป็นอัตโนมัติ
รูปภาพโดยบรรณาธิการ
 

ยอมรับเถอะ: แม้ว่าผู้เชี่ยวชาญด้านไอทีบางคนอาจมีปฏิกิริยาตอบโต้ต่อ AI อย่างรุนแรงเนื่องจากกระแสความนิยมในปัจจุบัน แต่ก็เป็นเพียงเรื่องของเวลาก่อนที่ AI จะฝังตัวอยู่ในกระบวนการทางธุรกิจรายวันมากมาย รวมถึงการควบคุมความปลอดภัยทางไซเบอร์ แต่เมื่อเทคโนโลยีนี้ยังใหม่อยู่ อาจเป็นเรื่องยากที่จะเข้าใจความหมายที่แท้จริงและความท้าทายของระบบอัตโนมัติของ AI

บทความนี้จะหักล้างความเชื่อผิดๆ สองสามข้อเกี่ยวกับวิธีที่ AI สามารถปรับปรุงความปลอดภัยทางไซเบอร์ และให้คำแนะนำแก่ผู้นำด้านไอทีและความปลอดภัยทางไซเบอร์เกี่ยวกับวิธีการตัดสินใจโดยใช้ข้อมูลรอบด้านเกี่ยวกับสิ่งที่จะทำให้เป็นอัตโนมัติ 

อย่าเชื่อความเชื่อที่ว่า AI จะมาแทนที่พนักงานของคุณทั้งหมด แม้ว่าจะเป็นไปได้ แต่สังคมเรายังไม่พร้อมสำหรับการก้าวกระโดดดังกล่าว ลองนึกภาพการขึ้นเครื่องบินเจ็ตและสังเกตว่าไม่มีนักบินคนใดเข้าไปในห้องนักบินก่อนออกเดินทาง ไม่ต้องสงสัยเลยว่าจะมีการกบฏบนเครื่อง โดยผู้โดยสารเรียกร้องให้มีนักบินร่วมเที่ยวบินด้วย แม้ว่าฟังก์ชันออโตไพลอตจะมีประสิทธิภาพ แต่ก็มีข้อจำกัด ดังนั้นผู้คนจึงยังต้องการให้มนุษย์เป็นผู้รับผิดชอบ 

อันที่จริง เราไม่เห็นว่าบุคลากรของมนุษย์ถูกกำจัดออกไปเมื่อการปฏิวัติอุตสาหกรรมเกิดขึ้น แม้ว่าเครื่องจักรจะเข้ามาแทนที่องค์ประกอบของแรงงานคน แต่มันไม่ได้มาแทนที่มนุษย์เอง แต่เครื่องจักรกลับนำประสิทธิภาพ ความสามารถในการคาดการณ์ได้ และความสม่ำเสมอมาสู่กระบวนการผลิตมากขึ้น ในความเป็นจริง งานใหม่และแม้แต่อุตสาหกรรมใหม่ที่ต้องใช้ทักษะใหม่และความหลากหลายที่มากขึ้นได้ถือกำเนิดขึ้น ในทำนองเดียวกัน AI จะนำประสิทธิภาพ ความสามารถในการขยายขนาด และความแม่นยำระดับใหม่มาสู่กระบวนการทางธุรกิจ และยังสร้างโอกาสใหม่ๆ และเปลี่ยนแปลงตลาดแรงงานอีกด้วย กล่าวอีกนัยหนึ่ง คุณยังคงต้องการบุคลากรด้านความปลอดภัยทางไซเบอร์ แต่พวกเขาจะได้รับการยกระดับทักษะด้วยความช่วยเหลือจาก AI 

ความเข้าใจผิดที่สำคัญอีกประการหนึ่งคือระบบอัตโนมัติของ AI จะลดต้นทุนอย่างหลีกเลี่ยงไม่ได้ นี่อาจฟังดูคุ้นเคย เรื่องเมฆก็เคยกล่าวไว้เมื่อไม่นานมานี้ องค์กรที่ย้ายศูนย์ข้อมูลของตนไปยังระบบคลาวด์พบว่าแม้ว่าโครงสร้างต้นทุน OPEX ของระบบคลาวด์จะมีข้อได้เปรียบเหนือค่าใช้จ่าย CAPEX แบบเดิม แต่ต้นทุนสุดท้ายจะใกล้เคียงกันสำหรับสภาพแวดล้อมขนาดใหญ่ ส่วนหนึ่งเป็นเพราะระบบที่ซับซ้อนมากขึ้นต้องใช้บุคลากรที่มีทักษะมากกว่า (และมีราคาแพง!) ในทำนองเดียวกัน ระบบอัตโนมัติจะเปลี่ยนการกระจายต้นทุน แต่ไม่ใช่ต้นทุนโดยรวม 

สุดท้ายนี้ บางครั้งโซลูชันความปลอดภัยที่ขับเคลื่อนด้วย AI อัตโนมัติเต็มรูปแบบก็ถูกมองว่าเป็นเป้าหมายที่ต้องการ ในความเป็นจริง มันเป็นความฝันพายในท้องฟ้าที่ทำให้เกิดคำถามเกี่ยวกับความไว้วางใจและการตรวจสอบได้ จะเกิดอะไรขึ้นหากระบบอัตโนมัตินั้นทำงานผิดปกติหรือถูกบุกรุก? คุณจะตรวจสอบได้อย่างไรว่าผลลัพธ์ยังคงสอดคล้องกับวัตถุประสงค์ทางธุรกิจ? ความจริงก็คือเราอยู่ในช่วงเริ่มต้นของกระบวนทัศน์อัตโนมัติ AI ใหม่นี้ และไม่มีใครเข้าใจอย่างแท้จริงว่าระบบอัตโนมัติของ AI อาจถูกนำมาใช้ประโยชน์ในมุมมองด้านความปลอดภัยในสักวันหนึ่งได้อย่างไร AI และระบบอัตโนมัติไม่ใช่สิ่งเล็กๆ น้อยๆ (ไม่มีอะไรที่เป็นอยู่)

กระบวนการบางอย่างเหมาะสมกับระบบอัตโนมัติมากกว่ากระบวนการอื่นๆ ต่อไปนี้เป็นการประเมินสามจุดที่ดีที่สามารถช่วยคุณตัดสินใจว่ากระบวนการรักษาความปลอดภัยเหมาะสำหรับระบบอัตโนมัติหรือไม่:

  • กระบวนการนี้ซ้ำซากและใช้เวลานานเมื่อดำเนินการด้วยตนเอง 
  • กระบวนการนี้ได้รับการกำหนดไว้อย่างดีเพียงพอจนสามารถเปลี่ยนเป็นอัลกอริทึมได้
  • ผลลัพธ์ของกระบวนการสามารถตรวจสอบได้ ดังนั้นมนุษย์จึงสามารถระบุได้เมื่อมีบางอย่างผิดปกติ

คุณไม่ต้องการให้ผู้มีความสามารถด้านความปลอดภัยราคาแพงทำสิ่งต่างๆ เช่น การเทบันทึกความปลอดภัย แก้ไขการกำหนดค่าที่ไม่ถูกต้อง หรือตีความการแจ้งเตือนตัววัดที่กำหนด ด้วยการจัดเตรียมเครื่องมือรักษาความปลอดภัยที่ขับเคลื่อนด้วย AI คุณสามารถเพิ่มการมองเห็น เพิ่มความเข้าใจเกี่ยวกับภัยคุกคามต่างๆ และเร่งการตอบสนองต่อการโจมตีได้ 

ให้พิจารณากว้างๆ ว่าทีมกีฬาอาชีพลงทุนในเทคโนโลยีเพื่อปรับปรุงประสิทธิภาพของนักกีฬาอย่างไร ในทำนองเดียวกัน คุณต้องจัดเตรียมเครื่องมืออัตโนมัติที่จำเป็นให้กับทีมรักษาความปลอดภัยของคุณเพื่อเพิ่มประสิทธิภาพเกม ตัวอย่างเช่น ภัยคุกคามจากวงในถือเป็นความเสี่ยงที่สำคัญ แต่แทบจะเป็นไปไม่ได้เลยที่จะดูแลผู้ใช้ทุกคนในบริษัท และพนักงานที่หลอกลวงมักจะเห็นได้ก็ต่อเมื่อพวกเขาได้ก่อให้เกิดความเสียหายอย่างน้อยบางส่วนแล้วเท่านั้น โซลูชันที่ใช้ AI สามารถมีประสิทธิภาพมากขึ้นในการลดความเสี่ยงนี้: โซลูชันการตรวจจับความผิดปกติของพฤติกรรมผู้ใช้และเอนทิตี (UEBA) สามารถตรวจพบการเปลี่ยนแปลงเล็กน้อยในรูปแบบการเข้าถึงข้อมูลของผู้ใช้ และความแตกต่างระหว่างพฤติกรรมของพวกเขาเมื่อเทียบกับเพื่อนร่วมงาน ซึ่งทั้งสองอย่างนี้ส่งสัญญาณ ความเสี่ยงที่อาจเกิดขึ้นซึ่งต้องมีการตรวจสอบโดยทันที 

อีกด้านที่ AI สามารถนำความสามารถของทีมของคุณไปสู่ระดับใหม่คือการตามล่าภัยคุกคาม โซลูชันอัตโนมัติสามารถระบุร่องรอยการโจมตีที่อาจขัดขวางโดยกลไกการป้องกันของคุณได้แม่นยำยิ่งขึ้น และเปรียบเทียบกับข้อมูลภัยคุกคามของคุณ สิ่งเหล่านี้อาจเป็นสัญญาณของการโจมตีที่ใหญ่กว่า และคุณสามารถเตรียมพร้อมรับมือได้ดีขึ้น 

ChatGPT, Bard และแอพใหม่ที่น่าทึ่งอื่นๆ นับพันเปิดโอกาสให้ผู้บริหารได้สัมผัสประสบการณ์จริงของ AI เมื่อทำงานร่วมกับทีมรักษาความปลอดภัย พวกเขาสามารถสำรวจแอปพลิเคชันที่เป็นไปได้สำหรับเทคโนโลยีนี้ แต่แทนที่จะพุ่งไปข้างหน้าอย่างไร้สติ การประเมินอย่างละเอียดว่ากระบวนการใดที่เหมาะสมต่อการทำให้เป็นอัตโนมัติจึงเป็นสิ่งสำคัญ การตรวจสอบสถานะนี้จะช่วยให้ผู้นำด้านไอทีมั่นใจได้ว่าความเสี่ยงของเทคโนโลยีใหม่ที่นำเสนอนั้นไม่เกินผลประโยชน์ของมัน
 
 

อิเลีย ซอตนิคอฟ เป็นนักยุทธศาสตร์ด้านความปลอดภัยและรองประธานฝ่ายประสบการณ์ผู้ใช้ของ Netwrix เขารับผิดชอบด้านการเปิดใช้งานด้านเทคนิค การออกแบบ UX ตลอดจนวิสัยทัศน์และกลยุทธ์ของผลิตภัณฑ์

ประทับเวลา:

เพิ่มเติมจาก KD นักเก็ต