พระราชบัญญัติการปรับสมดุล: คุณค่าของความเชี่ยวชาญของมนุษย์ในยุคของ Generative AI - DATAVERSITY

พระราชบัญญัติการปรับสมดุล: คุณค่าของความเชี่ยวชาญของมนุษย์ในยุคของ Generative AI – DATAVERSITY

โหนดต้นทาง: 3052574

มนุษย์ถือเป็นจุดอ่อนที่สุดในองค์กรเมื่อพูดถึงเรื่องความปลอดภัย อย่างถูกต้องเช่นเดียวกับ สูงกว่า 95% ของเหตุการณ์ความปลอดภัยทางไซเบอร์มีสาเหตุมาจากความผิดพลาดของมนุษย์ มนุษย์มีความไม่แน่นอน ผิดพลาด และคาดเดาไม่ได้ ทำให้ตกเป็นเป้าของอาชญากรไซเบอร์ที่ต้องการเข้าถึงระบบขององค์กรได้ง่าย  

สิ่งนี้ทำให้การพึ่งพาเครื่องจักรของเรามีความสำคัญมากขึ้น จนถึงจุดนี้ เราสามารถเชื่อถือเครื่องจักรให้ทำงานด้วยโค้ดตามความจริงได้ แม้ว่าอาจถูกโจมตีผ่านช่องโหว่ในโค้ดหรือผ่านข้อบกพร่องทางสังคมของผู้ปฏิบัติงานที่เป็นมนุษย์ แต่ปัญหามักจะได้รับการแก้ไขด้วยวิธีแก้ปัญหาที่ชัดเจน 

อย่างไรก็ตามด้วยการเพิ่มขึ้นของ AI กำเนิด (GenAI) และ โมเดลภาษาขนาดใหญ่ (LLM) องค์กรต่างๆ กำลังเผชิญกับการโจมตีทางวิศวกรรมสังคมที่หลอกให้ AI ทำสิ่งที่ไม่ได้ตั้งใจจะทำ เมื่อเราถ่ายโอนไปยัง AI มากขึ้น การได้เห็นรูปแบบการโจมตีใหม่ๆ เหล่านี้เกิดขึ้นจึงเป็นเรื่องน่าสนใจ

เมื่อเผชิญกับภาวะที่กลืนไม่เข้าคายไม่ออกนี้ ก็ขึ้นอยู่กับมนุษย์อีกครั้งที่จะนำทางภูมิทัศน์การรักษาความปลอดภัย AI ที่ซับซ้อนและกำลังพัฒนานี้ สิ่งนี้เรียกร้องให้ CISO สื่อสารอย่างชัดเจนถึงประโยชน์และข้อบกพร่องของ AI และตระหนักถึงรายการข้อควรพิจารณาด้านความปลอดภัยอันยาวนานซึ่งเชื่อมโยงกับผลิตภัณฑ์และความสามารถที่ขับเคลื่อนด้วย AI 

การใช้งาน Generative AI อย่างเร่งรีบนำมาซึ่งความท้าทายใหม่ด้านความปลอดภัยทางไซเบอร์

ขั้นแรก ปัญหาทั่วไปเมื่อพูดถึง GenAI และ LLM คือการพึ่งพาเนื้อหาที่สร้างโดย AI มากเกินไป การเชื่อถือเนื้อหาที่สร้างโดย AI โดยไม่ต้องตรวจสอบหรือตรวจสอบสิ่งที่ทำให้เข้าใจผิดหรือข้อมูลที่ผิดโดยปราศจากการป้อนข้อมูลหรือการควบคุมดูแลของมนุษย์ อาจนำไปสู่การเผยแพร่ข้อมูลที่ผิดพลาดซึ่งส่งผลให้มีการตัดสินใจที่ไม่ดี และลดอัตราการคิดอย่างมีวิจารณญาณ เป็นที่ทราบกันว่า LLM มีอาการประสาทหลอน ดังนั้นข้อมูลที่บิดเบือนบางส่วนอาจไม่เป็นผลมาจากเจตนาร้ายด้วยซ้ำ

ในทำนองเดียวกัน จำนวนโค้ดที่ไม่ปลอดภัยซึ่งถูกนำมาใช้ภายหลังวิวัฒนาการของ GenAI ก็จะกลายเป็นความท้าทายที่สำคัญสำหรับ CISO หากไม่ได้คาดการณ์ล่วงหน้า เป็นที่รู้กันว่าเอ็นจิ้น AI เขียนโค้ดบั๊กกี้ที่มีช่องโหว่ด้านความปลอดภัย หากปราศจากการควบคุมดูแลของมนุษย์อย่างเหมาะสม GenAI จะช่วยให้ผู้ที่ไม่มีพื้นฐานทางเทคนิคที่เหมาะสมสามารถจัดส่งโค้ดได้ สิ่งนี้นำไปสู่ความเสี่ยงด้านความปลอดภัยที่เพิ่มขึ้นตลอดวงจรการพัฒนาซอฟต์แวร์สำหรับองค์กรที่ใช้เครื่องมือเหล่านี้อย่างไม่เหมาะสม

การรั่วไหลของข้อมูลเป็นอีกหนึ่งปัญหาที่พบบ่อย ในบางกรณี ผู้โจมตีสามารถใช้การแจ้งข้อมูลเพื่อดึงข้อมูลที่ละเอียดอ่อนที่โมเดล AI ได้เรียนรู้จากผู้ใช้รายอื่น หลายครั้งที่สิ่งนี้อาจไม่เป็นอันตราย แต่การใช้งานที่มุ่งร้ายไม่ได้ถูกห้ามอย่างแน่นอน ผู้ไม่ประสงค์ดีอาจจงใจตรวจสอบเครื่องมือ AI ด้วยการแจ้งเตือนที่สร้างขึ้นอย่างพิถีพิถัน โดยมีเป้าหมายเพื่อดึงข้อมูลที่ละเอียดอ่อนที่เครื่องมือได้จดจำไว้ ซึ่งนำไปสู่การรั่วไหลของข้อมูลที่ละเอียดอ่อนหรือเป็นความลับ

AI อาจเพิ่มช่องว่างด้านความปลอดภัยทางไซเบอร์ แต่มีศักยภาพที่สำคัญในการปิดช่องว่างอื่น ๆ

สุดท้ายนี้ เป็นที่เข้าใจกันว่าการเผยแพร่ GenAI และ LLM จะทำให้พื้นผิวการโจมตีในอุตสาหกรรมของเราลดลงด้วยเหตุผลบางประการ ประการแรก ความสามารถในการสร้างโค้ดด้วย GenAI จะช่วยลดเกณฑ์ว่าใครสามารถเป็นวิศวกรซอฟต์แวร์ได้ ส่งผลให้โค้ดอ่อนแอลงและมาตรฐานความปลอดภัยอ่อนแอลงด้วยซ้ำ ประการที่สอง GenAI ต้องการข้อมูลจำนวนมหาศาล ซึ่งหมายความว่าขนาดและผลกระทบของการละเมิดข้อมูลจะเพิ่มขึ้นอย่างมาก ประการที่สาม เช่นเดียวกับเทคโนโลยีเกิดใหม่ นักพัฒนาอาจไม่ได้ตระหนักดีถึงวิธีการนำไปใช้หรือนำไปใช้ในทางที่ผิด 

อย่างไรก็ตาม การใช้มุมมองที่สมดุลเป็นสิ่งสำคัญ แม้ว่าการอำนวยความสะดวกในการสร้างโค้ดของ Gen AI อาจก่อให้เกิดความกังวล แต่ก็ยังนำคุณลักษณะเชิงบวกมาสู่ภูมิทัศน์ด้านความปลอดภัยทางไซเบอร์ด้วย ตัวอย่างเช่น สามารถระบุช่องโหว่ด้านความปลอดภัย เช่น Cross-Site Scripting (XSS) หรือการแทรก SQL ได้อย่างมีประสิทธิภาพ ลักษณะที่เป็นสองขั้วนี้เน้นย้ำถึงความสำคัญของความเข้าใจที่เหมาะสมยิ่ง แทนที่จะมองว่า AI เป็นอันตรายเพียงอย่างเดียว AI จะเน้นย้ำถึงความสัมพันธ์ที่เสริมกันระหว่างปัญญาประดิษฐ์และการมีส่วนร่วมของมนุษย์ในความปลอดภัยทางไซเบอร์ CISO จะต้องเข้าใจความเสี่ยงที่เกี่ยวข้องของ GenAI และ LLM ในขณะเดียวกันก็สำรวจแนวทางที่คำนึงถึงมนุษย์เป็นศูนย์กลางเพื่อนำ GenAI ไปใช้และเสริมความแข็งแกร่งให้กับองค์กรของตนไปพร้อมๆ กัน

มนุษย์เลือกสิ่งที่ AI ทิ้งไว้เบื้องหลัง

CISO ไม่เพียงแต่ได้รับมอบหมายให้ไขความซับซ้อนของ GenAI เท่านั้น พวกเขาจะต้องปูทางไปข้างหน้าให้กับองค์กรของพวกเขา และแสดงให้เห็นความเป็นผู้นำว่าองค์กรของพวกเขาสามารถเติบโตต่อไปได้อย่างไรในโลกที่ถูกครอบงำโดย GenAI 

แม้ว่าผู้ใช้ปลายทางมักจะรับผิดชอบต่อช่องโหว่ด้านความปลอดภัยมากมาย แต่ไม่มีการป้องกันอาชญากรรมทางไซเบอร์ที่ดีไปกว่ามนุษย์ที่ได้รับการฝึกอบรมมาอย่างดีและคำนึงถึงความปลอดภัย ไม่ว่าองค์กรจะมีเครื่องมือตรวจจับภัยคุกคามแบบใด ก็ไม่มีใครมาแทนที่บุคคลที่อยู่เบื้องหลังหน้าจอเมื่อต้องทดสอบซอฟต์แวร์ได้ 

องค์กรสามารถแซงหน้าอาชญากรไซเบอร์ได้โดยใช้พลังของ การแฮ็กอย่างมีจริยธรรม แม้ว่าบางคนลังเลที่จะเชิญแฮกเกอร์เข้ามาในเครือข่ายของตนเนื่องจากความเข้าใจผิดที่ล้าสมัย ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ที่ปฏิบัติตามกฎหมายเหล่านี้คือคู่ต่อสู้ที่ยิ่งใหญ่ที่สุดในการรับมือกับผู้ไม่ประสงค์ดี เพราะพวกเขาสามารถเข้าไปอยู่ในหัวของผู้โจมตีทางไซเบอร์ได้ ซึ่งต่างจาก AI ตรงที่

ในความเป็นจริงแฮกเกอร์กำลังเสริมเครื่องมืออัตโนมัติในการต่อสู้กับอาชญากรไซเบอร์อยู่แล้ว 92% จาก แฮกเกอร์ที่มีจริยธรรม บอกว่าพวกเขาสามารถค้นหาช่องโหว่ที่สแกนเนอร์ไม่สามารถทำได้ ด้วยการดึงม่านการแฮ็กให้ดีออกไป ผู้นำธุรกิจสามารถรับการแฮ็กอย่างมีจริยธรรมและการสนับสนุนของมนุษย์ เพื่อสร้างสมดุลที่มีประสิทธิภาพมากขึ้นระหว่าง AI และผู้เชี่ยวชาญที่เป็นมนุษย์ในการต่อสู้กับอาชญากรรมทางไซเบอร์สมัยใหม่ ล่าสุดของเรา รายงานความปลอดภัยที่ขับเคลื่อนโดยแฮ็กเกอร์ เน้นย้ำสิ่งนี้ โดยลูกค้าของเรา 91% กล่าวว่าแฮกเกอร์จัดทำรายงานช่องโหว่ที่ทรงประสิทธิภาพและมีคุณค่ามากกว่า AI หรือโซลูชันการสแกน ในขณะที่ AI ยังคงกำหนดอนาคตของเรา ชุมชนแฮ็กเกอร์ที่มีจริยธรรมจะยังคงมุ่งมั่นที่จะรับประกันการบูรณาการที่ปลอดภัย

การผสมผสานระหว่างระบบอัตโนมัติกับเครือข่ายแฮ็กเกอร์ที่มีทักษะสูงทำให้บริษัทต่างๆ สามารถระบุข้อบกพร่องที่สำคัญของแอปพลิเคชันได้ก่อนที่จะถูกนำไปใช้ประโยชน์ เมื่อองค์กรผสมผสานเครื่องมือรักษาความปลอดภัยแบบอัตโนมัติเข้ากับการแฮ็กอย่างมีจริยธรรมได้อย่างมีประสิทธิภาพ องค์กรต่างๆ จะปิดช่องว่างในการโจมตีทางดิจิทัลที่พัฒนาอยู่ตลอดเวลา 

เนื่องจากมนุษย์และ AI สามารถทำงานร่วมกันเพื่อปรับปรุงประสิทธิภาพการทำงานของทีมรักษาความปลอดภัย: 

  1. การสำรวจพื้นผิวการโจมตี: องค์กรยุคใหม่สามารถขยายโครงสร้างพื้นฐานด้านไอทีที่กว้างขวางและซับซ้อน ซึ่งประกอบด้วยฮาร์ดแวร์และซอฟต์แวร์ทั้งที่ได้รับอนุญาตและไม่ได้รับอนุญาต การพัฒนาดัชนีสินทรัพย์ไอทีแบบครบวงจร เช่น ซอฟต์แวร์และฮาร์ดแวร์ เป็นสิ่งสำคัญในการลดความเสี่ยง ปรับปรุงการจัดการแพตช์ และช่วยให้ปฏิบัติตามข้อกำหนดของอุตสาหกรรม นอกจากนี้ยังช่วยระบุและวิเคราะห์จุดที่ผู้โจมตีอาจกำหนดเป้าหมายไปที่องค์กร
  2. การประเมินอย่างต่อเนื่อง: องค์กรต่างๆ ก้าวไปไกลกว่าการรักษาความปลอดภัย ณ เวลานั้น โดยสามารถผสมผสานความฉลาดของผู้เชี่ยวชาญด้านความปลอดภัยของมนุษย์เข้ากับข้อมูลเชิงลึกด้านการโจมตีแบบเรียลไทม์ เพื่อให้เกิดการทดสอบภูมิทัศน์ทางดิจิทัลอย่างต่อเนื่อง การทดสอบการเจาะระบบอย่างต่อเนื่องช่วยให้ทีมไอทีสามารถดูผลลัพธ์ของการจำลองอย่างต่อเนื่องซึ่งแสดงให้เห็นว่าการละเมิดจะมีลักษณะอย่างไรในสภาพแวดล้อมปัจจุบันและจุดอ่อนที่อาจเกิดขึ้นซึ่งทีมสามารถปรับตัวได้แบบเรียลไทม์
  3. การปรับปรุงกระบวนการ: แฮกเกอร์ที่เป็นมนุษย์ที่เชื่อถือได้สามารถมอบข้อมูลที่มีค่าเกี่ยวกับช่องโหว่และทรัพย์สินให้กับทีมรักษาความปลอดภัยเพื่อช่วยปรับปรุงกระบวนการ

สรุป

เนื่องจาก Generative AI ยังคงพัฒนาไปอย่างรวดเร็ว CISO จึงต้องใช้ประโยชน์จากความเข้าใจว่ามนุษย์สามารถทำงานร่วมกันเพื่อเพิ่มความปลอดภัยให้กับ AI ได้อย่างไร และได้รับการสนับสนุนจากคณะกรรมการและทีมผู้นำ เป็นผลให้องค์กรต่างๆ สามารถมีบุคลากรและทรัพยากรที่เพียงพอเพื่อรับมือกับความท้าทายเหล่านี้ได้อย่างมีประสิทธิภาพ การสร้างสมดุลที่เหมาะสมระหว่างการใช้งาน AI ที่รวดเร็วและการรักษาความปลอดภัยที่ครอบคลุมผ่านความร่วมมือกับแฮกเกอร์ที่มีจริยธรรม ช่วยเพิ่มข้อโต้แย้งในการลงทุนในโซลูชันที่ขับเคลื่อนด้วย AI ที่เหมาะสม

ประทับเวลา:

เพิ่มเติมจาก ข้อมูล