นักวิจัยสร้าง AI Cyber ​​Defender ที่ตอบสนองต่อผู้โจมตี

นักวิจัยสร้าง AI Cyber ​​Defender ที่ตอบสนองต่อผู้โจมตี

โหนดต้นทาง: 1969877

ระบบปัญญาประดิษฐ์ (AI) ที่สร้างขึ้นใหม่โดยอิงจากการเรียนรู้เชิงลึก (DRL) สามารถตอบสนองต่อผู้โจมตีในสภาพแวดล้อมจำลองและบล็อก 95% ของการโจมตีทางไซเบอร์ก่อนที่จะบานปลาย

นั่นเป็นไปตามที่นักวิจัยจากห้องทดลองแห่งชาติแปซิฟิกตะวันตกเฉียงเหนือของกระทรวงพลังงาน ซึ่งสร้างการจำลองเชิงนามธรรมของความขัดแย้งทางดิจิทัลระหว่างผู้โจมตีและผู้ปกป้องในเครือข่าย และฝึกเครือข่ายประสาท DRL ที่แตกต่างกันสี่เครือข่ายเพื่อเพิ่มผลตอบแทนสูงสุดโดยพิจารณาจากการป้องกันการประนีประนอมและลดการหยุดชะงักของเครือข่าย

ผู้โจมตีจำลองใช้ชุดกลยุทธ์ตาม MITER ATT&CK การจำแนกประเภทของเฟรมเวิร์กเพื่อย้ายจากระยะการเข้าถึงเริ่มต้นและการลาดตระเวนไปยังระยะการโจมตีอื่น ๆ จนกว่าจะบรรลุเป้าหมาย: ระยะผลกระทบและการกรอง

การฝึกอบรมระบบ AI ที่ประสบความสำเร็จในสภาพแวดล้อมการโจมตีแบบง่ายแสดงให้เห็นว่าการตอบสนองเชิงป้องกันต่อการโจมตีแบบเรียลไทม์สามารถจัดการได้ด้วยแบบจำลอง AI กล่าว Samrat Chatterjee นักวิทยาศาสตร์ข้อมูลที่นำเสนอผลงานของทีมในการประชุมประจำปีของสมาคมเพื่อ ความก้าวหน้าของปัญญาประดิษฐ์ในกรุงวอชิงตัน ดีซี เมื่อวันที่ 14 กุมภาพันธ์

“คุณคงไม่อยากเปลี่ยนไปใช้สถาปัตยกรรมที่ซับซ้อนกว่านี้ ถ้าคุณไม่สามารถแสดงเทคนิคเหล่านี้ให้เป็นจริงได้” เขากล่าว “เราต้องการแสดงให้เห็นว่าเราสามารถฝึก DRL ได้สำเร็จและแสดงผลการทดสอบที่ดีก่อนที่จะดำเนินการต่อ”

การประยุกต์ใช้เทคนิคแมชชีนเลิร์นนิงและปัญญาประดิษฐ์กับสาขาต่างๆ ภายในความปลอดภัยทางไซเบอร์ได้กลายเป็นเทรนด์ร้อนแรงในช่วงทศวรรษที่ผ่านมา ตั้งแต่การรวมการเรียนรู้ของเครื่องเข้ากับเกตเวย์ความปลอดภัยอีเมลในช่วงแรกๆ ในช่วงต้น 2010 เพื่อความพยายามล่าสุดที่จะ ใช้ ChatGPT เพื่อวิเคราะห์โค้ด หรือทำการวิเคราะห์ทางนิติวิทยาศาสตร์ ตอนนี้, ผลิตภัณฑ์รักษาความปลอดภัยส่วนใหญ่มี — หรืออ้างว่ามี — คุณลักษณะบางอย่างที่ขับเคลื่อนโดยอัลกอริทึมการเรียนรู้ของเครื่องที่ได้รับการฝึกฝนในชุดข้อมูลขนาดใหญ่

ผู้พิทักษ์ไซเบอร์ที่ขับเคลื่อนด้วย AI ของ PNNL

ขั้นตอนการตัดสินใจของผู้พิทักษ์ไซเบอร์ที่ขับเคลื่อนด้วย AI ของ PNNL ที่มา: DoE PNNL

อย่างไรก็ตาม การสร้างระบบ AI ที่สามารถป้องกันเชิงรุกยังคงเป็นแรงบันดาลใจมากกว่าที่จะนำไปใช้ได้จริง ในขณะที่นักวิจัยยังคงมีอุปสรรคมากมาย แต่การวิจัยของ PNNL แสดงให้เห็นว่าผู้พิทักษ์ AI อาจเป็นไปได้ในอนาคต

“การประเมินอัลกอริธึม DRL หลายชุดที่ได้รับการฝึกฝนภายใต้การตั้งค่าของฝ่ายตรงข้ามที่หลากหลายเป็นขั้นตอนสำคัญสู่โซลูชันการป้องกันทางไซเบอร์แบบอัตโนมัติที่ใช้งานได้จริง” ทีมวิจัย PNNL ระบุไว้ในเอกสารของพวกเขา. “การทดลองของเราชี้ให้เห็นว่าอัลกอริธึม DRL แบบไม่มีโมเดลสามารถฝึกฝนได้อย่างมีประสิทธิภาพภายใต้โปรไฟล์การโจมตีหลายขั้นตอนด้วยทักษะและระดับความคงทนที่แตกต่างกัน ทำให้ได้ผลลัพธ์การป้องกันที่ดีในสภาพแวดล้อมที่มีการแข่งขัน”

ระบบใช้ MITER ATT&CK อย่างไร

เป้าหมายแรกของทีมวิจัยคือการสร้างสภาพแวดล้อมการจำลองแบบกำหนดเองโดยใช้ชุดเครื่องมือโอเพ่นซอร์สที่รู้จักกันในชื่อ เปิด AI ยิม. เมื่อใช้สภาพแวดล้อมดังกล่าว นักวิจัยได้สร้างตัวตนของผู้โจมตีที่มีทักษะและระดับความคงอยู่ที่แตกต่างกัน พร้อมด้วยความสามารถในการใช้ชุดย่อยของ 7 กลยุทธ์และ 15 เทคนิคจากกรอบ MITER ATT&CK

เป้าหมายของเจ้าหน้าที่ผู้โจมตีคือการก้าวผ่านเจ็ดขั้นตอนของห่วงโซ่การโจมตี ตั้งแต่การเข้าถึงเริ่มต้นไปจนถึงการดำเนินการ จากการคงอยู่ไปจนถึงคำสั่งและการควบคุม และจากการรวบรวมไปจนถึงผลกระทบ

Chatterjee จาก PNNL กล่าวว่าสำหรับผู้โจมตี การปรับกลยุทธ์ให้เข้ากับสภาพแวดล้อมและการกระทำในปัจจุบันของผู้ป้องกันอาจมีความซับซ้อน

“ฝ่ายตรงข้ามต้องนำทางจากสถานะการลาดตระเวนเริ่มต้นไปจนถึงสถานะการสกัดกั้นหรือผลกระทบ” เขากล่าว “เราไม่ได้พยายามสร้างแบบจำลองเพื่อหยุดยั้งศัตรูก่อนที่พวกมันจะเข้าสู่สภาพแวดล้อม — เราคิดว่าระบบถูกบุกรุกแล้ว”

นักวิจัยใช้วิธีสี่วิธีในการสร้างโครงข่ายประสาทเทียมโดยอาศัยการเรียนรู้แบบเสริมแรง Reinforcement Learning (RL) เป็นวิธีการเรียนรู้ของเครื่องที่เลียนแบบระบบการให้รางวัลของสมองมนุษย์ โครงข่ายประสาทเทียมเรียนรู้โดยการเพิ่มหรือลดค่าพารามิเตอร์บางอย่างสำหรับเซลล์ประสาทแต่ละตัวเพื่อให้รางวัลแก่โซลูชันที่ดีกว่า โดยวัดจากคะแนนที่บ่งชี้ว่าระบบทำงานได้ดีเพียงใด

Mahantesh Halappanavar นักวิจัยของ PNNL และผู้เขียนบทความกล่าวว่า การเรียนรู้แบบเสริมแรงจะช่วยให้คอมพิวเตอร์สร้างแนวทางที่ดี แต่ไม่สมบูรณ์แบบ

“โดยไม่ต้องใช้การเรียนรู้เสริมแรง เรายังคงทำได้ แต่มันจะเป็นปัญหาใหญ่ที่จะไม่มีเวลาพอที่จะคิดหากลไกที่ดี” เขากล่าว “การวิจัยของเรา … ให้กลไกนี้แก่เราซึ่งการเรียนรู้แบบเสริมแรงในเชิงลึกเป็นการเลียนแบบพฤติกรรมของมนุษย์ในระดับหนึ่ง และสามารถสำรวจพื้นที่อันกว้างใหญ่นี้ได้อย่างมีประสิทธิภาพมาก”

ไม่พร้อมสำหรับไพรม์ไทม์

การทดลองพบว่าวิธีการเรียนรู้แบบเสริมกำลังเฉพาะที่เรียกว่า Deep Q Network ได้สร้างวิธีแก้ปัญหาที่แข็งแกร่งสำหรับปัญหาการป้องกัน จับผู้โจมตีได้ 97% ในชุดข้อมูลการทดสอบ การวิจัยยังเป็นเพียงจุดเริ่มต้นเท่านั้น ผู้เชี่ยวชาญด้านความปลอดภัยไม่ควรมองหาเพื่อน AI เพื่อช่วยพวกเขาในการตอบสนองต่อเหตุการณ์และนิติเวชในเร็ว ๆ นี้

ในบรรดาปัญหามากมายที่ยังคงต้องแก้ไขคือการได้รับการเรียนรู้แบบเสริมแรงและโครงข่ายประสาทเทียมเชิงลึกเพื่ออธิบายปัจจัยที่มีอิทธิพลต่อการตัดสินใจของพวกเขา ซึ่งเป็นงานวิจัยที่เรียกว่าการเรียนรู้การเสริมแรงแบบอธิบายได้ (XRL)

นอกจากนี้ ความแข็งแกร่งของอัลกอริทึม AI และการค้นหาวิธีที่มีประสิทธิภาพในการฝึกอบรมโครงข่ายประสาทเทียมต่างก็เป็นปัญหาที่ต้องแก้ไขเช่นกัน Chatterjee จาก PNNL กล่าว

“การสร้างผลิตภัณฑ์—นั่นไม่ใช่แรงจูงใจหลักสำหรับการวิจัยนี้” เขากล่าว "นี่เป็นเรื่องเกี่ยวกับการทดลองทางวิทยาศาสตร์และการค้นพบอัลกอริทึม"

ประทับเวลา:

เพิ่มเติมจาก การอ่านที่มืด

องค์กร 1 ใน 3 ไม่ให้การฝึกอบรมความปลอดภัยทางไซเบอร์แก่พนักงานระยะไกล แม้ว่าพนักงานส่วนใหญ่สามารถเข้าถึงข้อมูลสำคัญได้

โหนดต้นทาง: 1895512
ประทับเวลา: ม.ค. 12, 2023