หัวหน้า Pentagon AI แสวงหา 'ความมั่นใจที่สมเหตุสมผล' เพื่อนำเทคโนโลยีเข้าสู่การต่อสู้

หัวหน้า Pentagon AI แสวงหา 'ความมั่นใจที่สมเหตุสมผล' เพื่อนำเทคโนโลยีเข้าสู่การต่อสู้

โหนดต้นทาง: 2975340

Craig Martell หัวหน้าเจ้าหน้าที่ด้านดิจิทัลและปัญญาประดิษฐ์ของกระทรวงกลาโหมกล่าวว่าเขารู้สึกตื่นตระหนกกับศักยภาพของระบบปัญญาประดิษฐ์แบบกำเนิดเช่น ChatGPT ที่จะหลอกลวงและหว่านข้อมูลที่บิดเบือน การพูดคุยของเขาเกี่ยวกับเทคโนโลยีที่งานประชุมแฮ็กเกอร์ DefCon ในเดือนสิงหาคมได้รับความนิยมอย่างมาก แต่เขาไม่ชอบ AI ที่เชื่อถือได้

Martell ไม่ใช่ทหารแต่เป็นนักวิทยาศาสตร์ข้อมูล เป็นหัวหน้าการเรียนรู้ของเครื่องที่บริษัทต่างๆ เช่น LinkedIn, Dropbox และ Lyft ก่อนที่จะเข้ารับตำแหน่งเมื่อปีที่แล้ว

การรวบรวมข้อมูลของกองทัพสหรัฐฯ และการกำหนดว่า AI ใดเชื่อถือได้เพียงพอที่จะนำไปใช้ในการรบถือเป็นความท้าทายที่ยิ่งใหญ่ในโลกที่ไม่มั่นคงมากขึ้นเรื่อยๆ ซึ่งหลายประเทศกำลังแข่งขันกันเพื่อพัฒนาอาวุธอัตโนมัติที่เป็นอันตรายถึงชีวิต

บทสัมภาษณ์ได้รับการแก้ไขเพื่อความยาวและความชัดเจน

-

ถาม: ภารกิจหลักของคุณคืออะไร?

ตอบ: งานของเราคือขยายความได้เปรียบในการตัดสินใจจากห้องประชุมไปสู่สนามรบ ฉันไม่เห็นว่ามันเป็นหน้าที่ของเราในการจัดการภารกิจบางภารกิจ แต่เป็นการพัฒนาเครื่องมือ กระบวนการ โครงสร้างพื้นฐาน และนโยบายที่ช่วยให้แผนกโดยรวมสามารถขยายขนาดได้

ถาม: เป้าหมายคือการครอบงำข้อมูลระดับโลกใช่หรือไม่ คุณต้องการอะไรจึงจะประสบความสำเร็จ?

ตอบ: ในที่สุดเราก็เข้าสู่สงครามที่เน้นเครือข่ายเป็นศูนย์กลาง — วิธีรับข้อมูลที่ถูกต้องไปยังสถานที่ที่ถูกต้องในเวลาที่เหมาะสม ความต้องการมีลำดับชั้น: ข้อมูลคุณภาพอยู่ด้านล่าง การวิเคราะห์และตัวชี้วัดอยู่ตรงกลาง และ AI อยู่ด้านบน เพื่อให้สิ่งนี้ได้ผล สิ่งที่สำคัญที่สุดคือข้อมูลคุณภาพสูง

ถาม: เราควรคิดอย่างไรเกี่ยวกับการใช้ AI ในการใช้งานทางการทหาร

ตอบ: แท้จริงแล้ว AI ทั้งหมดคือการนับอดีตเพื่อทำนายอนาคต ฉันไม่คิดว่าคลื่นลูกใหม่ของ AI จะแตกต่างกันออกไป

จีน, ยูเครน

ถาม: จีนเป็นผู้ชนะการแข่งขันด้านอาวุธของ AI หรือไม่

ตอบ: ฉันพบว่าคำอุปมานี้มีข้อบกพร่องบ้าง เมื่อเรามีการแข่งขันด้านอาวุธนิวเคลียร์ มันเป็นเทคโนโลยีเสาหิน เอไอไม่ใช่แบบนั้น ไม่ใช่กล่องแพนโดร่าด้วย เป็นชุดของเทคโนโลยีที่เรานำไปใช้เป็นกรณีๆ ไป โดยจะตรวจสอบเชิงประจักษ์ว่ามีประสิทธิภาพหรือไม่

ถาม: กองทัพสหรัฐฯ ใช้เทคโนโลยี AI เพื่อช่วยเหลือยูเครน คุณช่วยยังไงบ้าง?

ตอบ: ทีมของเราจะไม่เกี่ยวข้องกับยูเครน นอกจากจะช่วยสร้างฐานข้อมูลว่าพันธมิตรให้ความช่วยเหลืออย่างไร มันชื่อสกายบลู. เราแค่ช่วยให้แน่ใจว่าจะมีการจัดระเบียบ

ถาม: มีการถกเถียงกันมากมายเกี่ยวกับอาวุธทำลายล้างอัตโนมัติ เช่น โดรนโจมตี ฉันทามติคือมนุษย์จะถูกลดบทบาทลงเหลือเพียงบทบาทกำกับดูแลในท้ายที่สุด นั่นคือสามารถยกเลิกภารกิจได้ แต่ส่วนใหญ่จะไม่เข้าไปยุ่งเกี่ยวกับเรื่องนี้ เสียงใช่มั้ย?

ตอบ: ในกองทัพเราฝึกด้วยเทคโนโลยีจนกว่าเราจะพัฒนาความมั่นใจที่สมเหตุสมผล เราเข้าใจขีดจำกัดของระบบ รู้ว่าเมื่อใดจะทำงานและเมื่อใดอาจไม่ทำงาน แผนที่นี้กับระบบอัตโนมัติได้อย่างไร? เอารถของฉันไป ฉันเชื่อใจระบบครูซคอนโทรลแบบปรับได้กับมัน เทคโนโลยีที่ควรป้องกันไม่ให้เปลี่ยนเลนนั้นแย่มาก ดังนั้นฉันจึงไม่มั่นใจในระบบนั้นและอย่าใช้มัน อนุมานเรื่องนี้กับกองทัพ

'นักบินผู้ภักดี'

ถาม: โครงการ "นักบินผู้ภักดี" ของกองทัพอากาศที่กำลังพัฒนาจะมีโดรนบินควบคู่กับเครื่องบินรบที่บินโดยมนุษย์ คอมพิวเตอร์วิทัศน์ดีพอที่จะแยกแยะมิตรจากศัตรูได้หรือไม่?

ตอบ: คอมพิวเตอร์วิทัศน์มีความก้าวหน้าอย่างน่าทึ่งในช่วง 10 ปีที่ผ่านมา จะมีประโยชน์ในสถานการณ์เฉพาะหรือไม่นั้นเป็นคำถามเชิงประจักษ์ เราจำเป็นต้องกำหนดความแม่นยำที่เรายินดียอมรับสำหรับกรณีการใช้งานและสร้างตามเกณฑ์นั้น – และทดสอบ ดังนั้นเราจึงไม่สามารถสรุปได้ ฉันอยากให้เราหยุดพูดถึงเทคโนโลยีในฐานะเสาหิน แล้วพูดถึงความสามารถที่เราต้องการแทน

ถาม: ขณะนี้คุณกำลังศึกษาโมเดล AI เชิงสร้างสรรค์และภาษาขนาดใหญ่ เมื่อใดจึงจะสามารถนำไปใช้ในกระทรวงกลาโหม?

ตอบ: โมเดลภาษาขนาดใหญ่เชิงพาณิชย์ไม่ได้ถูกจำกัดให้บอกความจริงอย่างแน่นอน ดังนั้นฉันจึงไม่เชื่อ อย่างไรก็ตาม เรากำลังศึกษากรณีการใช้งานมากกว่า 160 กรณีผ่าน Task Force Lima (เปิดตัวในเดือนสิงหาคม) เราต้องการตัดสินใจว่าอะไรมีความเสี่ยงต่ำและปลอดภัย ฉันไม่ได้กำหนดนโยบายอย่างเป็นทางการที่นี่ แต่เรามาตั้งสมมติฐานกันดีกว่า

ความเสี่ยงต่ำอาจเป็นเหมือนกับการสร้างฉบับร่างครั้งแรกด้วยการเขียนหรือโค้ดคอมพิวเตอร์ ในกรณีเช่นนี้ มนุษย์จะต้องแก้ไข หรือคอมไพล์ในกรณีของซอฟต์แวร์ นอกจากนี้ยังอาจใช้สำหรับการดึงข้อมูล โดยที่สามารถตรวจสอบข้อเท็จจริงเพื่อให้แน่ใจว่าถูกต้อง

ถาม: ความท้าทายครั้งใหญ่ของ AI คือการจ้างและรักษาผู้มีความสามารถที่จำเป็นในการทดสอบและประเมินระบบและติดป้ายกำกับข้อมูล นักวิทยาศาสตร์ด้านข้อมูล AI มีรายได้มากกว่าที่เพนตากอนจ่ายตามปกติ ปัญหานี้ใหญ่ขนาดไหน?

ตอบ: นั่นเป็นหนอนกระป๋องขนาดใหญ่ เราเพิ่งสร้างสำนักงานบริหารจัดการผู้มีความสามารถด้านดิจิทัล และกำลังคิดอย่างหนักเกี่ยวกับวิธีการเติมเต็มบทบาทงานใหม่ทั้งหมด เช่น เราจำเป็นต้องจ้างคนที่อยากอยู่ในกระทรวงกลาโหมสัก 20-30 ปี จริงหรือ? อาจจะไม่.

แต่จะเป็นอย่างไรถ้าเราซื้อพวกมันได้สักสามหรือสี่อันล่ะ? จะเป็นอย่างไรถ้าเราจ่ายเงินค่าเล่าเรียนให้พวกเขา แล้วพวกเขาก็จ่ายคืนให้เราภายในสามหรือสี่ปี แล้วออกไปใช้ประสบการณ์นั้นและได้รับการว่าจ้างจาก Silicon Valley? เรากำลังคิดอย่างสร้างสรรค์เช่นนี้ ตัวอย่างเช่น เราสามารถเป็นส่วนหนึ่งของท่อส่งความหลากหลายได้หรือไม่? รับสมัครที่ HBCUs (วิทยาลัยและมหาวิทยาลัยผิวดำในอดีต) หรือไม่?

ประทับเวลา:

เพิ่มเติมจาก ข่าวกลาโหมเพนตากอน