'Adversarial AI' là mối đe dọa đối với các hệ thống quân sự, Shift5′s Lospinoso nói

'Adversarial AI' là mối đe dọa đối với các hệ thống quân sự, Shift5′s Lospinoso nói

Nút nguồn: 2685907

Công ty khởi nghiệp an ninh mạng đầu tiên của Josh Lospinoso đã được Raytheon/Forcepoint mua lại vào năm 2017. Thứ hai của anh ấy, Shift5, làm việc với quân đội Hoa Kỳ, các nhà khai thác đường sắt và các hãng hàng không bao gồm cả JetBlue. Tốt nghiệp West Point năm 2009 và được học bổng Rhodes, cựu đội trưởng quân đội 36 tuổi đã dành hơn một thập kỷ soạn thảo công cụ hack cho Cơ quan An ninh Quốc gia và Bộ Tư lệnh Mạng Hoa Kỳ.

Lospinoso gần đây đã nói với một tiểu ban Dịch vụ Vũ trang của Thượng viện về cách trí tuệ nhân tạo có thể giúp bảo vệ các hoạt động quân sự. Giám đốc điều hành/lập trình viên đã thảo luận về chủ đề này với Associated Press cũng như cách các lỗ hổng phần mềm trong hệ thống vũ khí là mối đe dọa lớn đối với quân đội Hoa Kỳ. Cuộc phỏng vấn đã được chỉnh sửa cho rõ ràng và dài.

H: Trong lời khai của mình, bạn đã mô tả hai mối đe dọa chính đối với các công nghệ hỗ trợ AI: Một là hành vi trộm cắp. Đó là tự giải thích. Cái khác là ngộ độc dữ liệu. Bạn có thể giải thích điều đó không?

Trả lời: Một cách để nghĩ về việc đầu độc dữ liệu là thông tin sai lệch kỹ thuật số. Nếu các đối thủ có thể tạo ra dữ liệu mà các công nghệ hỗ trợ AI nhìn thấy, thì chúng có thể tác động sâu sắc đến cách thức hoạt động của công nghệ đó.

Hỏi: Liệu có xảy ra tình trạng ngộ độc dữ liệu không?

A: Chúng tôi không nhìn thấy nó một cách rộng rãi. Nhưng nó đã xảy ra. Một trong những trường hợp nổi tiếng nhất đã xảy ra vào năm 2016. Microsoft đã phát hành một chatbot trên Twitter có tên là Tay, đã học được từ các cuộc trò chuyện trực tuyến. Những người dùng ác ý đã âm mưu tweet những ngôn ngữ xúc phạm, lăng mạ nó. Tay bắt đầu tạo ra nội dung kích động. Microsoft đã đưa nó vào chế độ ngoại tuyến.

Q: AI không chỉ là chatbot. Nó từ lâu đã không thể thiếu đối với an ninh mạng, phải không?

Trả lời: Trí tuệ nhân tạo được sử dụng trong các bộ lọc email để cố gắng gắn cờ và tách biệt thư rác và các chiêu dụ lừa đảo. Một ví dụ khác là điểm cuối, chẳng hạn như chương trình chống vi-rút trên máy tính xách tay của bạn – hoặc phần mềm phát hiện phần mềm độc hại chạy trên mạng. Tất nhiên, tin tặc tấn công cũng sử dụng AI để thử đánh bại các hệ thống phân loại đó. Đó gọi là AI nghịch cảnh.

Hỏi: Hãy nói về hệ thống phần mềm quân sự. Một năm 2018 đáng báo động Báo cáo của Văn phòng Trách nhiệm Chính phủ cho biết gần như tất cả các hệ thống vũ khí mới được phát triển đều có các lỗ hổng nghiêm trọng. Và Lầu Năm Góc đang nghĩ đến việc đưa AI vào những hệ thống như vậy?

Đáp: Có hai vấn đề ở đây. Đầu tiên, chúng ta cần đảm bảo đầy đủ các hệ thống vũ khí hiện có. Đây là một khoản nợ kỹ thuật mà chúng tôi mắc phải và sẽ mất rất nhiều thời gian để trả. Sau đó, có một biên giới mới để bảo mật các thuật toán AI – những thứ mới lạ mà chúng tôi sẽ cài đặt. Báo cáo của GAO không thực sự nói về AI. Vì vậy, hãy quên AI trong một giây. Nếu các hệ thống này vẫn giữ nguyên như hiện tại, thì chúng vẫn rất dễ bị tổn thương.

Chúng tôi đang thảo luận về việc thúc đẩy giới hạn và bổ sung các khả năng hỗ trợ AI cho những thứ như cải thiện khả năng bảo trì và hoạt động thông minh. Tất cả đều tuyệt vời. Nhưng chúng tôi đang xây dựng trên một ngôi nhà bằng thẻ. Nhiều hệ thống đã có tuổi đời hàng thập kỷ, được trang bị thêm các công nghệ kỹ thuật số. Máy bay, phương tiện mặt đất, tài sản không gian, tàu ngầm. Bây giờ chúng được kết nối với nhau. Chúng tôi đang trao đổi dữ liệu vào và ra. Các hệ thống xốp, khó nâng cấp và có thể bị tấn công. Khi kẻ tấn công giành được quyền truy cập, trò chơi sẽ kết thúc.

Đôi khi, việc xây dựng một nền tảng mới dễ dàng hơn là thiết kế lại các thành phần kỹ thuật số của hệ thống hiện có. Nhưng có một vai trò đối với AI trong việc bảo mật các hệ thống này. AI có thể được sử dụng để phòng thủ nếu ai đó cố gắng xâm phạm chúng.

Hỏi: Ông đã làm chứng rằng việc tạm dừng nghiên cứu AI, như một số người đã thúc giục, sẽ là một ý tưởng tồi vì nó sẽ có lợi cho Trung Quốc và các đối thủ cạnh tranh khác. Nhưng bạn cũng có những lo ngại về việc đổ xô quá nhanh vào các sản phẩm AI. Tại sao?

A: Tôi ghét nghe có vẻ thuyết định mệnh, nhưng cái gọi là trường hợp “sử dụng đốt” dường như được áp dụng. Một sản phẩm tung ra thị trường thường bắt lửa (bị hack, lỗi, hư hỏng ngoài ý muốn). Và chúng tôi nói, 'Chàng trai, lẽ ra chúng ta nên xây dựng hệ thống an ninh.' Tôi hy vọng tốc độ phát triển AI sẽ tăng nhanh và chúng tôi có thể không tạm dừng đủ để thực hiện việc này một cách an toàn và có trách nhiệm. Ít nhất Nhà Trắng và Quốc hội đang thảo luận về những vấn đề này.

H: Có vẻ như rất nhiều công ty – kể cả trong lĩnh vực quốc phòng – đang gấp rút công bố các sản phẩm AI nửa vời.

Trả lời: Mọi công ty công nghệ và nhiều công ty phi công nghệ gần như đã tạo ra một sự xoay trục chói tai đối với AI. Sự xáo trộn kinh tế đang đến. Các mô hình kinh doanh về cơ bản sẽ thay đổi. Sự xáo trộn đã xảy ra hoặc sắp xảy ra — và các nhà lãnh đạo doanh nghiệp đang cố gắng để không bị bắt quả tang.

H: Còn việc sử dụng AI trong việc ra quyết định quân sự, chẳng hạn như xác định mục tiêu thì sao?

Trả lời: Tôi không, hoàn toàn không nghĩ rằng các thuật toán trí tuệ nhân tạo — dữ liệu mà chúng tôi đang thu thập — đã sẵn sàng cho thời điểm quan trọng nhất để một hệ thống vũ khí sát thương đưa ra quyết định. Chúng tôi chỉ là rất xa từ đó.

Dấu thời gian:

Thêm từ Tin tức quốc phòng