Liệu năm 2023 có phải là năm của những vụ tấn công sâu làm mất thông tin do các quốc gia bất hảo dàn dựng?

Liệu năm 2023 có phải là năm của những vụ tấn công sâu làm mất thông tin do các quốc gia bất hảo dàn dựng?

Nút nguồn: 1906346

Các đối thủ nước ngoài dự kiến ​​​​sẽ sử dụng thuật toán AI để tạo ra các tác phẩm sâu ngày càng thực tế và gieo rắc thông tin sai lệch như một phần của hoạt động quân sự và tình báo khi công nghệ được cải thiện.

Deepfakes mô tả một loại nội dung được tạo ra bởi các mô hình học máy có khả năng dán khuôn mặt của ai đó lên cơ thể của người khác một cách thực tế. Chúng có thể ở dạng hình ảnh hoặc video và được thiết kế để khiến mọi người tin rằng ai đó đã nói hoặc làm điều gì đó mà họ không hề làm. Công nghệ này thường được sử dụng để tạo ra các video khiêu dâm sai sự thật về những người nổi tiếng là nữ.

Tuy nhiên, khi công nghệ tiến bộ, các phương tiện truyền thông tổng hợp cũng đã được sử dụng để truyền bá thông tin sai lệch nhằm thúc đẩy xung đột chính trị. Chẳng hạn, một đoạn video về Tổng thống Ukraine Volodymyr Zelensky kêu gọi binh lính hạ vũ khí và đầu hàng chẳng hạn, đã xuất hiện ngay sau khi Nga xâm chiếm nước này vào năm ngoái. 

Zelensky phủ nhận ông đã nói những điều như vậy trong một video đăng trên Facebook. Các công ty truyền thông xã hội đã xóa các video này nhằm ngăn chặn thông tin sai lệch lan truyền.

Nhưng những nỗ lực tạo ra deepfake sẽ tiếp tục gia tăng từ các quốc gia thù địch, theo Các nhà nghiên cứu chính sách đối ngoại và AI từ Đại học Northwestern và Viện Brookings ở Mỹ.

Một nhóm các nhà khoa học máy tính từ Đại học Northwestern trước đây đã phát triển thuật toán Giảm khủng bố bằng trí tuệ nhân tạo Deepfakes (TREAD) thể hiện một video giả có hình ảnh tên khủng bố ISIS đã chết Mohammed al Adnani. 

“Sự dễ dàng mà deepfake có thể được phát triển cho các cá nhân và mục tiêu cụ thể, cũng như sự chuyển động nhanh chóng của họ – gần đây nhất là thông qua một dạng AI được gọi là khuếch tán ổn định – hướng tới một thế giới trong đó tất cả các chủ thể quốc gia và phi quốc gia sẽ có khả năng triển khai deepfake trong các hoạt động an ninh và tình báo của họ,” tác giả của báo cáo nói. “Các quan chức an ninh và các nhà hoạch định chính sách sẽ cần phải chuẩn bị cho phù hợp.”

Các mô hình phổ biến ổn định hiện hỗ trợ các mô hình chuyển văn bản thành hình ảnh, tạo ra hình ảnh giả được người dùng mô tả trong văn bản. Chúng hiện đang được điều chỉnh để giả mạo các video sai sự thật và đang tạo ra nội dung ngày càng thực tế và thuyết phục. Theo báo cáo, các đối thủ nước ngoài chắc chắn sẽ sử dụng công nghệ này để thực hiện các chiến dịch thông tin sai lệch, truyền bá tin tức giả mạo nhằm gieo rắc sự nhầm lẫn, tuyên truyền và làm suy yếu lòng tin trên mạng. 

Các nhà nghiên cứu kêu gọi các chính phủ trên thế giới thực hiện các chính sách điều chỉnh việc sử dụng deepfake. VS Subrahmanian, đồng tác giả của báo cáo và là giáo sư khoa học máy tính tại Đại học Northwestern, nói: “Về lâu dài, chúng ta cần một thỏa thuận toàn cầu về việc sử dụng deepfake của các cơ quan quốc phòng và tình báo”. Đăng ký.

“Việc đạt được một thỏa thuận như vậy sẽ rất khó khăn, đặc biệt là từ các quốc gia có quyền phủ quyết. Ngay cả khi đạt được thỏa thuận như vậy, một số quốc gia có thể sẽ phá vỡ nó. Do đó, một thỏa thuận như vậy cần phải bao gồm một cơ chế trừng phạt để răn đe và trừng phạt những người vi phạm.”

Phát triển các công nghệ có khả năng phát hiện deepfake sẽ không đủ để giải quyết vấn đề thông tin sai lệch. Báo cáo cho biết: “Kết quả sẽ là một trò chơi mèo vờn chuột tương tự như trò chơi đã thấy với phần mềm độc hại: Khi các công ty an ninh mạng phát hiện ra một loại phần mềm độc hại mới và phát triển chữ ký để phát hiện nó, các nhà phát triển phần mềm độc hại sẽ thực hiện 'điều chỉnh' để trốn tránh máy dò." . 

“Chu kỳ phát hiện-trốn tránh-phát hiện-trốn tránh diễn ra theo thời gian…Cuối cùng, chúng ta có thể đạt đến điểm cuối nơi việc phát hiện trở nên không khả thi hoặc quá phức tạp về mặt tính toán để thực hiện nhanh chóng và trên quy mô lớn.” ®

Dấu thời gian:

Thêm từ Đăng ký