Chống AI với Giám sát gian lận AI cho các ứng dụng Deepfake - KDnuggets

Chống AI với Giám sát gian lận AI cho các ứng dụng Deepfake – KDnuggets

Nút nguồn: 2667255
Chống lại AI với Giám sát gian lận AI cho các ứng dụng Deepfake
Photo by Tima Miroshnichenko
 

Deepfakes đã trở thành một chủ đề thảo luận lớn trong cộng đồng khoa học dữ liệu trong vài năm nay. Trở lại năm 2020, MIT Technology Review cho rằng giả mạo sâu sắc đã đạt đến "điểm tới hạn để sử dụng chính thống".

Dữ liệu chắc chắn ủng hộ điều đó. Các Wall Street Journal đã báo cáo rằng chưa đến 10,000 deepfakes đã được tìm thấy trực tuyến vào năm 2018. Những con số đó hiện đã lên tới hàng triệu và có rất nhiều ví dụ thực tế về deep fakes được sử dụng để gây nhầm lẫn, cung cấp thông tin sai lệch và để duy trì gian lận tài chính. 

Các kỹ thuật deepfake hoàn toàn cung cấp cho tội phạm mạng nhiều tùy chọn tinh vi.

Họ vượt xa khả năng chèn hình ảnh của một người nổi tiếng vào tài liệu quảng cáo cho một ưu đãi Bitcoin “không thể chấp nhận được”, mà – tất nhiên – hóa ra lại là một trò lừa đảo. Đặc biệt, các video Deepfake nằm trong tầm ngắm của những kẻ lừa đảo. Họ cung cấp cho họ một cách để vượt qua kiểm tra ID và KYC tự động và đã chứng minh hiệu quả đáng sợ.

Trong tháng năm 2022, The Verge báo cáo rằng "kiểm tra sức sống” được sử dụng bởi các ngân hàng và các tổ chức khác để giúp xác minh danh tính của người dùng có thể dễ dàng bị đánh lừa bởi các giả mạo sâu. Nghiên cứu liên quan cho thấy 90% hệ thống xác minh ID được thử nghiệm đều dễ bị tấn công.

Vậy câu trả lời là gì? Có phải chúng ta đang bước vào kỷ nguyên mà tội phạm mạng có thể dễ dàng sử dụng công nghệ giả mạo sâu để đánh lừa các biện pháp bảo mật được sử dụng bởi các tổ chức tài chính? Liệu những doanh nghiệp như vậy có phải từ bỏ các hệ thống tự động của họ và chuyển sang kiểm tra thủ công, do con người thực hiện không?

Câu trả lời đơn giản là “có lẽ là không”. Giống như tội phạm có thể tận dụng sự gia tăng trong tiến bộ AI, các công ty mà họ nhắm mục tiêu cũng vậy. Bây giờ chúng ta hãy xem các doanh nghiệp dễ bị tổn thương có thể chống lại AI bằng AI như thế nào.

Deepfakes được sản xuất bằng một loạt các kỹ thuật trí tuệ nhân tạo, chẳng hạn như:

  • mạng đối thủ chung (GAN) 
  • cặp mã hóa/giải mã
  • mô hình chuyển động bậc nhất

Nhìn bề ngoài, những kỹ thuật này có vẻ giống như sự bảo tồn độc quyền của cộng đồng máy học, hoàn chỉnh với các rào cản gia nhập cao và nhu cầu về kiến ​​thức kỹ thuật chuyên môn. Tuy nhiên, giống như các yếu tố khác của AI, chúng đã trở nên dễ tiếp cận hơn theo thời gian.

Các công cụ có sẵn, chi phí thấp hiện cho phép người dùng không có kỹ thuật tạo ra các bản giả sâu, giống như bất kỳ ai cũng có thể đăng ký OpenAI và kiểm tra khả năng của ChatGPT.

Gần đây nhất là vào năm 2020, Diễn đàn Kinh tế Thế giới đã báo cáo rằng chi phí sản xuất “hiện đại nhất” deepfake dưới 30,000 đô la. Nhưng vào năm 2023, giáo sư Ethan Mollick của Trường Wharton đã tiết lộ, thông qua một bài đăng lan truyền trên Twitter, rằng ông đã tạo ra một sâu giả video về việc anh ấy thuyết trình trong vòng chưa đầy sáu phút.

Tổng chi tiêu của Mollick là 10.99 đô la. Anh ấy đã sử dụng một dịch vụ có tên ElevenLabs để bắt chước gần như hoàn hảo giọng nói của mình, với chi phí là 5 đô la. Một dịch vụ khác có tên D-ID, với giá 5.99 đô la mỗi tháng, đã tạo một video chỉ dựa trên một tập lệnh và một bức ảnh. Anh ấy thậm chí còn sử dụng ChatGPT để tự tạo tập lệnh.

Khi deepfakes lần đầu tiên bắt đầu xuất hiện, trọng tâm chính là các video chính trị giả mạo (và nội dung khiêu dâm giả mạo). Kể từ đó, thế giới đã chứng kiến:

  • BuzzFeedVideos tạo một thông báo dịch vụ công cộng deepfake “có sự góp mặt của” Barack Obama, do nam diễn viên Jordon Peele mạo danh.
  • Một video giả mạo sâu sắc trên YouTube có mục đích cho thấy Donald Trump đang kể một câu chuyện về một con tuần lộc.
  • Một video giả mạo sâu sắc về Hilary Clinton được chiếu trên Saturday Night Live, khi thực tế cô ấy đang bị một diễn viên đóng giả.

Mặc dù những ví dụ này cho thấy khía cạnh “vui vẻ” của deepfakes và có thể cung cấp một chút thực tế về khả năng của công nghệ, nhưng những kẻ lừa đảo đã không lãng phí thời gian để sử dụng chúng cho mục đích bất chính. 

Có rất nhiều ví dụ thực tế về gian lận, được duy trì bằng các kỹ thuật deepfake.

Tổn thất do lừa đảo giả sâu từ hàng trăm nghìn đến nhiều triệu đồng. Vào năm 2021, một vụ lừa đảo nhân bản giọng nói AI đã được sử dụng để dàn xếp các vụ chuyển khoản ngân hàng lừa đảo trị giá 35 triệu đô la. Đây là một khoản hoàn trả tài chính khổng lồ mà thậm chí không yêu cầu việc sử dụng video.

Chất lượng đầu ra của AI, đặc biệt là video, có thể rất khác nhau. Một số video rõ ràng là giả với con người. Tuy nhiên, như đã nêu ở trên, các hệ thống tự động, chẳng hạn như các hệ thống được sử dụng bởi các ngân hàng và fintech, đã từng tỏ ra dễ dàng bị lừa trong quá khứ.

Sự cân bằng có thể sẽ thay đổi hơn nữa khi khả năng AI tiếp tục được cải thiện. Một sự phát triển gần đây là sự kết hợp của “phản pháp y”, trong đó “nhiễu” vô hình được nhắm mục tiêu được thêm vào các giả mạo sâu, nhằm đánh lừa các cơ chế phát hiện.

Vì vậy, những gì có thể được thực hiện?

Giống như những kẻ lừa đảo tìm cách sử dụng công nghệ AI mới nhất để thu lợi tài chính, các doanh nghiệp như công ty công nghệ đang nỗ lực tìm cách sử dụng công nghệ để truy bắt tội phạm.

Dưới đây là một vài ví dụ về các công ty sử dụng AI để chống lại AI:

Vào cuối năm 2022, Intel đã ra mắt một công cụ dựa trên AI có tên là “FakeCatcher”. Với tỷ lệ độ tin cậy được báo cáo của Intel là 96%, nó sử dụng một công nghệ có tên là photoplethysmography (PPG).

Công nghệ này sử dụng một thứ không có trong các video được tạo nhân tạo: dòng máu. Được đào tạo trên các video hợp pháp, thuật toán học sâu của nó đo ánh sáng được các mạch máu hấp thụ hoặc phản xạ, làm thay đổi màu sắc khi máu di chuyển khắp cơ thể.

FakeCatcher, một phần của sáng kiến ​​Trí tuệ nhân tạo có trách nhiệm của Intel, được mô tả là “công cụ phát hiện giả sâu theo thời gian thực đầu tiên trên thế giới trả về kết quả tính bằng mili giây.” Đây là một công nghệ tiên tiến giúp tìm kiếm các dấu hiệu cho thấy người xuất hiện trong video thực sự là con người. Nó tìm kiếm điều gì đó “đúng”, thay vì phân tích dữ liệu để làm nổi bật điều gì đó “sai”. Đây là cách nó chỉ ra khả năng giả mạo.

Trong khi đó, các nhà khoa học máy tính của Đại học Buffalo (UB) đang nghiên cứu một công nghệ phát hiện deepfake của riêng họ. Nó sử dụng một thứ mà các game thủ PC cuồng nhiệt biết rằng cần có sức mạnh xử lý cực lớn để mô phỏng: ánh sáng.

Được UB tuyên bố là có hiệu quả 94% đối với ảnh giả, công cụ AI xem xét cách ánh sáng phản chiếu trong mắt của đối tượng. Bề mặt của giác mạc hoạt động như một tấm gương và tạo ra “các mẫu phản chiếu”.

Nghiên cứu của các nhà khoa học, có tựa đề “Phơi sáng các khuôn mặt do GAN tạo ra bằng cách sử dụng các điểm sáng đặc trưng của giác mạc không nhất quán”, chỉ ra rằng “các khuôn mặt do GAN tổng hợp có thể được phơi bày với các điểm sáng đặc trưng của giác mạc không nhất quán giữa hai mắt”.

Nó gợi ý rằng việc các hệ thống AI mô phỏng các điểm nổi bật thực sự là điều “không cần thiết”. Các game thủ PC, những người thường đầu tư vào card đồ họa dò tia mới nhất để trải nghiệm hiệu ứng ánh sáng chân thực, sẽ nhận ra những thách thức ở đây theo bản năng.

Có lẽ thách thức phát hiện gian lận lớn nhất là trò chơi “mèo vờn chuột” bất tận giữa những kẻ lừa đảo và những người làm việc để ngăn chặn chúng. Rất có khả năng, sau những thông báo như trên, mọi người đang làm việc để xây dựng các công nghệ có thể vượt qua và đánh bại các cơ chế phát hiện như vậy.

Việc các cơ chế như vậy tồn tại là một chuyện, nhưng việc chúng được tích hợp thường xuyên vào các giải pháp mà doanh nghiệp sử dụng lại là một chuyện khác. Trước đó, chúng tôi đã đề cập đến một thống kê cho thấy 90% giải pháp có thể “dễ dàng bị lừa”. Khả năng là ít nhất một số tổ chức tài chính vẫn đang sử dụng các hệ thống như vậy.

Một người khôn ngoan giám sát gian lận chiến lược đòi hỏi các công ty phải nhìn xa hơn việc tự mình phát hiện ra những giả mạo sâu sắc. Nhiều việc có thể được thực hiện trước kẻ lừa đảo xâm nhập đủ sâu vào hệ thống để tham gia vào quy trình xác minh ID hoặc KYC dựa trên video. Các biện pháp phòng ngừa sớm hơn trong quy trình cũng có thể liên quan đến yếu tố AI và máy học.

Ví dụ: máy học có thể được sử dụng để theo dõi gian lận theo thời gian thực và tạo bộ quy tắc. Chúng có thể xem xét các sự kiện gian lận trong lịch sử, phát hiện các mẫu mà con người có thể dễ dàng bỏ qua. Các giao dịch được coi là có rủi ro cao có thể bị từ chối hoàn toàn hoặc được thông qua để xem xét thủ công thậm chí trước khi đạt được một giai đoạn có thể có kiểm tra ID – và do đó là cơ hội cho kẻ lừa đảo sử dụng công nghệ deepfake.

Hệ thống phát hiện tội phạm mạng càng sớm thì càng tốt. Có ít cơ hội hơn để họ có thể tiếp tục phạm tội và doanh nghiệp sẽ ít phải chi tiêu hơn cho các lần kiểm tra tiếp theo. Kiểm tra ID dựa trên video rất tốn kém, ngay cả khi không có sự kết hợp của công nghệ AI để phát hiện hàng giả sâu.

Nếu những kẻ lừa đảo có thể được xác định trước khi chúng tiến xa đến mức đó, thì với các kỹ thuật như dấu chân kỹ thuật số, sẽ có nhiều tài nguyên hơn để tối ưu hóa việc kiểm tra nhiều trường hợp cận kề hơn.

Bản chất của học máy sẽ chỉ ra rằng, theo thời gian, nó sẽ trở nên tốt hơn trong việc phát hiện sự bất thường và chống gian lận. Các hệ thống do AI cung cấp có thể học hỏi từ các mẫu mới và có khả năng lọc ra các giao dịch gian lận ở giai đoạn đầu của quy trình.

Khi nói đến deepfakes cụ thể, ví dụ trên đưa ra một lý do cụ thể để hy vọng. Các nhà khoa học đã tìm ra cách phát hiện phần lớn các tác phẩm sâu bằng cách sử dụng phản xạ ánh sáng. Những phát triển như thế này thể hiện một bước tiến đáng kể trong công tác phòng chống gian lận và là rào cản đáng kể đối với tội phạm mạng.

Về lý thuyết, việc triển khai công nghệ phát hiện như vậy dễ dàng hơn nhiều so với việc những kẻ lừa đảo tìm cách vượt qua nó – sao chép hành vi của ánh sáng, ví dụ, ở tốc độ và ở quy mô lớn. Trò chơi “mèo vờn chuột” dường như sẽ tiếp tục mãi mãi, nhưng các ông lớn công nghệ và tài chính lớn có đủ nguồn lực và túi tiền dồi dào để – ít nhất là về mặt lý thuyết – luôn đi trước một bước nhỏ.
 
 
Jimmy Fong là CCO của SEON và mang kinh nghiệm chuyên sâu của mình về chống gian lận để hỗ trợ các nhóm chống gian lận ở khắp mọi nơi.
 

Dấu thời gian:

Thêm từ Xe đẩy