ต่อสู้กับ AI ด้วยการตรวจสอบการฉ้อโกงของ AI สำหรับแอปพลิเคชัน Deepfake - KDnuggets

ต่อสู้กับ AI ด้วยการตรวจสอบการฉ้อโกงของ AI สำหรับแอปพลิเคชัน Deepfake – KDnuggets

โหนดต้นทาง: 2667255
ต่อสู้กับ AI ด้วยการตรวจสอบการฉ้อโกงของ AI สำหรับแอปพลิเคชัน Deepfake
ภาพถ่ายโดย Tima Miroshnichenkoich
 

Deepfakes เป็นหัวข้อใหญ่ของการสนทนาในชุมชนวิทยาศาสตร์ข้อมูลมาหลายปีแล้ว ย้อนกลับไปในปี 2020 การทบทวนเทคโนโลยีของ MIT อ้างว่าของปลอมลึก ได้มาถึง "จุดเปลี่ยนสำหรับการใช้งานหลัก"

ข้อมูลสำรองอย่างแน่นอน เดอะ Wall Street Journal รายงานว่าพบ Deepfakes น้อยกว่า 10,000 รายการทางออนไลน์ในปี 2018 ตัวเลขเหล่านั้นมีจำนวนนับล้าน และมีตัวอย่างในชีวิตจริงมากมายของ Deep Fakes ที่ใช้ทั้งเพื่อสร้างความสับสน ให้ข้อมูลผิดๆ และเพื่อขยายเวลาการฉ้อโกงทางการเงิน 

เทคนิค Deepfake ช่วยให้อาชญากรไซเบอร์มีตัวเลือกที่ซับซ้อนมากมาย

พวกเขาไปไกลกว่าความสามารถในการแทรกรูปภาพของคนดังลงในสื่อส่งเสริมการขายสำหรับข้อเสนอ Bitcoin ที่ “พลาดไม่ได้” ซึ่งแน่นอนว่ากลายเป็นการหลอกลวง โดยเฉพาะอย่างยิ่งวิดีโอ Deepfake อยู่ในเรดาร์ของผู้หลอกลวง พวกเขาให้วิธีการผ่านการตรวจสอบ ID อัตโนมัติและ KYC และได้รับการพิสูจน์แล้วว่ามีประสิทธิภาพอย่างน่าตกใจ

ในเดือนพฤษภาคม 2022, Verge รายงานว่า “การทดสอบความมีชีวิตชีวา” ที่ใช้โดยธนาคารและสถาบันอื่น ๆ เพื่อช่วยยืนยันตัวตนของผู้ใช้อาจถูกหลอกได้ง่ายโดยของปลอม การศึกษาที่เกี่ยวข้องพบว่า 90% ของระบบยืนยันตัวตนที่ทดสอบมีความเสี่ยง

แล้วคำตอบคืออะไร? เรากำลังเข้าสู่ยุคที่อาชญากรไซเบอร์สามารถใช้เทคโนโลยีปลอมเพื่อเอาชนะมาตรการรักษาความปลอดภัยที่สถาบันการเงินใช้ได้อย่างง่ายดายหรือไม่? ธุรกิจดังกล่าวจะต้องทิ้งระบบอัตโนมัติและเปลี่ยนกลับไปใช้การตรวจสอบโดยมนุษย์หรือไม่

คำตอบง่ายๆ คือ “อาจจะไม่ใช่” เช่นเดียวกับที่อาชญากรสามารถฉวยโอกาสได้ ความก้าวหน้าของ AIบริษัทที่พวกเขากำหนดเป้าหมายก็เช่นกัน มาดูกันว่าธุรกิจที่เปราะบางสามารถต่อสู้กับ AI ด้วย AI ได้อย่างไร

Deepfakes ผลิตขึ้นโดยใช้เทคนิคปัญญาประดิษฐ์ที่หลากหลาย เช่น:

  • เครือข่ายปฏิปักษ์กำเนิด (GAN) 
  • คู่ตัวเข้ารหัส/ตัวถอดรหัส
  • โมเดลการเคลื่อนไหวลำดับที่หนึ่ง

มองเผินๆ เทคนิคเหล่านี้อาจฟังดูเป็นการอนุรักษ์เฉพาะของชุมชนแมชชีนเลิร์นนิง สมบูรณ์ด้วยอุปสรรคสูงในการเข้าและความต้องการความรู้ทางเทคนิคจากผู้เชี่ยวชาญ อย่างไรก็ตาม เช่นเดียวกับองค์ประกอบอื่นๆ ของ AI พวกเขาสามารถเข้าถึงได้มากขึ้นเมื่อเวลาผ่านไป

ขณะนี้เครื่องมือที่หาซื้อได้ง่ายและมีต้นทุนต่ำช่วยให้ผู้ใช้ที่ไม่มีความรู้ด้านเทคนิคสามารถสร้างของปลอมได้ เช่นเดียวกับที่ใครๆ ก็สามารถสมัครใช้งาน OpenAI และทดสอบความสามารถของ ChatGPT ได้

เมื่อเร็ว ๆ นี้ในปี 2020 World Economic Forum รายงานว่าต้นทุนการผลิต "รัฐของศิลปะ” deepfake มีมูลค่าต่ำกว่า $30,000 แต่ในปี 2023 Ethan Mollick ศาสตราจารย์แห่ง Wharton School ได้เปิดเผยผ่านโพสต์ Twitter แบบไวรัลว่าเขาได้ผลิต วิดีโอปลอมลึก ของตัวเองบรรยายภายในหกนาที

การใช้จ่ายทั้งหมดของ Mollick คือ 10.99 ดอลลาร์ เขาใช้บริการที่ชื่อว่า ElevenLabs เพื่อเลียนแบบเสียงของเขาให้เกือบจะสมบูรณ์แบบ โดยมีค่าใช้จ่าย 5 ดอลลาร์ บริการอื่นที่เรียกว่า D-ID ราคา $5.99 ต่อเดือน สร้างวิดีโอตามสคริปต์และรูปถ่ายเพียงรูปเดียว เขายังใช้ ChatGPT เพื่อสร้างสคริปต์เอง

เมื่อ Deepfakes เริ่มปรากฏขึ้นครั้งแรก ความสนใจหลักคือวิดีโอการเมืองปลอม (และภาพอนาจารปลอม) ตั้งแต่นั้นมา โลกได้เห็น:

  • BuzzFeedVideos สร้างประกาศบริการสาธารณะปลอม "นำเสนอ" บารัค โอบามา ซึ่งสวมบทบาทเป็นนักแสดงชาย จอร์แดน พีล
  • วิดีโอ YouTube ปลอมเชิงลึกที่อ้างว่าแสดงให้เห็นว่า Donald Trump เล่าเรื่องราวเกี่ยวกับกวางเรนเดียร์
  • วิดีโอปลอมของ Hilary Clinton ที่แสดงในรายการ Saturday Night Live ซึ่งในความเป็นจริงแล้วเธอถูกแอบอ้างโดยสมาชิกในทีม

ในขณะที่ตัวอย่างเหล่านี้แสดงให้เห็นด้านที่ “สนุก” ของ Deepfakes และอาจให้ความจริงเกี่ยวกับความสามารถของเทคโนโลยี แต่นักต้มตุ๋นก็ไม่เสียเวลาไปกับการใช้มันเพื่อจุดประสงค์ที่เลวร้าย 

ตัวอย่างในชีวิตจริงของการฉ้อฉลซึ่งเกิดขึ้นอย่างต่อเนื่องโดยใช้เทคนิค Deepfake มีมากมาย

ความสูญเสียเนื่องจากการหลอกลวงปลอมมีตั้งแต่หลายแสนไปจนถึงหลายล้าน ในปี 2021 มีการใช้กลโกงการโคลนเสียงด้วย AI เพื่อจัดการการโอนเงินผ่านธนาคารที่เป็นการฉ้อโกงมูลค่า 35 ล้านดอลลาร์ นี่เป็นผลตอบแทนทางการเงินจำนวนมากที่ไม่ได้ ต้องการ การใช้วิดีโอ

คุณภาพของเอาต์พุต AI โดยเฉพาะวิดีโออาจแตกต่างกันอย่างมาก วิดีโอบางรายการเห็นได้ชัดว่าเป็นของปลอมสำหรับมนุษย์ แต่ตามที่ระบุไว้ข้างต้น ระบบอัตโนมัติ เช่น ระบบที่ใช้โดยธนาคารและฟินเทค ได้รับการพิสูจน์แล้วว่าถูกหลอกได้ง่ายในอดีต

ความสมดุลมีแนวโน้มที่จะเปลี่ยนไปอีกเมื่อความสามารถของ AI ปรับปรุงอย่างต่อเนื่อง การพัฒนาเมื่อเร็วๆ นี้เป็นการรวมเอา "การตอบโต้ทางนิติวิทยาศาสตร์" เข้าด้วยกัน โดยเพิ่ม "เสียง" ที่มองไม่เห็นที่กำหนดเป้าหมายเข้าไปในของปลอม เพื่อพยายามหลอกกลไกการตรวจจับ

ดังนั้นสิ่งที่สามารถทำได้?

เช่นเดียวกับที่ผู้ฉ้อโกงพยายามใช้เทคโนโลยี AI ล่าสุดเพื่อผลประโยชน์ทางการเงิน ธุรกิจต่างๆ เช่น บริษัทเทคโนโลยีก็ทำงานอย่างหนักในการหาวิธีใช้เทคโนโลยีเพื่อจับอาชญากร

ต่อไปนี้เป็นตัวอย่างของบริษัทที่ใช้ AI เพื่อต่อสู้กับ AI:

ในช่วงปลายปี 2022 Intel ได้เปิดตัวเครื่องมือที่ใช้ AI ซึ่งเรียกว่า “เฟคแคทเชอร์". ด้วยอัตราความน่าเชื่อถือที่รายงานโดย Intel ที่ 96% จึงใช้เทคโนโลยีที่เรียกว่า photoplethysmography (PPG)

เทคโนโลยีใช้ประโยชน์จากสิ่งที่ไม่มีอยู่ในวิดีโอที่สร้างโดยปลอม: การไหลเวียนของเลือด อัลกอริธึมการเรียนรู้เชิงลึกได้รับการฝึกฝนในวิดีโอที่ถูกต้อง วัดแสงที่หลอดเลือดดูดซับหรือสะท้อน ซึ่งจะเปลี่ยนสีเมื่อเลือดเคลื่อนที่ไปทั่วร่างกาย

FakeCatcher ซึ่งเป็นส่วนหนึ่งของโครงการ AI ที่มีความรับผิดชอบของ Intel ได้รับการอธิบายว่าเป็น เป็นเทคโนโลยีนวัตกรรมที่มองหาสัญญาณว่าบุคคลที่แสดงในวิดีโอเป็นมนุษย์จริงๆ มองหาสิ่งที่ "ถูกต้อง" แทนที่จะวิเคราะห์ข้อมูลเพื่อเน้นสิ่งที่ "ผิด" นี่เป็นวิธีที่บ่งบอกถึงความเป็นไปได้ของของปลอม

ในขณะเดียวกัน นักวิทยาศาสตร์คอมพิวเตอร์แห่งมหาวิทยาลัยบัฟฟาโล (UB) กำลังทำงานเกี่ยวกับเทคโนโลยีการตรวจจับ Deepfake ของตนเอง มันใช้สิ่งที่นักเล่นเกมพีซีตัวยงรู้ว่าต้องใช้พลังการประมวลผลมหาศาลในการเลียนแบบ: แสง

UB อ้างว่ามีประสิทธิภาพ 94% สำหรับภาพถ่ายปลอม เครื่องมือ AI จะดูว่าแสงสะท้อนในดวงตาของตัวแบบอย่างไร พื้นผิวของกระจกตาทำหน้าที่เป็นกระจกเงา และสร้าง "รูปแบบสะท้อนแสง"

การศึกษาของนักวิทยาศาสตร์ที่มีชื่อว่า "การเปิดเผยใบหน้าที่สร้างโดย GAN โดยใช้กระจกตาที่มีลักษณะเด่นที่ไม่สอดคล้องกัน" ระบุว่า "ใบหน้าที่สังเคราะห์ด้วย GAN สามารถเผยให้เห็นกระจกตาที่มีลักษณะเด่นที่ไม่สอดคล้องกันระหว่างดวงตาทั้งสองข้าง"

มันแสดงให้เห็นว่าระบบ AI เลียนแบบจุดเด่นที่แท้จริงนั้นเป็นเรื่อง "ไม่สำคัญ" นักเล่นเกมพีซีที่มักลงทุนในการ์ดกราฟิกติดตามรังสีล่าสุดเพื่อสัมผัสกับเอฟเฟกต์แสงที่สมจริง จะรับรู้ถึงความท้าทายที่นี่โดยสัญชาตญาณ

บางทีความท้าทายในการตรวจจับการฉ้อโกงที่ยิ่งใหญ่ที่สุดคือเกม "แมวกับหนู" ที่ไม่มีที่สิ้นสุดระหว่างผู้ฉ้อโกงและผู้ที่พยายามขัดขวางพวกเขา มีแนวโน้มสูงหลังจากมีการประกาศดังเช่นที่กล่าวมาข้างต้น ว่าผู้คนกำลังทำงานเกี่ยวกับการสร้างเทคโนโลยีที่สามารถหลีกเลี่ยงและเอาชนะกลไกการตรวจจับดังกล่าวได้

กลไกดังกล่าวเป็นสิ่งหนึ่งที่มีอยู่ แต่ก็เป็นอีกสิ่งหนึ่งที่เห็นว่ากลไกดังกล่าวผสานรวมเข้ากับโซลูชันที่ธุรกิจใช้เป็นประจำ ก่อนหน้านี้ เราอ้างถึงสถิติที่แนะนำว่า 90% ของวิธีแก้ปัญหาสามารถ “ถูกหลอกได้ง่าย” ความเป็นไปได้คืออย่างน้อยสถาบันการเงินบางแห่งยังคงใช้ระบบดังกล่าวอยู่

ฉลาด การตรวจสอบการฉ้อโกง กลยุทธ์กำหนดให้บริษัทต่าง ๆ มองไปไกลกว่าการตรวจหาของปลอม สามารถทำได้มาก ก่อน นักต้มตุ๋นเข้าสู่ระบบได้มากพอที่จะเข้าร่วมในการตรวจสอบ ID ผ่านวิดีโอหรือกระบวนการ KYC ข้อควรระวังที่พบตำแหน่งก่อนหน้าในกระบวนการอาจเกี่ยวข้องกับองค์ประกอบของ AI และการเรียนรู้ของเครื่อง

ตัวอย่างเช่น การเรียนรู้ของเครื่องสามารถใช้สำหรับการตรวจสอบการฉ้อโกงแบบเรียลไทม์และการสร้างชุดกฎ สิ่งเหล่านี้สามารถดูเหตุการณ์การฉ้อโกงในอดีต ตรวจจับรูปแบบที่มนุษย์อาจพลาดได้ง่าย ธุรกรรมที่ถือว่ามีความเสี่ยงสูงอาจถูกปฏิเสธทันที หรือผ่านการตรวจสอบด้วยตนเอง กว่าจะไปถึง ระยะที่อาจมีการตรวจสอบ ID – และดังนั้นจึงเป็นโอกาสสำหรับผู้หลอกลวงในการใช้เทคโนโลยี Deepfake

ยิ่งระบบตรวจจับอาชญากรไซเบอร์ได้เร็วเท่าไรก็ยิ่งดีเท่านั้น มีโอกาสน้อยลงที่พวกเขาสามารถก่ออาชญากรรมต่อไปได้ และธุรกิจจะใช้จ่ายน้อยลงในการตรวจสอบเพิ่มเติม การตรวจสอบรหัสผ่านวิดีโอมีค่าใช้จ่ายสูง แม้จะไม่มีการรวมเทคโนโลยี AI เพื่อตรวจจับของปลอม

หากสามารถระบุตัวผู้ฉ้อโกงได้ก่อนที่จะไปถึงจุดนั้น ด้วยเทคนิคต่างๆ เช่น รอยเท้าทางดิจิทัล จะมีทรัพยากรเหลือให้ใช้งานมากขึ้นเพื่อเพิ่มประสิทธิภาพการตรวจสอบกรณีที่มีพรมแดนติดกันมากขึ้น

ธรรมชาติของแมชชีนเลิร์นนิงควรกำหนดว่า เมื่อเวลาผ่านไป การตรวจจับความผิดปกติและต่อสู้กับการฉ้อโกงจะทำได้ดีขึ้น ระบบที่ขับเคลื่อนด้วย AI สามารถเรียนรู้จากรูปแบบใหม่และอาจกรองธุรกรรมที่เป็นการฉ้อโกงตั้งแต่ช่วงเริ่มต้นของกระบวนการ

เมื่อพูดถึง Deepfake โดยเฉพาะ ตัวอย่างข้างต้นให้เหตุผลเฉพาะสำหรับความหวัง นักวิทยาศาสตร์ได้ค้นพบวิธีตรวจจับ Deepfakes ส่วนใหญ่โดยใช้การสะท้อนแสง การพัฒนาเช่นนี้ถือเป็นก้าวสำคัญในการป้องกันการฉ้อโกงและเป็นอุปสรรคสำคัญสำหรับอาชญากรไซเบอร์

ตามทฤษฎีแล้ว การใช้เทคโนโลยีการตรวจจับดังกล่าวทำได้ง่ายกว่าการที่ผู้โจมตีหาทางหลีกเลี่ยง – การเลียนแบบพฤติกรรมของแสง เช่น ด้วยความเร็วและตามขนาด เกม "แมวกับหนู" ดูเหมือนจะดำเนินต่อไปชั่วนิรันดร์ แต่เทคโนโลยีขนาดใหญ่และการเงินขนาดใหญ่มีทรัพยากรและเงินในกระเป๋าที่ลึกซึ่งในทางทฤษฎีแล้ว อย่างน้อยก็ยังก้าวนำหน้าไปหนึ่งก้าว
 
 
จิมมี่ ฟอง เป็น CCO ของ SEON และนำประสบการณ์เชิงลึกของเขาในการต่อสู้กับการฉ้อโกงเพื่อช่วยเหลือทีมฉ้อโกงทุกที่
 

ประทับเวลา:

เพิ่มเติมจาก KD นักเก็ต