Deepfake 애플리케이션을 위한 AI 사기 모니터링으로 AI 퇴치 - KDnuggets

Deepfake 애플리케이션을 위한 AI 사기 모니터링으로 AI와의 싸움 – KDnuggets

소스 노드 : 2667255
Deepfake 애플리케이션을 위한 AI 사기 모니터링으로 AI 퇴치
님이 촬영 한 사진 티마 미로 쉬니 첸코
 

딥페이크는 몇 년 동안 데이터 과학 커뮤니티에서 큰 대화 주제였습니다. 2020년, MIT Technology Review 딥 페이크라고 가정 "주류 사용의 전환점"에 도달했습니다.

데이터는 확실히 이를 뒷받침합니다. 그만큼 월스트리트 저널 에서는 10,000년에 온라인에서 발견된 딥페이크가 2018개 미만이라고 보고했습니다. 이제 그 숫자는 수백만 개에 달하며, 혼란과 잘못된 정보를 제공하고 금융 사기를 영속시키는 데 딥페이크가 사용되는 실제 사례가 많이 있습니다. 

Deepfake 기술은 모두 사이버 범죄자에게 다양한 정교한 옵션을 제공합니다.

그들은 "놓칠 수 없는" 비트코인 ​​제안에 대한 홍보 자료에 유명인의 이미지를 삽입하는 능력을 뛰어 넘습니다. 물론 이는 사기로 판명됩니다. 특히 Deepfake 비디오는 사기꾼들의 주목을 받고 있습니다. 그들은 자동화된 ID 및 KYC 확인을 통과할 수 있는 방법을 제공하며 놀라울 정도로 효과적인 것으로 입증되었습니다.

5 월 2022에서, 직전 "라고 보고했다.생존 테스트” 은행 및 기타 기관에서 사용자의 신원을 확인하는 데 사용하는 정보는 딥 페이크에 쉽게 속일 수 있습니다. 관련 연구에 따르면 테스트한 신분증 확인 시스템 중 90%가 취약한 것으로 나타났다.

그래서 대답은 무엇입니까? 사이버 범죄자들이 딥 페이크 기술을 쉽게 사용하여 금융 기관이 사용하는 보안 조치를 따돌릴 수 있는 시대에 들어서고 있습니까? 그러한 기업은 자동화된 시스템을 버리고 사람이 직접 확인하는 방식으로 돌아가야 합니까?

간단한 대답은 “아마도 그렇지 않을 것이다”이다. 범죄자들이 급증하는 현상을 이용할 수 있는 것처럼 AI 발전, 그들이 목표로 삼는 회사도 마찬가지입니다. 이제 취약한 기업이 AI로 어떻게 AI에 맞서 싸울 수 있는지 살펴보겠습니다.

딥페이크는 다음과 같은 다양한 인공 지능 기술을 사용하여 생성됩니다.

  • 생성 적 적대 네트워크 (GAN) 
  • 인코더/디코더 쌍
  • 1차 모션 모델

이러한 기술은 표면적으로는 높은 진입 장벽과 전문적인 기술 지식이 필요한 기계 학습 커뮤니티의 독점적인 보호 구역처럼 들릴 수 있습니다. 그러나 AI의 다른 요소와 마찬가지로 시간이 지남에 따라 접근성이 훨씬 더 높아졌습니다.

누구나 OpenAI에 가입하고 ChatGPT의 기능을 테스트할 수 있는 것처럼 이제 저렴한 기성 도구를 사용하여 기술 지식이 없는 사용자도 딥 페이크를 만들 수 있습니다.

최근 2020년에 세계경제포럼(World Economic Forum)은 다음과 같이 보고했습니다.최첨단” 딥페이크의 가격은 30,000만 달러 미만입니다. 그러나 2023년 와튼스쿨 교수인 에단 몰릭(Ethan Mollick)은 바이러스성 트위터 게시물을 통해 자신이 딥페이크 영상 6분도 안 되는 시간에 강의를 하더군요.

Mollick의 총 지출액은 10.99달러였습니다. 그는 ElevenLabs라는 서비스를 사용하여 5달러의 비용으로 자신의 목소리를 거의 완벽하게 모방했습니다. 월 5.99달러의 D-ID라는 또 다른 서비스는 대본과 사진 한 장만으로 비디오를 생성했습니다. 그는 심지어 ChatGPT를 사용하여 스크립트 자체를 만들었습니다.

딥페이크가 처음 등장하기 시작했을 때 주요 초점은 가짜 정치 동영상(및 가짜 포르노)이었습니다. 그 이후로 세계는 다음을 보았습니다.

  • BuzzFeedVideos는 배우 Jordon Peele로 가장한 Barack Obama가 등장하는 딥페이크 공익 광고를 제작합니다.
  • 도널드 트럼프가 순록에 관한 이야기를 하는 모습을 보여주겠다고 주장하는 딥 페이크 YouTube 동영상입니다.
  • Saturday Night Live에 공개된 힐러리 클린턴의 딥페이크 영상은 실제로 출연진에 의해 사칭되고 있었습니다.

이러한 예는 딥페이크의 "재미있는" 측면을 보여주고 아마도 기술의 능력에 대한 충격적인 현실을 제공할 수도 있지만, 사기꾼들은 이를 사악한 목적으로 사용하는 데 시간을 낭비하지 않았습니다. 

딥페이크 기술을 사용하여 지속되는 사기의 실제 사례는 많습니다.

딥 페이크 사기로 인한 손실은 수십만에서 수백만에 이릅니다. 2021년에는 AI 음성 복제 사기가 35만 달러의 사기 은행 송금을 주선하는 데 사용되었습니다. 이것은 심지어 돈도 안 되는 엄청난 금전적 보상이었습니다. 필요 비디오의 사용.

AI 출력, 특히 비디오의 품질은 크게 다를 수 있습니다. 일부 동영상은 사람이 보기에는 명백히 가짜입니다. 그러나 위에서 언급한 것처럼 과거에는 은행이나 핀테크에서 사용하는 자동화 시스템이 쉽게 속는 것으로 나타났습니다.

AI 기능이 지속적으로 향상됨에 따라 균형이 더욱 바뀔 가능성이 높습니다. 최근 개발에는 감지 메커니즘을 속이기 위해 딥 페이크에 "표적으로 보이지 않는 "노이즈"를 추가하는 "카운터 포렌식"이 통합되어 있습니다.

그래서 무엇을 할 수 있는가?

사기꾼들이 금전적 이익을 위해 최신 AI 기술을 사용하려고 하는 것처럼 기술 회사와 같은 기업은 기술을 활용하여 범죄자를 잡는 방법을 찾기 위해 열심히 노력하고 있습니다.

다음은 AI를 사용하여 AI에 맞서 싸우는 기업의 몇 가지 예입니다.

2022년 말, 인텔은 ''라는 AI 기반 도구를 출시했습니다.페이크캐처". 인텔이 보고한 신뢰성 비율은 96%이며 광용적맥파측정(PPG)이라는 기술을 사용합니다.

이 기술은 인위적으로 생성된 비디오에는 없는 혈액의 흐름을 활용합니다. 합법적인 비디오로 훈련된 딥 러닝 알고리즘은 혈관에 의해 흡수되거나 반사되는 빛을 측정합니다. 혈관은 혈액이 몸 전체를 이동할 때 색이 변합니다.

Intel의 Responsible AI 이니셔티브의 일부인 FakeCatcher는 "결과를 밀리초 단위로 반환하는 세계 최초의 실시간 딥 페이크 탐지기"로 설명됩니다. 영상 속 인물이 진짜 인간이라는 징후를 찾아내는 혁신적인 기술입니다. "잘못된" 것을 강조하기 위해 데이터를 분석하는 것이 아니라 "올바른" 것을 찾는 것입니다. 이것이 가짜일 가능성을 나타내는 방법입니다.

한편, 버팔로 대학교(UB) 컴퓨터 과학자들은 자체 딥페이크 탐지 기술을 연구해 왔습니다. 이는 열렬한 PC 게이머들이 에뮬레이션하려면 엄청난 처리 능력이 필요하다는 것을 알고 있는 것, 즉 빛을 사용합니다.

UB가 가짜 사진에 94% 효과적이라고 주장하는 AI 도구는 피사체의 눈에 빛이 반사되는 방식을 살펴봅니다. 각막 표면은 거울 역할을 하며 "반사 패턴"을 생성합니다.

"일관되지 않은 각막 반사 하이라이트를 사용하여 GAN 생성 얼굴 노출"이라는 제목의 과학자 연구에서는 "GAN 합성 얼굴이 두 눈 사이의 일관성 없는 각막 반사 하이라이트와 함께 노출될 수 있음"을 나타냅니다.

이는 AI 시스템이 실제 하이라이트를 에뮬레이트하는 것이 "사소하지 않은" 일임을 시사합니다. 사실적인 조명 효과를 경험하기 위해 최신 레이 트레이싱 그래픽 카드에 자주 투자하는 PC 게이머라면 본능적으로 여기서 어려움을 인식하게 될 것입니다.

아마도 가장 큰 사기 탐지 과제는 사기꾼과 사기꾼을 저지하려는 사람들 사이의 끝없는 "고양이와 쥐" 게임일 것입니다. 위와 같은 발표 이후 사람들은 이미 그러한 탐지 메커니즘을 회피하고 이길 수 있는 기술을 구축하기 위해 노력하고 있을 가능성이 높습니다.

이러한 메커니즘이 존재한다는 것과 이러한 메커니즘이 기업에서 사용하는 솔루션에 일상적으로 통합되는 것도 별개의 문제입니다. 앞서 우리는 솔루션의 90%가 "쉽게 속일 수 있다"는 통계를 언급했습니다. 적어도 일부 금융 기관은 여전히 ​​이러한 시스템을 사용하고 있을 가능성이 높습니다.

현명한 사기 모니터링 전략을 위해서는 기업이 딥 페이크 자체를 탐지하는 것 이상을 살펴보아야 합니다. 많은 일을 할 수 있다 전에 사기꾼은 비디오 기반 ID 확인 또는 KYC 프로세스에 참여할 수 있을 만큼 시스템에 침투합니다. 프로세스 초기에 적용되는 예방 조치에는 AI 및 기계 학습 요소가 포함될 수도 있습니다.

예를 들어 기계 학습은 실시간 사기 모니터링과 규칙 세트 생성 모두에 사용될 수 있습니다. 이는 과거의 사기 사건을 조사하여 사람이 쉽게 놓칠 수 있는 패턴을 탐지할 수 있습니다. 위험도가 높다고 판단되는 거래는 즉시 거부되거나 수동 검토를 위해 통과될 수 있습니다. 도착하기도 전에 ID 확인이 있을 수 있는 단계이므로 사기꾼이 딥페이크 기술을 활용할 수 있는 기회가 됩니다.

시스템이 사이버범죄자를 조기에 탐지할수록 좋습니다. 범죄를 영속시킬 가능성이 적고 기업이 추가 조사에 지출할 가능성도 적습니다. 영상 기반 신원 확인은 딥 페이크를 탐지하는 AI 기술이 통합되지 않은 경우에도 비용이 많이 듭니다.

디지털 발자국과 같은 기술을 사용하여 사기꾼이 그렇게 되기 전에 식별할 수 있다면 더 많은 경계선 사례에 대한 검사를 최적화하는 데 더 많은 리소스를 사용할 수 있게 될 것입니다.

머신러닝의 본질은 시간이 지남에 따라 이상 징후를 탐지하고 사기에 맞서 싸우는 능력이 향상된다는 점을 의미합니다. AI 기반 시스템은 새로운 패턴을 학습하고 잠재적으로 프로세스 초기 단계에서 사기 거래를 필터링할 수 있습니다.

특히 딥페이크에 관해 위의 예는 희망에 대한 특별한 이유를 제시합니다. 과학자들이 빛 반사를 이용해 딥페이크의 대다수를 탐지하는 방법을 발견했습니다. 이와 같은 발전은 사기 예방에 있어서 상당한 진전을 이루었고 사이버 범죄자들에게는 상당한 장애물이 되었습니다.

이론적으로 사기꾼이 이를 우회하는 방법(예: 속도 및 규모에 따라 빛의 동작을 복제)을 찾는 것보다 이러한 탐지 기술을 배포하는 것이 훨씬 쉽습니다. "고양이와 쥐" 게임은 영원히 계속될 것 같지만, 거대 기술 기업과 거대 금융 기업은 적어도 이론적으로는 한 발 앞서 나갈 수 있는 자원과 넉넉한 자금을 보유하고 있습니다.
 
 
지미 퐁 SEON의 CCO이며 사기 퇴치에 대한 심층적인 경험을 바탕으로 모든 사기 팀을 지원합니다.
 

타임 스탬프 :

더보기 너 겟츠