通过针对 Deepfake 应用程序的 AI 欺诈监控来对抗 AI - KDnuggets

通过针对 Deepfake 应用程序的 AI 欺诈监控来对抗 AI – KDnuggets

源节点: 2667255
通过针对 Deepfake 应用程序的 AI 欺诈监控来对抗 AI
照片由 蒂玛·米罗申尼科(Tima Miroshnichenko)
 

多年来,Deepfakes 一直是数据科学界的一个重要话题。 时间回到 2020 年,《麻省理工科技评论》 假设深度造假 已经达到了他们的“主流使用的临界点”。

数据肯定支持这一点。 这 “华尔街日报” 据报道,10,000 年在网上发现了不到 2018 个 deepfakes。这些数字现在已经达到数百万,并且有许多真实的例子表明 deepfakes 被用来混淆和误导并使金融欺诈永久化。 

Deepfake 技术为网络犯罪分子提供了许多复杂的选择。

他们远远超出了将名人形象插入宣传材料以提供“不可错过的”比特币优惠的能力,当然,这最终证明是一个骗局。 Deepfake 视频尤其受到欺诈者的关注。 他们为他们提供了一种通过自动 ID 和 KYC 检查的方法,并被证明非常有效。

五月2022, 一触即发 报告说“活性测试”被银行等机构用来帮助验证用户身份,很容易被deep fakes骗过。 相关研究发现,90% 的身份验证系统都存在漏洞。

那么答案是什么? 我们是否正在进入一个网络犯罪分子可以轻松使用深度造假技术来智取金融机构使用的安全措施的时代? 这些企业是否必须放弃他们的自动化系统并恢复到手动、人工检查?

简单的回答是“可能不会”。 正如犯罪分子可以利用激增的 人工智能进步,他们所针对的公司也是如此。 现在让我们看看脆弱的企业如何以人工智能对抗人工智能。

Deepfakes 是使用一系列人工智能技术制作的,例如:

  • 生成对抗网络(GAN) 
  • 编码器/解码器对
  • 一阶运动模型

从表面上看,这些技术可能听起来像是机器学习社区的专属专利,具有很高的进入门槛和对专业技术知识的需求。 然而,与 AI 的其他元素一样,随着时间的推移,它们变得更加容易获得。

低成本、现成的工具现在允许非技术用户创建深度伪造,就像任何人都可以注册 OpenAI 并测试 ChatGPT 的功能一样。

就在 2020 年,世界经济论坛报告称,生产“最先进的“deepfake 不到 30,000 美元。 但在 2023 年,沃顿商学院教授伊森·莫里克 (Ethan Mollick) 通过病毒式传播的 Twitter 帖子透露,他制作了一个 深假视频 他自己在六分钟内发表演讲。

Mollick 的总支出为 10.99 美元。 他使用了一项名为 ElevenLabs 的服务来几乎完美地模仿他的声音,费用为 5 美元。 另一项名为 D-ID 的服务每月收费 5.99 美元,仅根据脚本和一张照片生成视频。 他甚至使用 ChatGPT 自己创建脚本。

当 deepfakes 刚开始出现时,主要关注点是虚假的政治视频(和虚假的色情内容)。 从那时起,世界看到了:

  • BuzzFeedVideos 创建了一个深度伪造的公共服务公告,“特色”巴拉克奥巴马,由演员乔登皮尔扮演。
  • 一段假冒的 YouTube 视频,声称唐纳德特朗普讲述了一个关于驯鹿的故事。
  • 周六夜现场播出的希拉里·克林顿 (Hilary Clinton) 的深度伪造视频,当时她实际上被一名演员冒充。

尽管这些示例展示了深度造假的“有趣”一面,并且可能提供了关于该技术功能的现实震撼,但欺诈者并没有浪费任何时间将它们用于邪恶目的。 

现实生活中使用 deepfake 技术长期存在的欺诈例子很多。

深度造假造成的损失从数十万到数百万不等。 2021 年,人工智能语音克隆骗局被用来安排 35 万美元的欺诈性银行转账。 这是一个巨大的经济回报,甚至没有 要求 视频的使用。

人工智能输出的质量,尤其是视频,可能千差万别。 有些视频对人类来说显然是假的。 但是,如上所述,过去事实证明,银行和金融科技公司使用的自动化系统很容易被愚弄。

随着 AI 能力的不断提高,这种平衡可能会进一步改变。 最近的一项发展是结合了“反取证”,其中“有针对性的无形”噪音“被添加到深度造假中,试图愚弄检测机制。

那么,什么可以做什么?

正如欺诈者试图利用最新的人工智能技术谋取经济利益一样,科技公司等企业也在努力寻找利用技术来抓捕罪犯的方法。

以下是一些公司使用 AI 对抗 AI 的例子:

2022 年底,英特尔推出了一款名为“假捕手”。 英特尔报告的可靠性率为 96%,它使用了一种称为光电体积描记法 (PPG) 的技术。

该技术利用了人工生成的视频中不存在的东西:血流。 它的深度学习算法在合法视频上进行训练,可测量血管吸收或反射的光,随着血液在身体周围流动而改变颜色。

FakeCatcher 是英特尔 Responsible AI 计划的一部分,被描述为“世界上第一个在毫秒内返回结果的实时深度造假检测器”。 这是一项创新技术,可以寻找视频中显示的人是否为真人的迹象。 它寻找“正确”的东西,而不是分析数据以突出“错误”的东西。 这就是它指示假货可能性的方式。

与此同时,布法罗大学 (UB) 的计算机科学家一直在研究自己的深度伪造检测技术。 它使用狂热的 PC 游戏玩家知道需要巨大处理能力才能模拟的东西:光。

UB 声称,该人工智能工具对假照片的识别率高达 94%,它会观察光线在拍摄对象眼睛中的反射情况。角膜表面充当镜子,并产生“反射图案”。

科学家们的研究题为“使用不一致的角膜镜面高光曝光 GAN 生成的面部”,表明“GAN 合成的面部可以在两只眼睛之间不一致的角膜镜面高光下曝光”。

这表明人工智能系统模仿真正的亮点将是“重要的”。 经常投资最新的光线追踪显卡以体验逼真的灯光效果的 PC 游戏玩家会本能地认识到这里的挑战。

也许最大的欺诈检测挑战是欺诈者与努力阻止他们的人之间无休止的“猫捉老鼠”游戏。 很可能,在上述公告之后,人们已经在致力于构建可以避开和击败此类检测机制的技术。

存在此类机制也是一回事,但看到它们经常集成到企业使用的解决方案中则是另一回事。 早些时候,我们提到了一项统计数据,该数据表明 90% 的解决方案都可以“轻易被愚弄”。 可能至少一些金融机构仍在使用此类系统。

一个聪明的 欺诈监控 该策略要求公司超越自己检测深度造假的范围。 可以做很多事情 before 欺诈者深入系统以参与基于视频的身份验证或 KYC 流程。 在此过程中更早发现位置的预防措施也可能涉及人工智能和机器学习的元素。

例如,机器学习可用于实时欺诈监控和规则集的创建。 这些可以查看历史欺诈事件,检测人类很容易错过的模式。 被视为高风险的交易可以直接拒绝,或通过人工审查 在到达之前 可能会进行身份检查的阶段 - 因此,欺诈者有机会利用深度伪造技术。

系统越早检测到网络犯罪分子越好。 他们使犯罪永久化的可能性较小,企业花在进一步检查上的可能性也较小。 基于视频的 ID 检查成本很高,即使没有结合人工智能技术来检测深度造假。

如果可以在欺诈者走得太远之前将其识别出来,并使用数字足迹等技术,就会有更多资源可用于优化对更多边界案件的检查。

机器学习的本质应该决定,随着时间的推移,它会更好地检测异常和打击欺诈。 人工智能系统可以从新模式中学习,并有可能在流程的早期阶段过滤掉欺诈交易。

当具体涉及深度伪造时,上面的示例给出了一个特别的希望理由。 科学家们已经找到了一种利用光反射来检测绝大多数深度造假的方法。 像这样的发展代表着在预防欺诈方面向前迈出了相当大的一步,也为网络犯罪分子设置了相当大的障碍。

从理论上讲,部署这种检测技术比欺诈者找到规避它的方法要容易得多——例如,快速、大规模地复制光的行为。 “猫捉老鼠”的游戏似乎会永远持续下去,但大型科技公司和大型金融公司拥有资源和雄厚的财力——至少在理论上——可以领先一小步。
 
 
吉米方 是 SEON 的首席商务官,并利用他在反欺诈方面的深入经验来协助各地的反欺诈团队。
 

时间戳记:

更多来自 掘金队