Combattre l'IA avec la surveillance de la fraude par IA pour les applications Deepfake - KDnuggets

Combattre l'IA avec la surveillance de la fraude par IA pour les applications Deepfake - KDnuggets

Nœud source: 2667255
Combattre l’IA grâce à la surveillance de la fraude par l’IA pour les applications Deepfake
Photo par Tim Miroshnichenko
 

Les deepfakes sont un grand sujet de conversation dans la communauté de la science des données depuis quelques années maintenant. En 2020, la MIT Technology Review a postulé que les contrefaçons profondes avaient atteint leur « point de basculement pour une utilisation grand public ».

Les données le confirment certainement. Le Wall Street Journal a rapporté que moins de 10,000 2018 deepfakes avaient été découverts en ligne en XNUMX. Ces chiffres se comptent désormais par millions, et il existe de nombreux exemples concrets de deepfakes utilisés à la fois pour semer la confusion, désinformer et perpétuer la fraude financière. 

Les techniques de deepfake offrent aux cybercriminels de nombreuses options sophistiquées.

Ils vont bien au-delà de la possibilité d’insérer l’image d’une célébrité dans du matériel promotionnel pour une offre Bitcoin « incontournable », ce qui – bien sûr – s’avère être une arnaque. Les vidéos Deepfake, en particulier, sont sur le radar des fraudeurs. Ils leur fournissent un moyen de passer les contrôles automatisés d’identité et de KYC et se sont révélés terriblement efficaces.

En mai 2022, The Verge rapporté que "tests de vivacité» utilisés par les banques et autres institutions pour aider à vérifier l'identité des utilisateurs peuvent être facilement trompés par des contrefaçons profondes. L'étude connexe a révélé que 90 % des systèmes de vérification d'identité testés étaient vulnérables.

Alors quelle est la réponse ? Entrons-nous dans une ère où les cybercriminels peuvent facilement utiliser une technologie de contrefaçon profonde pour déjouer les mesures de sécurité utilisées par les institutions financières ? Ces entreprises devront-elles abandonner leurs systèmes automatisés et revenir à des contrôles manuels et humains ?

La réponse simple est « probablement pas ». Tout comme les criminels peuvent profiter de l'augmentation du nombre Avancées de l'IA, tout comme les entreprises qu’elles ciblent. Voyons maintenant comment les entreprises vulnérables peuvent lutter contre l’IA grâce à l’IA.

Les deepfakes sont produits à l’aide d’une gamme de techniques d’intelligence artificielle, telles que :

  • réseaux antagonistes génératifs (GAN) 
  • paires codeur/décodeur
  • modèles de mouvement du premier ordre

Ces techniques peuvent, à première vue, sembler être l’apanage exclusif de la communauté de l’apprentissage automatique, avec des barrières à l’entrée élevées et un besoin de connaissances techniques expertes. Cependant, comme d’autres éléments de l’IA, ils sont devenus considérablement plus accessibles au fil du temps.

Des outils disponibles dans le commerce à faible coût permettent désormais aux utilisateurs non techniques de créer des contrefaçons profondes, tout comme n'importe qui peut s'inscrire à OpenAI et tester les capacités de ChatGPT.

Pas plus tard qu’en 2020, le Forum économique mondial rapportait que le coût de production d’un «l'état de l'art« Le deepfake coûte moins de 30,000 2023 $. Mais en XNUMX, Ethan Mollick, professeur à la Wharton School, a révélé, via une publication virale sur Twitter, qu'il avait produit un fausse vidéo profonde de lui-même donnant une conférence en moins de six minutes.

Les dépenses totales de Mollick étaient de 10.99 $. Il a utilisé un service appelé ElevenLabs pour imiter presque parfaitement sa voix, pour un coût de 5 $. Un autre service appelé D-ID, à 5.99 $ par mois, générait une vidéo basée uniquement sur un script et une seule photographie. Il a même utilisé ChatGPT pour créer le script lui-même.

Lorsque les deepfakes ont commencé à émerger, l’accent était mis principalement sur les fausses vidéos politiques (et la fausse pornographie). Depuis, le monde a vu :

  • BuzzFeedVideos crée une fausse annonce d'intérêt public « mettant en vedette » Barack Obama, usurpé l'identité de l'acteur Jordon Peele.
  • Une fausse vidéo YouTube prétendant montrer Donald Trump racontant une histoire sur un renne.
  • Une fausse vidéo d'Hilary Clinton diffusée sur Saturday Night Live, alors qu'elle était en fait usurpée par un membre de la distribution.

Bien que ces exemples montrent le côté « amusant » des deepfakes et fournissent peut-être un aperçu de la réalité quant aux capacités de la technologie, les fraudeurs n'ont pas perdu de temps à les utiliser à des fins néfastes. 

Les exemples concrets de fraude, perpétrés à l’aide de techniques de deepfake, sont nombreux.

Les pertes dues aux escroqueries profondes varient de centaines de milliers à plusieurs millions. En 2021, une escroquerie de clonage vocal d’IA a été utilisée pour organiser des virements bancaires frauduleux de 35 millions de dollars. Il s'agissait d'une énorme récompense financière qui n'a même pas été exigent l'utilisation de la vidéo.

La qualité de la sortie de l'IA, en particulier de la vidéo, peut varier considérablement. Certaines vidéos sont évidemment fausses pour les humains. Mais comme indiqué ci-dessus, les systèmes automatisés, tels que ceux utilisés par les banques et les technologies financières, se sont révélés faciles à tromper dans le passé.

L’équilibre est susceptible de changer encore à mesure que les capacités de l’IA continuent de s’améliorer. Un développement récent est l’incorporation de la « contre-criminalistique », où un « bruit » invisible et ciblé est ajouté aux contrefaçons, dans le but de tromper les mécanismes de détection.

Alors, que peut-on faire?

Tout comme les fraudeurs cherchent à utiliser les dernières technologies d’IA à des fins financières, des entreprises telles que les entreprises technologiques travaillent d’arrache-pied pour trouver des moyens d’utiliser la technologie pour attraper les criminels.

Voici quelques exemples d’entreprises utilisant l’IA pour lutter contre l’IA :

Fin 2022, Intel a lancé un outil basé sur l’IA appelé «FauxCatcher». Avec un taux de fiabilité annoncé par Intel de 96 %, il utilise une technologie connue sous le nom de photopléthysmographie (PPG).

La technologie utilise quelque chose qui n’est pas présent dans les vidéos générées artificiellement : le flux sanguin. Formé sur des vidéos légitimes, son algorithme d'apprentissage en profondeur mesure la lumière absorbée ou réfléchie par les vaisseaux sanguins, qui changent de couleur à mesure que le sang circule dans le corps.

FakeCatcher, qui fait partie de l'initiative Responsible AI d'Intel, est décrit comme « le premier détecteur de fausses informations en temps réel au monde qui renvoie des résultats en millisecondes ». Il s'agit d'une technologie innovante qui recherche des signes indiquant que la personne montrée dans une vidéo est véritablement humaine. Il recherche quelque chose qui est « juste », plutôt que d'analyser les données pour mettre en évidence quelque chose qui est « faux ». C'est ainsi que cela indique la probabilité d'un faux.

Pendant ce temps, les informaticiens de l’Université de Buffalo (UB) ont travaillé sur leur propre technologie de détection des deepfakes. Il utilise quelque chose dont les joueurs passionnés sur PC savent qu’il nécessite une immense puissance de traitement pour émuler : la lumière.

Réclamé par UB comme étant efficace à 94 % sur les fausses photos, l'outil d'IA examine la façon dont la lumière se reflète dans les yeux du sujet. La surface de la cornée agit comme un miroir et génère des « motifs réfléchissants ».

L'étude des scientifiques, intitulée « Exposer des visages générés par GAN à l'aide de reflets spéculaires cornéens incohérents », indique que « les visages synthétisés par GAN peuvent être exposés avec des reflets spéculaires cornéens incohérents entre deux yeux ».

Cela suggère qu’il ne serait pas trivial pour les systèmes d’IA d’émuler les véritables points forts. Les joueurs sur PC, qui investissent souvent dans les dernières cartes graphiques ray-tracing afin de bénéficier d'effets d'éclairage réalistes, reconnaîtront instinctivement les défis qui se posent ici.

Le plus grand défi en matière de détection des fraudes est peut-être le jeu sans fin du « chat et de la souris » entre les fraudeurs et ceux qui s’efforcent de les contrecarrer. Il est fort probable, à la suite d’annonces telles que celles ci-dessus, que des gens travaillent déjà à la création de technologies capables de contourner et de vaincre de tels mécanismes de détection.

C'est aussi une chose que de tels mécanismes existent, mais une autre est de les voir systématiquement intégrés dans les solutions utilisées par les entreprises. Plus tôt, nous avons évoqué une statistique selon laquelle 90 % des solutions peuvent être « facilement trompées ». Il est probable qu’au moins certaines institutions financières utilisent encore de tels systèmes.

Un sage surveillance de la fraude Cette stratégie exige que les entreprises ne se contentent pas de détecter elles-mêmes les deep fakes. Beaucoup peut être fait before un fraudeur pénètre suffisamment loin dans un système pour participer à une vérification d'identité par vidéo ou à un processus KYC. Les précautions qui trouvent leur place plus tôt dans le processus peuvent également impliquer un élément d’IA et d’apprentissage automatique.

Par exemple, l’apprentissage automatique peut être utilisé à la fois pour surveiller la fraude en temps réel et pour créer des ensembles de règles. Ceux-ci peuvent examiner les événements de fraude historiques et détecter des modèles qui pourraient facilement être ignorés par un humain. Les transactions jugées à haut risque peuvent être purement et simplement rejetées ou soumises à un examen manuel avant même d'atteindre une étape où il peut y avoir un contrôle d’identité – et donc une opportunité pour un fraudeur d’utiliser une technologie deepfake.

Plus tôt un système détecte un cybercriminel, mieux c’est. Il y a moins de chances qu'ils perpétuent un crime et moins d'argent pour l'entreprise à dépenser pour des contrôles supplémentaires. Les contrôles d’identité par vidéo sont coûteux, même sans l’intégration de la technologie de l’IA pour détecter les contrefaçons.

Si les fraudeurs peuvent être identifiés avant d’en arriver là, grâce à des techniques telles que l’empreinte numérique, davantage de ressources seront disponibles pour optimiser les contrôles des cas plus limites.

La nature même de l’apprentissage automatique devrait lui permettre, au fil du temps, de mieux détecter les anomalies et de lutter contre la fraude. Les systèmes basés sur l’IA peuvent apprendre de nouveaux modèles et potentiellement filtrer les transactions frauduleuses à un stade précoce du processus.

En ce qui concerne spécifiquement les deepfakes, l’exemple ci-dessus donne une raison particulière d’espérer. Les scientifiques ont trouvé un moyen de détecter la grande majorité des deepfakes en utilisant les réflexions lumineuses. De telles évolutions représentent un progrès considérable dans la prévention de la fraude et un obstacle considérable pour les cybercriminels.

En théorie, il est beaucoup plus facile de déployer une telle technologie de détection que pour les fraudeurs de trouver un moyen de la contourner, en reproduisant par exemple le comportement de la lumière, à grande vitesse et à grande échelle. Le jeu du « chat et de la souris » semble susceptible de continuer éternellement, mais les grandes technologies et les grandes finances ont les ressources et les poches profondes pour – en théorie du moins – garder une petite longueur d’avance.
 
 
Jimmy Fong est le CCO de SEON et apporte son expérience approfondie de la lutte contre la fraude pour aider les équipes anti-fraude du monde entier.
 

Horodatage:

Plus de KDnuggetsGenericName