Lucha contra la IA con monitoreo de fraude de IA para aplicaciones Deepfake - KDnuggets

Luchando contra la IA con monitoreo de fraude de IA para aplicaciones Deepfake – KDnuggets

Nodo de origen: 2667255
Lucha contra la IA con monitoreo de fraude de IA para aplicaciones Deepfake
Foto por Tim Miroshnichenko
 

Deepfakes ha sido un gran tema de conversación en la comunidad de ciencia de datos desde hace algunos años. En 2020, MIT Technology Review postuló que las falsificaciones profundas había llegado a su "punto de inflexión para el uso general".

Los datos ciertamente lo respaldan. El Wall Street Journal informó que se encontraron menos de 10,000 deepfakes en línea en 2018. Esas cifras ahora ascienden a millones, y hay muchos ejemplos de la vida real de deepfakes que se utilizan tanto para confundir y desinformar como para perpetuar el fraude financiero. 

Las técnicas de deepfake en conjunto brindan a los ciberdelincuentes muchas opciones sofisticadas.

Van mucho más allá de la capacidad de insertar la imagen de una celebridad en el material promocional para una oferta de Bitcoin "imperdible", que, por supuesto, resulta ser una estafa. Los videos deepfake, en particular, están en el radar de los estafadores. Les brindan una forma de superar los controles automatizados de identificación y KYC y han demostrado ser terriblemente efectivos.

En mayo de 2022, The Verge reportó que "pruebas de vida” utilizado por los bancos y otras instituciones para ayudar a verificar las identidades de los usuarios puede ser fácilmente engañado por falsificaciones profundas. El estudio relacionado encontró que el 90% de los sistemas de verificación de identidad probados eran vulnerables.

Entonces, ¿cuál es la respuesta? ¿Estamos entrando en una era en la que los ciberdelincuentes pueden usar fácilmente tecnología falsa profunda para burlar las medidas de seguridad utilizadas por las instituciones financieras? ¿Tendrán estas empresas que deshacerse de sus sistemas automatizados y volver a los controles humanos manuales?

La respuesta simple es "probablemente no". Así como los delincuentes pueden aprovechar el aumento de avances de IA, también pueden hacerlo las empresas a las que se dirigen. Veamos ahora cómo las empresas vulnerables pueden combatir la IA con IA.

Los deepfakes se producen utilizando una variedad de técnicas de inteligencia artificial, como:

  • redes generativas adversas (GAN) 
  • pares codificador/decodificador
  • modelos de movimiento de primer orden

Estas técnicas pueden, a primera vista, sonar como dominio exclusivo de la comunidad de aprendizaje automático, con altas barreras de entrada y la necesidad de conocimientos técnicos expertos. Sin embargo, al igual que otros elementos de la IA, se han vuelto considerablemente más accesibles con el tiempo.

Las herramientas listas para usar y de bajo costo ahora permiten a los usuarios no técnicos crear falsificaciones profundas, al igual que cualquiera puede registrarse en OpenAI y probar las capacidades de ChatGPT.

Recientemente, en 2020, el Foro Económico Mundial informó que el costo de producir un “estado de la técnicaDeepfake cuesta menos de $ 30,000. Pero en 2023, el profesor de la Escuela Wharton Ethan Mollick reveló, a través de una publicación viral en Twitter, que había producido un video falso profundo de sí mismo dando una conferencia en menos de seis minutos.

El gasto total de Mollick fue de $10.99. Usó un servicio llamado ElevenLabs para imitar su voz casi a la perfección, por un costo de $5. Otro servicio llamado D-ID, a 5.99 dólares al mes, generaba un video basado únicamente en un guión y una sola fotografía. Incluso usó ChatGPT para crear el propio script.

Cuando comenzaron a surgir los deepfakes, el foco principal estaba en los videos políticos falsos (y la pornografía falsa). Desde entonces, el mundo ha visto:

  • BuzzFeedVideos crea un anuncio de servicio público falso que "presenta" a Barack Obama, personificado por el actor Jordon Peele.
  • Un video profundamente falso de YouTube que pretende mostrar a Donald Trump contando una historia sobre un reno.
  • Un video profundamente falso de Hilary Clinton que se muestra en Saturday Night Live, cuando en realidad estaba siendo suplantada por un miembro del elenco.

Si bien estos ejemplos muestran el lado "divertido" de las falsificaciones profundas, y tal vez brindan una sacudida de la realidad en cuanto a las capacidades de la tecnología, los estafadores no han perdido el tiempo en usarlas con fines nefastos. 

Hay muchos ejemplos de fraude de la vida real, perpetuados mediante técnicas de falsificación profunda.

Las pérdidas debidas a estafas falsas profundas van desde cientos de miles hasta muchos millones. En 2021, se utilizó una estafa de clonación de voz de IA para organizar transferencias bancarias fraudulentas de $ 35 millones. Esta fue una gran recompensa financiera que ni siquiera exigir el uso del vídeo.

La calidad de la salida de AI, especialmente el video, puede variar enormemente. Algunos videos son obviamente falsos para los humanos. Pero, como se indicó anteriormente, los sistemas automatizados, como los que utilizan los bancos y las fintech, han resultado fáciles de engañar en el pasado.

Es probable que el equilibrio cambie aún más a medida que las capacidades de IA continúen mejorando. Un desarrollo reciente es la incorporación de "contra análisis forense", donde se agrega "ruido" invisible dirigido a falsificaciones profundas, en un intento de engañar a los mecanismos de detección.

Entonces, ¿qué se puede hacer?

Así como los estafadores buscan utilizar la última tecnología de inteligencia artificial para obtener ganancias financieras, las empresas, como las empresas de tecnología, trabajan arduamente para encontrar formas de utilizar la tecnología para atrapar a los delincuentes.

Aquí hay un par de ejemplos de empresas que usan IA para luchar contra la IA:

A fines de 2022, Intel lanzó una herramienta basada en IA llamada “Cazador falso”. Con una tasa de confiabilidad informada por Intel del 96 %, utiliza una tecnología conocida como fotopletismografía (PPG).

La tecnología utiliza algo que no está presente en los videos generados artificialmente: el flujo sanguíneo. Entrenado en videos legítimos, su algoritmo de aprendizaje profundo mide la luz que absorben o reflejan los vasos sanguíneos, que cambian de color a medida que la sangre se mueve por el cuerpo.

FakeCatcher, parte de la iniciativa de inteligencia artificial responsable de Intel, se describe como "el primer detector falso profundo en tiempo real del mundo que devuelve resultados en milisegundos". Es una tecnología innovadora que busca señales de que la persona que se muestra en un video es verdaderamente humana. Busca algo que sea "correcto", en lugar de analizar datos para resaltar algo que sea "incorrecto". Así es como indica la probabilidad de una falsificación.

Mientras tanto, los científicos informáticos de la Universidad de Buffalo (UB) han estado trabajando en su propia tecnología de detección de falsificación profunda. Utiliza algo que los ávidos jugadores de PC saben que requiere una inmensa potencia de procesamiento para emular: luz.

La UB afirma que tiene una efectividad del 94 % en fotos falsas, la herramienta de inteligencia artificial analiza cómo se refleja la luz en los ojos del sujeto. La superficie de la córnea actúa como un espejo y genera “patrones reflectantes”.

El estudio de los científicos, titulado "Exposición de rostros generados por GAN utilizando reflejos especulares corneales inconsistentes", indica que "los rostros sintetizados por GAN pueden exponerse con reflejos especulares corneales inconsistentes entre dos ojos".

Sugiere que sería "no trivial" que los sistemas de IA emulen las características genuinas. Los jugadores de PC, que a menudo invierten en las últimas tarjetas gráficas de trazado de rayos para experimentar efectos de iluminación realistas, reconocerán instintivamente los desafíos aquí.

Quizás el mayor desafío de detección de fraudes es el interminable juego del “gato y el ratón” entre los estafadores y quienes trabajan para frustrarlos. Es muy probable, a raíz de anuncios como los anteriores, que la gente ya esté trabajando en la creación de tecnologías que puedan eludir y superar tales mecanismos de detección.

Una cosa también es que tales mecanismos existan, pero otra verlos integrados de manera rutinaria en las soluciones que usan las empresas. Anteriormente, nos referimos a una estadística que sugería que el 90 % de las soluciones se pueden “engañar fácilmente”. Lo más probable es que al menos algunas instituciones financieras sigan utilizando dichos sistemas.

Un sabio monitoreo de fraude La estrategia requiere que las empresas miren más allá de la detección de las falsificaciones profundas por sí mismas. Se puede hacer mucho antes un estafador se adentra lo suficiente en un sistema para participar en una verificación de identidad basada en video o en un proceso KYC. Las precauciones que encuentran un lugar antes en el proceso también pueden involucrar un elemento de inteligencia artificial y aprendizaje automático.

Por ejemplo, el aprendizaje automático se puede utilizar tanto para la supervisión de fraudes en tiempo real como para la creación de conjuntos de reglas. Estos pueden analizar eventos de fraude históricos, detectando patrones que un ser humano podría pasar por alto fácilmente. Las transacciones que se consideren de alto riesgo pueden rechazarse por completo o aprobarse para revisión manual incluso antes de llegar una etapa en la que puede haber una verificación de identidad y, por lo tanto, una oportunidad para que un estafador haga uso de la tecnología deepfake.

Cuanto antes detecte un sistema a un ciberdelincuente, mejor. Hay menos posibilidades de que puedan perpetuar un delito y menos para que la empresa gaste en más controles. Las verificaciones de identidad basadas en video son costosas, incluso sin la incorporación de tecnología de IA para detectar falsificaciones profundas.

Si se puede identificar a los estafadores antes de que lleguen tan lejos, con técnicas como la huella digital, quedarán más recursos disponibles para optimizar los controles de más casos dudosos.

La naturaleza misma del aprendizaje automático debería dictar que, con el tiempo, sea mejor para detectar anomalías y combatir el fraude. Los sistemas impulsados ​​por IA pueden aprender de nuevos patrones y potencialmente filtrar transacciones fraudulentas en una etapa temprana del proceso.

Cuando se trata específicamente de deepfakes, el ejemplo anterior da una razón particular para la esperanza. Los científicos han encontrado una forma de detectar la gran mayoría de las falsificaciones profundas mediante reflejos de luz. Avances como este representan un avance considerable en la prevención del fraude y un obstáculo considerable para los ciberdelincuentes.

En teoría, es mucho más fácil implementar dicha tecnología de detección que para los estafadores encontrar una manera de eludirla, replicando el comportamiento de la luz, por ejemplo, a velocidad y escala. Parece probable que el juego del “gato y el ratón” continúe eternamente, pero la gran tecnología y las grandes finanzas tienen los recursos y los bolsillos profundos para, al menos en teoría, mantenerse un pequeño paso adelante.
 
 
jimmy fong es el CCO de SEON y aporta su profunda experiencia en la lucha contra el fraude para ayudar a los equipos contra el fraude en todas partes.
 

Sello de tiempo:

Mas de nuggets