Combatendo a IA com monitoramento de fraude de IA para aplicativos deepfake - KDnuggets

Combatendo a IA com monitoramento de fraude de IA para aplicativos deepfake – KDnuggets

Nó Fonte: 2667255
Combatendo a IA com monitoramento de fraude de IA para aplicativos Deepfake
Foto por Tim Miroshnichenko
 

Deepfakes têm sido um grande tópico de conversa na comunidade de ciência de dados há alguns anos. Em 2020, a Revisão de Tecnologia do MIT postulou que falsificações profundas atingiram seu “ponto de inflexão para uso convencional”.

Os dados certamente confirmam isso. O Wall Street Journal relataram que menos de 10,000 deepfakes foram encontrados online em 2018. Esses números agora chegam a milhões, e há muitos exemplos reais de deepfakes sendo usados ​​tanto para confundir e desinformar quanto para perpetuar fraudes financeiras. 

As técnicas deepfake estão fornecendo aos cibercriminosos muitas opções sofisticadas.

Eles vão muito além da capacidade de inserir a imagem de uma celebridade em material promocional de uma oferta “imperdível” de Bitcoin, o que – claro – acaba sendo uma farsa. Os vídeos deepfake, em particular, estão no radar dos fraudadores. Eles fornecem uma maneira de passar por verificações automatizadas de identificação e KYC e provaram ser assustadoramente eficazes.

Em maio 2022, The Verge reportou que "testes de vivacidade” usado por bancos e outras instituições para ajudar a verificar as identidades dos usuários pode ser facilmente enganado por falsificações profundas. O estudo relacionado descobriu que 90% dos sistemas de verificação de identidade testados eram vulneráveis.

Então, qual é a resposta? Estaremos a entrar numa era em que os cibercriminosos podem facilmente utilizar tecnologia profundamente falsa para enganar as medidas de segurança utilizadas pelas instituições financeiras? Será que essas empresas terão de abandonar os seus sistemas automatizados e reverter para verificações manuais e humanas?

A resposta simples é “provavelmente não”. Assim como os criminosos podem aproveitar o aumento Avanços da IA, o mesmo pode acontecer com as empresas que eles visam. Vejamos agora como as empresas vulneráveis ​​podem combater a IA com IA.

Deepfakes são produzidos usando uma variedade de técnicas de inteligência artificial, como:

  • redes adversárias geradoras (GANs) 
  • pares codificador/decodificador
  • modelos de movimento de primeira ordem

Essas técnicas podem, à primeira vista, parecer exclusivas da comunidade de aprendizado de máquina, repletas de altas barreiras de entrada e necessidade de conhecimento técnico especializado. No entanto, tal como outros elementos da IA, tornaram-se consideravelmente mais acessíveis ao longo do tempo.

Ferramentas de baixo custo e prontas para uso agora permitem que usuários não técnicos criem deep fakes, assim como qualquer pessoa pode se inscrever no OpenAI e testar os recursos do ChatGPT.

Ainda em 2020, o Fórum Económico Mundial informou que o custo de produção de um “Estado da arte”O deepfake está abaixo de US$ 30,000. Mas em 2023, o professor da Wharton School, Ethan Mollick, revelou, por meio de uma postagem viral no Twitter, que havia produzido um vídeo falso profundo de si mesmo dando uma palestra em menos de seis minutos.

O gasto total de Mollick foi de US$ 10.99. Ele usou um serviço chamado ElevenLabs para imitar sua voz quase perfeitamente, por um custo de US$ 5. Outro serviço chamado D-ID, por US$ 5.99 por mês, gerava um vídeo baseado apenas em um roteiro e uma única fotografia. Ele até usou o ChatGPT para criar o próprio script.

Quando os deepfakes começaram a surgir, o foco principal estava em vídeos políticos falsos (e pornografia falsa). Desde então, o mundo viu:

  • BuzzFeedVideos cria um anúncio de serviço público falso e profundo “apresentando” Barack Obama, personificado pelo ator Jordon Peele.
  • Um vídeo profundamente falso do YouTube que pretende mostrar Donald Trump contando uma história sobre uma rena.
  • Um vídeo profundamente falso de Hilary Clinton mostrado no Saturday Night Live, quando ela estava na verdade sendo representada por um membro do elenco.

Embora estes exemplos mostrem o lado “divertido” dos deepfakes e talvez forneçam um choque de realidade quanto às capacidades da tecnologia, os fraudadores não perderam tempo em usá-los para fins nefastos. 

Os exemplos reais de fraude, perpetuados por meio de técnicas deepfake, são muitos.

As perdas devido a golpes falsos profundos variam de centenas de milhares a muitos milhões. Em 2021, um esquema de clonagem de voz de IA foi usado para organizar transferências bancárias fraudulentas de US$ 35 milhões. Esta foi uma enorme recompensa financeira que nem sequer requerer o uso de vídeo.

A qualidade da saída da IA, especialmente do vídeo, pode variar enormemente. Alguns vídeos são obviamente falsos para humanos. Mas, como referido acima, os sistemas automatizados, como os utilizados pelos bancos e pelas fintech, revelaram-se facilmente enganados no passado.

É provável que o equilíbrio mude ainda mais à medida que as capacidades de IA continuam a melhorar. Um desenvolvimento recente é uma incorporação de “contra-análise forense”, onde “ruído” invisível direcionado é adicionado a falsificações profundas, em uma tentativa de enganar os mecanismos de detecção.

Então, o que pode ser feito?

Assim como os fraudadores procuram usar a mais recente tecnologia de IA para obter ganhos financeiros, empresas como as de tecnologia estão trabalhando arduamente para encontrar maneiras de utilizar a tecnologia para capturar criminosos.

Aqui estão alguns exemplos de empresas que usam IA para combater a IA:

No final de 2022, a Intel lançou uma ferramenta baseada em IA chamada “FakeCatcher”. Com a taxa de confiabilidade relatada pela Intel de 96%, ela usa uma tecnologia conhecida como fotopletismografia (PPG).

A tecnologia faz uso de algo que não está presente nos vídeos gerados artificialmente: o fluxo sanguíneo. Treinado em vídeos legítimos, seu algoritmo de aprendizado profundo mede a luz que é absorvida ou refletida pelos vasos sanguíneos, que mudam de cor conforme o sangue se move pelo corpo.

O FakeCatcher, parte da iniciativa Responsible AI da Intel, é descrito como “o primeiro detector profundo de falsificações em tempo real do mundo que retorna resultados em milissegundos”. É uma tecnologia inovadora que procura sinais de que a pessoa mostrada num vídeo é verdadeiramente humana. Procura algo que está “certo”, em vez de analisar dados para destacar algo que está “errado”. É assim que indica a probabilidade de uma falsificação.

Enquanto isso, cientistas da computação da Universidade de Buffalo (UB) têm trabalhado em uma tecnologia própria de detecção de deepfake. Ele usa algo que os jogadores ávidos de PC sabem que requer imenso poder de processamento para emular: luz.

Afirmada pela UB como sendo 94% eficaz em fotos falsas, a ferramenta de IA analisa como a luz reflete nos olhos do sujeito. A superfície da córnea atua como um espelho e gera “padrões reflexivos”.

O estudo dos cientistas, intitulado “Expondo rostos gerados por GAN usando realces especulares corneanos inconsistentes”, indica que “rostos sintetizados por GAN podem ser expostos com realces especulares corneanos inconsistentes entre dois olhos”.

Sugere que seria “não trivial” para os sistemas de IA emular os destaques genuínos. Os jogadores de PC, que frequentemente investem nas mais recentes placas gráficas com ray tracing para experimentar efeitos de iluminação realistas, reconhecerão instintivamente os desafios aqui.

Talvez o maior desafio na detecção de fraudes seja o interminável jogo de “gato e rato” entre os fraudadores e aqueles que trabalham para frustrá-los. É altamente provável, na sequência de anúncios como os acima, que as pessoas já estejam a trabalhar na construção de tecnologias que possam contornar e vencer tais mecanismos de detecção.

Uma coisa também é que tais mecanismos existam, outra é vê-los integrados rotineiramente nas soluções que as empresas utilizam. Anteriormente, referimo-nos a uma estatística que sugeria que 90% das soluções podem ser “facilmente enganadas”. A probabilidade é que pelo menos algumas instituições financeiras ainda utilizem tais sistemas.

Um sábio monitoramento de fraude A estratégia exige que as empresas olhem além da detecção das próprias falsificações profundas. Muito pode ser feito antes um fraudador chega longe o suficiente em um sistema para participar de uma verificação de identidade baseada em vídeo ou de um processo KYC. As precauções que ocorrem no início do processo também podem envolver um elemento de IA e aprendizado de máquina.

Por exemplo, a aprendizagem automática pode ser utilizada tanto para monitorização de fraudes em tempo real como para a criação de conjuntos de regras. Eles podem analisar eventos históricos de fraude, detectando padrões que poderiam facilmente passar despercebidos por um ser humano. As transações consideradas de alto risco podem ser rejeitadas imediatamente ou aprovadas para revisão manual antes mesmo de chegar uma fase em que pode haver uma verificação de identidade – e, portanto, uma oportunidade para um fraudador fazer uso de tecnologia deepfake.

Quanto mais cedo um sistema detectar um cibercriminoso, melhor. Há menos chances de eles perpetuarem um crime e menos de a empresa gastar em verificações adicionais. As verificações de identidade baseadas em vídeo são caras, mesmo sem a incorporação de tecnologia de IA para detectar falsificações profundas.

Se os fraudadores puderem ser identificados antes de chegarem tão longe, com técnicas como a pegada digital, sobrarão mais recursos disponíveis para otimizar as verificações de casos mais fronteiriços.

A própria natureza do aprendizado de máquina deve ditar que, com o tempo, ele se torne melhor na detecção de anomalias e no combate à fraude. Os sistemas alimentados por IA podem aprender com novos padrões e potencialmente filtrar transações fraudulentas numa fase inicial do processo.

Quando se trata especificamente de deepfakes, o exemplo acima dá um motivo específico para esperança. Os cientistas encontraram uma maneira de detectar a grande maioria dos deepfakes usando reflexos de luz. Desenvolvimentos como este representam um avanço considerável na prevenção da fraude e um obstáculo considerável para os cibercriminosos.

Em teoria, é muito mais fácil implantar essa tecnologia de detecção do que para os fraudadores encontrar uma maneira de contorná-la – replicando o comportamento da luz, por exemplo, em velocidade e em escala. O jogo do “gato e do rato” parece provavelmente continuar eternamente, mas as grandes tecnologias e as grandes finanças têm os recursos e os bolsos fundos para – pelo menos em teoria – ficarem um pequeno passo à frente.
 
 
Jimmy Fong é o CCO da SEON e traz sua profunda experiência no combate à fraude para ajudar equipes antifraude em todos os lugares.
 

Carimbo de hora:

Mais de KDnuggetsGenericName