Fortalecendo a luta contra fraudes: o papel crucial da IA e das abordagens híbridas em 2024

David Emo Avatar
Head of Identity & Onboarding

Em 2024, as fraudes online são mais prevalentes do que nunca, e os riscos para indivíduos e empresas atingiram níveis sem precedentes. 

No início deste ano, a Interpol divulgou seu relatório de 2023 sobre fraudes financeiras. Neste relatório, os especialistas destacam que o uso crescente da tecnologia permitiu que os grupos de crime organizado mirassem mais eficazmente as vítimas em todo o mundo. O relatório detalha como a integração da Inteligência Artificial (IA), dos grandes modelos de linguagem e das criptomoedas com modelos de negócios de phishing e ransomware como serviço facilitou o desenvolvimento de campanhas de fraude mais avançadas e profissionais. Essas campanhas podem ser realizadas com habilidades técnicas mínimas e a um custo relativamente baixo. 

À medida que as fraudes se tornam mais sofisticadas, os métodos para combatê-las também precisam evoluir. É por isso que a IA é hoje um componente crucial no arsenal para proteger contra os fraudadores. 

A etapa de identificação é fundamental durante os processos de integração de clientes. Normalmente, isso ocorre em duas etapas: a primeira envolve tirar um vídeo do documento de identidade e a segunda envolve gravar um vídeo da pessoa para garantir que o proprietário do documento seja quem está completando o processo. 

Existem inúmeras fraudes potenciais durante essas duas etapas, sendo as principais a falsificação de documentos e a manipulação de selfies, especialmente por meio de deepfakes. 

Para detectar a falsificação de documentos, podem ser usados vários modelos de IA para identificar inconsistências entre o documento enviado e o modelo padrão do documento, incluindo aspectos como fundo, fonte e elementos de segurança. Esses modelos de deep learning são treinados com milhões de documentos e podem detectar pequenas alterações nos documentos. 

Em relação aos deepfakes, a tecnologia está avançando rapidamente, tornando sua criação mais fácil e sua detecção cada vez mais difícil. Por exemplo, em abril, a Microsoft Research revelou seu novo modelo de geração de avatares virtuais em tempo real chamado VASA-1. Com base em uma única foto e um clipe de áudio, esse modelo pode gerar um vídeo extremamente realista com sincronização labial e expressões faciais impressionantemente realistas. 

Embora a IA possa ser usada para detectar deepfakes, como identificar inconsistências em texturas, sombras ou movimentos estranhos, não é a única solução a ser considerada. A geração de deepfakes depende de modelos GAN (“Generative Adversarial Network”), que incluem um modelo que detecta deepfakes mal gerados para que o modelo principal aprenda a gerar imagens mais realistas. Portanto, os geradores de deepfakes são treinados para enganar a IA projetada para detectá-los. 

É por isso que é necessária uma abordagem híbrida, combinando a IA com mecanismos que impeçam a injeção de vídeos gerados agora de captura biométrica. 

A luta contra fraudes online é uma batalha constante que exige adaptação contínua e o uso de tecnologias de ponta. Ao adotar uma abordagem híbrida que combine as capacidades da IA com medidas de segurança proativas, podemos proteger melhor indivíduos e empresas contra as ameaças em constante evolução das fraudes online.

Última modificação:

Compartilhe esta postagem

David Emo Avatar
Head of Identity & Onboarding