Renforcer la lutte contre la fraude : le rôle crucial de l’IA et des approches hybrides en 2024

Avatar de David Emo
Head of Identity & Onboarding

En 2024, la fraude en ligne est plus répandue que jamais, et les risques pour les individus et les entreprises ont atteint des niveaux sans précédent. 

Plus tôt cette année, Interpol a publié son rapport 2023 sur la fraude financière. Dans ce rapport, les experts soulignent que l’utilisation croissante de la technologie a permis aux groupes de criminalité organisée de cibler plus efficacement les victimes à l’échelle mondiale. Le rapport détaille comment l’intégration de l’Intelligence Artificielle (IA), des grands modèles linguistiques et des cryptomonnaies avec des modèles commerciaux de phishing et de ransomware-as-a-service a facilité le développement de campagnes de fraude plus avancées et professionnelles. Ces campagnes peuvent être menées avec des compétences techniques minimales et à un coût relativement faible. 

Alors que la fraude devient de plus en plus sophistiquée, les méthodes pour la combattre doivent également évoluer. C’est pourquoi l’IA est aujourd’hui un élément crucial dans l’arsenal de protection contre les fraudeurs. 

L’étape d’identification est cruciale lors des processus d’onboarding client. En général, ce processus se déroule en deux étapes : la première consiste à filmer le document d’identité, et la deuxième consiste à enregistrer une vidéo de soi-même pour s’assurer que le propriétaire du document est bien la personne qui termine le processus. 

Il existe de nombreuses fraudes potentielles pendant ces deux étapes, les principales étant la falsification de documents et la manipulation des selfies, notamment à travers les deepfakes. 

Pour détecter la falsification de documents, divers modèles d’IA peuvent être utilisés pour identifier des incohérences entre le document soumis et le modèle standard du document, en prenant en compte des aspects tels que le fond, la police et les éléments de sécurité. Ces modèles d’apprentissage profond sont formés sur des millions de documents et peuvent détecter des modifications très subtiles dans les documents. 

En ce qui concerne les deepfakes, la technologie progresse rapidement, facilitant leur création et rendant leur détection de plus en plus difficile. Par exemple, en avril, Microsoft Research a dévoilé son nouveau modèle de génération d’avatar virtuel en temps réel appelé VASA-1. Sur la base d’une seule photo et d’un clip audio, ce modèle peut générer une vidéo extrêmement réaliste avec synchronisation labiale et des expressions faciales étonnamment réalistes. 

Bien que l’IA puisse être utilisée pour détecter les deepfakes, par exemple en identifiant des incohérences dans les textures, les ombres ou les mouvements étranges, ce n’est pas la seule solution à envisager. La génération de deepfakes repose sur des modèles GAN (« Generative Adversarial Network »), qui incluent un modèle qui détecte les deepfakes mal générés afin que le modèle principal apprenne à générer des images plus réalistes. Par conséquent, les générateurs de deepfakes sont intrinsèquement formés pour tromper l’IA conçue pour les détecter. 

C’est pourquoi une approche hybride est nécessaire, combinant l’IA avec des mécanismes empêchant l’injection de vidéos générées, désormais issues de la capture biométrique. 

La lutte contre la fraude en ligne est une bataille permanente qui nécessite une adaptation continue et le déploiement de technologies de pointe. En adoptant une approche hybride qui combine les capacités de l’IA avec des mesures de sécurité proactives, nous pouvons mieux protéger les individus et les entreprises contre les menaces toujours croissantes posées par la fraude en ligne. 

Avatar de David Emo
Head of Identity & Onboarding