Fortaleciendo la lucha contra el fraude: el papel crucial de la IA y los enfoques híbridos en 2024

Avatar de David Emo
Head of Identity & Onboarding

En 2024, el fraude en línea es más prevalente que nunca, y los riesgos para individuos y empresas han alcanzado niveles sin precedentes. 

A principios de este año, Interpol publicó su informe de 2023 sobre fraude financiero. En este informe, los expertos destacan que el creciente uso de la tecnología ha permitido que los grupos de crimen organizado apunten de manera más eficaz a las víctimas en todo el mundo. El informe detalla cómo la integración de la Inteligencia Artificial (IA), los modelos de lenguaje de gran escala y las criptomonedas con los modelos de negocio de phishing y ransomware como servicio ha facilitado el desarrollo de campañas de fraude más avanzadas y profesionales. Estas campañas pueden llevarse a cabo con habilidades técnicas mínimas y a un costo relativamente bajo. 

A medida que el fraude se vuelve más sofisticado, los métodos para combatirlo también deben evolucionar. Por eso, la IA es hoy un componente crucial en el arsenal para protegerse contra los defraudadores. 

El paso de identificación es fundamental durante los procesos de incorporación de clientes. Normalmente, esto se lleva a cabo en dos etapas: la primera consiste en tomar un video del documento de identidad, y la segunda consiste en grabar un video de la persona para garantizar que el propietario del documento es quien está completando el proceso. 

Existen numerosos fraudes potenciales durante estas dos etapas, siendo los principales la falsificación de documentos y la manipulación de selfies, especialmente a través de los deepfakes. 

Para detectar la falsificación de documentos, se pueden emplear diversos modelos de IA para identificar inconsistencias entre el documento enviado y el modelo estándar del documento, incluidos aspectos como el fondo, la fuente y los elementos de seguridad. Estos modelos de aprendizaje profundo se entrenan con millones de documentos y pueden detectar modificaciones muy sutiles en los documentos. 

En cuanto a los deepfakes, la tecnología avanza rápidamente, facilitando su creación y haciendo cada vez más difícil su detección. Por ejemplo, en abril, Microsoft Research presentó su nuevo modelo de generación de avatares virtuales en tiempo real llamado VASA-1. Basado en una sola foto y un clip de audio, este modelo puede generar un video extremadamente realista con sincronización labial y expresiones faciales sorprendentemente realistas. 

Aunque la IA puede usarse para detectar deepfakes, como identificar inconsistencias en texturas, sombras o movimientos extraños, no es la única solución a considerar. La generación de deepfakes se basa en modelos GAN («Generative Adversarial Network»), que incluyen un modelo que detecta deepfakes mal generados para que el modelo principal aprenda a generar imágenes más realistas. Por lo tanto, los generadores de deepfakes están intrínsecamente entrenados para engañar a la IA diseñada para detectarlos. 

Por esta razón, es necesario un enfoque híbrido que combine la IA con mecanismos que impidan la inyección de videos generados ahora de captura biométrica. 

La lucha contra el fraude en línea es una batalla constante que requiere una adaptación continua y el despliegue de tecnologías de vanguardia. Al adoptar un enfoque híbrido que combine las capacidades de la IA con medidas de seguridad proactivas, podemos proteger mejor a los individuos y empresas de las amenazas en constante evolución del fraude en línea. 

Avatar de David Emo
Head of Identity & Onboarding