Fortificarsi contro le frodi: il ruolo cruciale dell’AI e degli approcci ibridi nel 2024

Avatar David Emo
Head of Identity & Onboarding

Le frodi online continuano a crescere, raggiungendo livelli senza precedenti sia per diffusione che per sofisticazione, e i rischi per individui e aziende si fanno sempre più pressanti. 

Secondo il rapporto 2023 sulle frodi finanziarie pubblicato da Interpol, l’uso intensivo della tecnologia consente ai gruppi criminali di colpire le vittime con maggiore precisione in tutto il mondo. Il documento evidenzia come l’integrazione di AI, modelli linguistici avanzati e criptovalute nei business model di phishing e ransomware-as-a-service abbia reso possibili campagne fraudolente estremamente sofisticate. Queste campagne possono essere realizzate con competenze tecniche minime e a costi relativamente bassi. 

Con l’evoluzione delle frodi, anche i metodi per combatterle devono adattarsi. L’AI è oggi una risorsa fondamentale per contrastare i truffatori, soprattutto nelle fasi critiche come l’onboarding dei clienti. 

Durante il processo di onboarding, la fase di identificazione si articola generalmente in due momenti chiave: la registrazione di un video del documento d’identità e la registrazione di un video selfie per verificare che chi presenta il documento sia effettivamente il suo proprietario. 

Tuttavia, queste fasi possono essere vulnerabili a diversi tipi di frodi, come la falsificazione dei documenti e la manipolazione dei selfie, in particolare tramite deepfake. 

Per rilevare la falsificazione dei documenti, l’AI utilizza modelli avanzati capaci di identificare discrepanze tra il documento inviato e i modelli standard, analizzando aspetti come sfondi, caratteri e elementi di sicurezza. Grazie a milioni di documenti utilizzati per l’addestramento, i modelli di deep learning sono in grado di individuare anche le più piccole alterazioni. 

Nel caso dei deepfake, la tecnologia sta avanzando rapidamente. Un esempio è VASA-1, un modello di generazione di avatar virtuali in tempo reale sviluppato da Microsoft Research, che utilizza una singola foto e un clip audio per creare video estremamente realistici con sincronizzazione labiale ed espressioni facciali dettagliate. 

Sebbene l’AI sia efficace nel rilevare deepfake individuando incongruenze nelle trame, ombre o movimenti, non rappresenta una soluzione definitiva. I deepfake vengono generati tramite reti GAN (“Generative Adversarial Network”), che includono un modello discriminatore progettato per rilevare errori e aiutare il generatore a migliorare la propria capacità di creare immagini realistiche. Di conseguenza, i generatori di deepfake diventano sempre più abili nell’ingannare l’AI. 

Per questo motivo, un approccio ibrido è essenziale. Combinare l’AI con sistemi in grado di prevenire l’uso di video generati attraverso cattura biometrica rappresenta un passo avanti nella protezione contro le frodi. 

La lotta contro le frodi online è una sfida continua che richiede tecnologie sempre più avanzate e strategie innovative. Integrando le capacità dell’AI con misure di sicurezza proattive, è possibile proteggere in modo più efficace persone e aziende dalle minacce in continua evoluzione del panorama digitale. 

Avatar David Emo
Head of Identity & Onboarding