În 2024, fraudele online sunt mai răspândite ca niciodată, iar riscurile pentru persoane și companii au atins niveluri fără precedent.
La începutul acestui an, Interpol a lansat raportul său din 2023 despre fraudele financiare. În acest raport, experții subliniază că utilizarea tot mai mare a tehnologiei a permis grupărilor de crima organizată să țintească victimele din întreaga lume mai eficient. Raportul detaliază modul în care integrarea Inteligenței Artificiale (IA), a modelelor lingvistice mari și a criptomonedelor cu modelele de afaceri de phishing și ransomware ca serviciu a facilitat dezvoltarea unor campanii de fraudă mai avansate și mai profesioniste. Aceste campanii pot fi realizate cu abilități tehnice minime și la un cost relativ scăzut.
Pe măsură ce fraudele devin tot mai sofisticate, metodele de combatere a acestora trebuie și ele să evolueze. De aceea, astăzi IA este un component crucial în arsenalul pentru protecția împotriva escrocilor.
Pasul de identificare este extrem de important în procesele de înregistrare a clienților. De obicei, acest proces se desfășoară în două etape: prima presupune filmarea documentului de identitate, iar a doua presupune înregistrarea unui video al persoanei pentru a se asigura că proprietarul documentului este cel care completează procesul.
Există numeroase fraude posibile în aceste două etape, cele mai comune fiind falsificarea documentelor și manipularea selfie-urilor, în special prin deepfake-uri.
Pentru detectarea falsificării documentelor, pot fi utilizate diferite modele de IA pentru a identifica inconsistențele dintre documentul trimis și modelul standard al documentului, inclusiv aspecte precum fundalul, fontul și elementele de securitate. Aceste modele de învățare profundă sunt antrenate pe milioane de documente și pot detecta modificări foarte subtile ale acestora.
În ceea ce privește deepfake-urile, tehnologia avansează rapid, facilitând crearea lor și făcând detectarea lor din ce în ce mai dificilă. De exemplu, în aprilie, Microsoft Research a dezvăluit noul său model de generare de avataruri virtuale în timp real numit VASA-1. Pe baza unei singure fotografii și a unui clip audio, acest model poate genera un videoclip extrem de realist cu sincronizare a buzelor și expresii faciale uimitor de realiste.
Deși IA poate fi utilizată pentru a detecta deepfake-urile, cum ar fi identificarea inconsistențelor în texte, umbre sau mișcări ciudate, nu este singura soluție de luat în considerare. Generarea de deepfake-uri se bazează pe modele GAN („Generative Adversarial Network”), care includ un model ce detectează deepfake-urile prost generate pentru ca modelul principal să învețe să genereze imagini mai realiste. Prin urmare, generatoarele de deepfake sunt antrenate pentru a înșela IA destinată să le detecteze.
De aceea, este necesară o abordare hibridă, care combină IA cu mecanisme ce previn injecția de videoclipuri generate acum de captură biometrică.
Lupta împotriva fraudelor online este o bătălie continuă care necesită adaptare constantă și implementarea de tehnologii de ultimă oră. Prin adoptarea unei abordări hibride care combină capabilitățile IA cu măsuri de securitate proactive, putem proteja mai bine persoanele și afacerea de amenințările în continuă evoluție ale fraudelor online.