Stärkung gegen Betrug: die entscheidende Rolle von KI und hybriden Ansätzen im Jahr 2024

Avatar von David Emo
Head of Identity & Onboarding

Im Jahr 2024 ist Online-Betrug verbreiteter denn je und die Risiken für Einzelpersonen und Unternehmen haben ein beispielloses Niveau erreicht. 

Zu Beginn dieses Jahres veröffentlichte Interpol ihren Bericht 2023 über Finanzbetrug. In diesem Bericht betonen Expert:innen, dass die zunehmende Nutzung von Technologie es organisierten Kriminalitätsgruppen ermöglicht hat, ihre Opfer weltweit effektiver ins Visier zu nehmen. Der Bericht beschreibt, wie die Integration von Künstlicher Intelligenz (KI), großen Sprachmodellen und Kryptowährungen mit Phishing- und Ransomware-as-a-Service-Geschäftsmodellen die Entwicklung fortschrittlicherer und professionellerer Betrugs-Kampagnen erleichtert hat. Diese Kampagnen können mit minimalen technischen Fähigkeiten und zu relativ niedrigen Kosten durchgeführt werden. 

Da der Betrug immer raffinierter wird, müssen auch die Methoden zu seiner Bekämpfung weiterentwickelt werden. Deshalb ist KI heute ein entscheidender Bestandteil im Arsenal zum Schutz vor Betrüger:innen. 

Der Identifikationsschritt ist bei der Kundenregistrierung von entscheidender Bedeutung. Normalerweise erfolgt dieser in zwei Phasen: Die erste umfasst die Aufnahme eines Videos des Ausweisdokuments, die zweite die Aufnahme eines Videos der Person selbst, um sicherzustellen, dass der Besitzer des Dokuments derjenige ist, der den Prozess abschließt. 

Es gibt zahlreiche potenzielle Betrügereien während dieser beiden Phasen, wobei die Hauptprobleme die Dokumentenfälschung und die Manipulation von Selfies sind, insbesondere durch Deepfakes. 

Um Dokumentenfälschungen zu erkennen, können verschiedene KI-Modelle eingesetzt werden, um Inkonsistenzen zwischen dem eingereichten Dokument und dem Standardmodell des Dokuments zu identifizieren, einschließlich Aspekten wie Hintergrund, Schriftart und Sicherheitsmerkmalen. Diese Deep-Learning-Modelle werden mit Millionen von Dokumenten trainiert und können sehr kleine Änderungen in den Dokumenten erkennen. 

In Bezug auf Deepfakes entwickelt sich die Technologie rasant, wodurch deren Erstellung erleichtert und ihre Erkennung zunehmend schwieriger wird. Zum Beispiel stellte Microsoft Research im April sein neues Modell zur Echtzeit-Avatar-Generierung namens VASA-1 vor. Basierend auf einem einzigen Foto und einem Audio-Clip kann dieses Modell ein äußerst realistisches Video mit Lippen-Synchronisation und bemerkenswert realistischen Gesichtsausdrücken erzeugen. 

Obwohl KI verwendet werden kann, um Deepfakes zu erkennen, beispielsweise durch das Identifizieren von Inkonsistenzen in Texturen, Schatten oder seltsamen Bewegungen, ist dies nicht die einzige Lösung, die in Betracht gezogen werden muss. Die Erzeugung von Deepfakes basiert auf GAN-Modellen („Generative Adversarial Network“), die ein Modell beinhalten, das schlecht generierte Deepfakes erkennt, damit das Hauptmodell lernt, realistischere Bilder zu erzeugen. Daher sind Deepfake-Generatoren von Natur aus darauf trainiert, die KI zu täuschen, die darauf abzielt, sie zu erkennen. 

Deshalb ist ein hybrider Ansatz notwendig, der KI mit Mechanismen kombiniert, die verhindern, dass nun generierte Videos in biometrischen Erfassungen injiziert werden. 

Der Kampf gegen Online-Betrug ist eine andauernde Auseinandersetzung, die kontinuierliche Anpassung und den Einsatz modernster Technologien erfordert. Durch die Annahme eines hybriden Ansatzes, der die KI-Fähigkeiten mit proaktiven Sicherheitsmaßnahmen kombiniert, können wir Einzelpersonen und Unternehmen besser vor den sich ständig weiterentwickelnden Bedrohungen durch Online-Betrug schützen. 

Avatar von David Emo
Head of Identity & Onboarding