Aktuelles, Branche, Gastbeiträge - geschrieben von am Dienstag, Oktober 14, 2025 14:46 - noch keine Kommentare

KI-basierte Betrugsmethoden: Wenn Deepfakes zur Waffe werden

Künstliche Intelligenz (KI) wird zunehmend zur Waffe in den Händen von Kriminellen. Während wir noch über die Chancen der Digitalisierung diskutieren, nutzen Betrüger bereits hoch entwickelte KI-Tools, um perfekte Fälschungen zu erstellen, die selbst Experten täuschen können und eine Herausforderung für Ermittler und Unternehmen darstellen

Von unserem Gastautor Pavel Goldman-Kalaydin, Head of Artificial Intelligence and Machine Learning bei Sumsub

[datensicherheit.de, 14.10.2025] Die Zahlen sprechen eine eindeutige Sprache: Laut des Sumsub Identity Fraud Reports machten Deepfake-basierte Betrugsfälle bereits 2024 sieben Prozent aller weltweiten Betrugsversuche aus, was einer Vervierfachung innerhalb nur eines Jahres entspricht. Deutschland erlebt dabei eine besonders dramatische Entwicklung, wie Daten aus dem ersten Quartal 2025 zeigen. Hierzulande explodierten die Deepfake-Betrugsversuche um erschreckende 1.100 Prozent gegenüber dem Vorjahreszeitraum.

Pavel Goldman-Kalaydin, Head of Artificial Intelligence and Machine Learning bei Sumsub

Pavel Goldman-Kalaydin, Head of Artificial Intelligence and Machine Learning bei Sumsub, Bild: Sumsub

Wenn Technologie zur perfekten Illusion wird

Hinter diesen Zahlen verbirgt sich eine technologische Revolution für Betrüger. Moderne KI-Systeme – von Generative Adversarial Networks bis hin zu Diffusion Models – können mittlerweile Videos, Bilder und Audioaufnahmen erzeugen, die von der Realität praktisch nicht zu unterscheiden sind. Sie analysieren vorhandenes Material, extrahieren charakteristische Muster und erschaffen daraus völlig neue, aber scheinbar authentische Inhalte.

Das Resultat sind Fälschungen von erschreckender Perfektion. Gesichtsausdrücke, Stimmfarbe und sogar individuelle Sprechgewohnheiten werden so präzise nachgeahmt, dass selbst nahestehende Personen getäuscht werden. Der spektakuläre Fall aus dem Jahr 2024 macht das Ausmaß deutlich. Damals überwies ein Angestellter 25 Millionen US-Dollar an Betrüger, nachdem er in einer Videokonferenz mit seinem vermeintlichen CEO entsprechende Anweisungen erhalten hatte.

Synthetische Identitäten: Der unsichtbare Diebstahl

Parallel zu Deepfakes entwickelt sich mit gefälschten Identitätsdokumenten eine weitere Bedrohungsdimension. Deutschland steht, mit einem Anstieg von 567 Prozent bei synthetischen Ausweisdokumenten, laut Daten von Sumsub europaweit an der Spitze eines beunruhigenden Trends. Diese Fälschungen kombinieren geschickt gestohlene, authentische Daten mit KI-generierten Elementen und schaffen so Identitäten, die in herkömmlichen Prüfverfahren als echt durchgehen.

Die gesellschaftlichen Auswirkungen reichen weit über einzelne Betrugsdelikte hinaus. Wenn KI-generierte Inhalte in sozialen Medien kursieren, entstehen neue Formen der Desinformation. Gefälschte Aussagen von Politikern oder anderen öffentlichen Personen können demokratische Prozesse beeinflussen und das Vertrauen in authentische Informationen untergraben.

Verteidigungsstrategien für die digitale Ära

Unternehmen sind diesem Trend jedoch nicht schutzlos ausgeliefert. Ein effektiver Schutz basiert auf einem mehrschichtigen Ansatz, der technologische Innovation mit organisatorischen Vorsichtsmaßnahmen verbindet.

Moderne KI-basierte Erkennungssysteme können Deepfakes anhand subtiler Bildunregelmäßigkeiten und Tonartefakte identifizieren und das oft zuverlässiger als das menschliche Auge. Liveness-Detection-Technologien unterscheiden zwischen echten Gesichtern und digitalen Nachbildungen, während Behavioral Analytics ungewöhnliche Nutzeraktivitäten aufspürt. Besonders wertvoll ist die Fraud Network Detection, die zusammenhängende Betrugsmuster erkennt und kriminelle Netzwerke frühzeitig entlarvt.

Doch Technologie allein reicht nicht aus. Mitarbeiter müssen für die neuen Bedrohungen sensibilisiert werden. Verdächtige Kommunikation, etwa plötzliche Zahlungsaufforderungen per Video oder ungewöhnliche Anrufe, sollte grundsätzlich über einen zweiten Kanal verifiziert werden. Zusätzliche Genehmigungsverfahren bei größeren Transaktionen schaffen weitere Sicherheitsbarrieren.

Ermittlungsbehörden rüsten auf

Auch die Strafverfolgung passt sich an die neuen Herausforderungen an. Internationale Organisationen wie Interpol entwickeln spezialisierte forensische Methoden für das digitale Zeitalter. Dazu gehören die Analyse von Metadaten zur Aufdeckung von Manipulationshistorien, Reverse Image Searching zur Identifikation von Originalquellen und linguistische Analysen zur Erkennung von Textanomalien.

Besonders vielversprechend sind KI-gestützte Erkennungsmodelle, die visuelle und akustische Unregelmäßigkeiten aufspüren, die für Menschen unsichtbar bleiben. Explainable AI-Systeme gehen noch einen Schritt weiter: Sie erklären nicht nur, dass eine Datei manipuliert wurde, sondern auch warum.

Rechtliche Herausforderungen und der „Liar’s Dividend“

Trotz technologischer Fortschritte bleiben rechtliche Hürden bestehen. Die Gesetzgebung hinkt der rasanten technischen Entwicklung hinterher, und Deepfake-Opfer haben oft Schwierigkeiten, sich zu wehren. Besonders problematisch wird das Phänomen des „Liar’s Dividend“. Die bloße Existenz von Deepfake-Technologie könnte dazu führen, dass selbst authentisches Beweismaterial als potenzielle Fälschung diskreditiert wird.

Der Weg nach vorn

Die Bekämpfung KI-basierter Bedrohungen erfordert eine koordinierte Antwort auf mehreren Ebenen. Strafverfolgungsbehörden müssen kontinuierlich ihre technischen Fähigkeiten ausbauen und in die Ausbildung ihrer Mitarbeiter investieren. Gleichzeitig ist eine verstärkte Kooperation zwischen öffentlichen Institutionen, Wissenschaft und Privatwirtschaft unerlässlich.

Private Unternehmen, die täglich Deepfakes und gefälschte Dokumente analysieren, verfügen oft über fortgeschrittenere Erkennungstechnologien als staatliche Stellen. Diese Expertise muss gezielt genutzt werden, um umfassende Abwehrstrategien zu entwickeln.

Letztendlich geht es um mehr als nur technologische Lösungen. Gesellschaftliches Bewusstsein für die Risiken synthetischer Medien, klare regulatorische Rahmenbedingungen und eine kontinuierliche Anpassung an neue Bedrohungen sind gleichermaßen wichtig. Nur durch einen ganzheitlichen Ansatz können wir die Vorteile der KI-Revolution nutzen, ohne ihren Missbrauch zu ermöglichen.

Die Zukunft wird zeigen, ob wir als Gesellschaft schnell genug lernen, mit diesen neuen Realitäten umzugehen oder ob uns die Technologie einen Schritt voraus bleibt.

Über den Autor

Pavel Goldman-Kalaydin ist Head of Artificial Intelligence and Machine Learning bei Sumsub, einer globaren Full-Cycle-Verifizierungsplattform. Mit einem umfassenden Hintergrund in der Softwareentwicklung ist Pavel seit über zehn Jahren im Bereich Künstliche Intelligenz und Machine Learning tätig. Bei Sumsub leitet er die Entwicklung von Technologien zur Prävention digitaler Betrugsversuche.

Weitere Informationen zum Thema:

datensicherheit.de, 23.09.2025
Bildungswesen im KI-Visier Cyberkrimineller: Klassenzimmern droht Rückfall in Offline-Modus

datensicherheit.de, 10.07.2025
KI droht zur größten Cyberbedrohung zu werden



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung