Aktuelles, Branche, Gastbeiträge - geschrieben von cp am Dienstag, Oktober 14, 2025 14:46 - noch keine Kommentare
KI-basierte Betrugsmethoden: Wenn Deepfakes zur Waffe werden
Künstliche Intelligenz (KI) wird zunehmend zur Waffe in den Händen von Kriminellen. Während wir noch über die Chancen der Digitalisierung diskutieren, nutzen Betrüger bereits hoch entwickelte KI-Tools, um perfekte Fälschungen zu erstellen, die selbst Experten täuschen können und eine Herausforderung für Ermittler und Unternehmen darstellen
Von unserem Gastautor Pavel Goldman-Kalaydin, Head of Artificial Intelligence and Machine Learning bei Sumsub
[datensicherheit.de, 14.10.2025] Die Zahlen sprechen eine eindeutige Sprache: Laut des Sumsub Identity Fraud Reports machten Deepfake-basierte Betrugsfälle bereits 2024 sieben Prozent aller weltweiten Betrugsversuche aus, was einer Vervierfachung innerhalb nur eines Jahres entspricht. Deutschland erlebt dabei eine besonders dramatische Entwicklung, wie Daten aus dem ersten Quartal 2025 zeigen. Hierzulande explodierten die Deepfake-Betrugsversuche um erschreckende 1.100 Prozent gegenüber dem Vorjahreszeitraum.

Pavel Goldman-Kalaydin, Head of Artificial Intelligence and Machine Learning bei Sumsub, Bild: Sumsub
Wenn Technologie zur perfekten Illusion wird
Hinter diesen Zahlen verbirgt sich eine technologische Revolution für Betrüger. Moderne KI-Systeme – von Generative Adversarial Networks bis hin zu Diffusion Models – können mittlerweile Videos, Bilder und Audioaufnahmen erzeugen, die von der Realität praktisch nicht zu unterscheiden sind. Sie analysieren vorhandenes Material, extrahieren charakteristische Muster und erschaffen daraus völlig neue, aber scheinbar authentische Inhalte.
Das Resultat sind Fälschungen von erschreckender Perfektion. Gesichtsausdrücke, Stimmfarbe und sogar individuelle Sprechgewohnheiten werden so präzise nachgeahmt, dass selbst nahestehende Personen getäuscht werden. Der spektakuläre Fall aus dem Jahr 2024 macht das Ausmaß deutlich. Damals überwies ein Angestellter 25 Millionen US-Dollar an Betrüger, nachdem er in einer Videokonferenz mit seinem vermeintlichen CEO entsprechende Anweisungen erhalten hatte.
Synthetische Identitäten: Der unsichtbare Diebstahl
Parallel zu Deepfakes entwickelt sich mit gefälschten Identitätsdokumenten eine weitere Bedrohungsdimension. Deutschland steht, mit einem Anstieg von 567 Prozent bei synthetischen Ausweisdokumenten, laut Daten von Sumsub europaweit an der Spitze eines beunruhigenden Trends. Diese Fälschungen kombinieren geschickt gestohlene, authentische Daten mit KI-generierten Elementen und schaffen so Identitäten, die in herkömmlichen Prüfverfahren als echt durchgehen.
Die gesellschaftlichen Auswirkungen reichen weit über einzelne Betrugsdelikte hinaus. Wenn KI-generierte Inhalte in sozialen Medien kursieren, entstehen neue Formen der Desinformation. Gefälschte Aussagen von Politikern oder anderen öffentlichen Personen können demokratische Prozesse beeinflussen und das Vertrauen in authentische Informationen untergraben.
Verteidigungsstrategien für die digitale Ära
Unternehmen sind diesem Trend jedoch nicht schutzlos ausgeliefert. Ein effektiver Schutz basiert auf einem mehrschichtigen Ansatz, der technologische Innovation mit organisatorischen Vorsichtsmaßnahmen verbindet.
Moderne KI-basierte Erkennungssysteme können Deepfakes anhand subtiler Bildunregelmäßigkeiten und Tonartefakte identifizieren und das oft zuverlässiger als das menschliche Auge. Liveness-Detection-Technologien unterscheiden zwischen echten Gesichtern und digitalen Nachbildungen, während Behavioral Analytics ungewöhnliche Nutzeraktivitäten aufspürt. Besonders wertvoll ist die Fraud Network Detection, die zusammenhängende Betrugsmuster erkennt und kriminelle Netzwerke frühzeitig entlarvt.
Doch Technologie allein reicht nicht aus. Mitarbeiter müssen für die neuen Bedrohungen sensibilisiert werden. Verdächtige Kommunikation, etwa plötzliche Zahlungsaufforderungen per Video oder ungewöhnliche Anrufe, sollte grundsätzlich über einen zweiten Kanal verifiziert werden. Zusätzliche Genehmigungsverfahren bei größeren Transaktionen schaffen weitere Sicherheitsbarrieren.
Ermittlungsbehörden rüsten auf
Auch die Strafverfolgung passt sich an die neuen Herausforderungen an. Internationale Organisationen wie Interpol entwickeln spezialisierte forensische Methoden für das digitale Zeitalter. Dazu gehören die Analyse von Metadaten zur Aufdeckung von Manipulationshistorien, Reverse Image Searching zur Identifikation von Originalquellen und linguistische Analysen zur Erkennung von Textanomalien.
Besonders vielversprechend sind KI-gestützte Erkennungsmodelle, die visuelle und akustische Unregelmäßigkeiten aufspüren, die für Menschen unsichtbar bleiben. Explainable AI-Systeme gehen noch einen Schritt weiter: Sie erklären nicht nur, dass eine Datei manipuliert wurde, sondern auch warum.
Rechtliche Herausforderungen und der „Liar’s Dividend“
Trotz technologischer Fortschritte bleiben rechtliche Hürden bestehen. Die Gesetzgebung hinkt der rasanten technischen Entwicklung hinterher, und Deepfake-Opfer haben oft Schwierigkeiten, sich zu wehren. Besonders problematisch wird das Phänomen des „Liar’s Dividend“. Die bloße Existenz von Deepfake-Technologie könnte dazu führen, dass selbst authentisches Beweismaterial als potenzielle Fälschung diskreditiert wird.
Der Weg nach vorn
Die Bekämpfung KI-basierter Bedrohungen erfordert eine koordinierte Antwort auf mehreren Ebenen. Strafverfolgungsbehörden müssen kontinuierlich ihre technischen Fähigkeiten ausbauen und in die Ausbildung ihrer Mitarbeiter investieren. Gleichzeitig ist eine verstärkte Kooperation zwischen öffentlichen Institutionen, Wissenschaft und Privatwirtschaft unerlässlich.
Private Unternehmen, die täglich Deepfakes und gefälschte Dokumente analysieren, verfügen oft über fortgeschrittenere Erkennungstechnologien als staatliche Stellen. Diese Expertise muss gezielt genutzt werden, um umfassende Abwehrstrategien zu entwickeln.
Letztendlich geht es um mehr als nur technologische Lösungen. Gesellschaftliches Bewusstsein für die Risiken synthetischer Medien, klare regulatorische Rahmenbedingungen und eine kontinuierliche Anpassung an neue Bedrohungen sind gleichermaßen wichtig. Nur durch einen ganzheitlichen Ansatz können wir die Vorteile der KI-Revolution nutzen, ohne ihren Missbrauch zu ermöglichen.
Die Zukunft wird zeigen, ob wir als Gesellschaft schnell genug lernen, mit diesen neuen Realitäten umzugehen oder ob uns die Technologie einen Schritt voraus bleibt.
Über den Autor
Pavel Goldman-Kalaydin ist Head of Artificial Intelligence and Machine Learning bei Sumsub, einer globaren Full-Cycle-Verifizierungsplattform. Mit einem umfassenden Hintergrund in der Softwareentwicklung ist Pavel seit über zehn Jahren im Bereich Künstliche Intelligenz und Machine Learning tätig. Bei Sumsub leitet er die Entwicklung von Technologien zur Prävention digitaler Betrugsversuche.
Weitere Informationen zum Thema:
datensicherheit.de, 23.09.2025
Bildungswesen im KI-Visier Cyberkrimineller: Klassenzimmern droht Rückfall in Offline-Modus
datensicherheit.de, 10.07.2025
KI droht zur größten Cyberbedrohung zu werden
Aktuelles, Branche, Gastbeiträge - Okt. 14, 2025 14:46 - noch keine Kommentare
KI-basierte Betrugsmethoden: Wenn Deepfakes zur Waffe werden
weitere Beiträge in Experten
- Dirk Pinnow: Mein Fazit zur „it-sa“ 2025 – Weiterentwicklung mit Augenmaß angeraten
- BigBrotherAwards 2025 – „Oscars für Überwachung” als Gesprächsangebot
- „it-sa 2025“: NürnbergMesse meldet weitere Bestmarken
- Unternehmen auf Augenhöhe mit dem Datenschutz beim 5. Runden Tisch der rheinland-pfälzischen Wirtschaft
- Überwachungsfalle in Funknetzwerken: Spionierendes WLAN
Aktuelles, Branche, Gastbeiträge - Okt. 14, 2025 14:46 - noch keine Kommentare
KI-basierte Betrugsmethoden: Wenn Deepfakes zur Waffe werden
weitere Beiträge in Branche
- Dirk Pinnow: Mein Fazit zur „it-sa“ 2025 – Weiterentwicklung mit Augenmaß angeraten
- „it-sa 2025“: NürnbergMesse meldet weitere Bestmarken
- Experten schlagen Alarm: 71% aller deutschen Reisenden nutzen öffentliches WLAN
- Neue Spear-Phishing-Kampagne fokussiert auf Führungskräfte
- Erstmals fünf Messehallen: it-sa Expo&Congress 2025 startet mit über 950 Ausstellern
Aktuelles, Branche, Umfragen - Juli 9, 2025 19:03 - noch keine Kommentare
DigiCert-Umfrage: Manuelle Zertifikatsprozesse führen zu Ausfällen, Compliance-Fehlern und hohen Verlusten im Unternehmen
weitere Beiträge in Service
- Threat Hunting: Bedeutung und Wertschätzung steigt
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
Kommentieren