Aktuelles, Branche, Studien - geschrieben von dp am Sonntag, August 17, 2025 18:49 - noch keine Kommentare
Deepfakes 2025: Zuvor KI-Spielerei und heute bedrohliches Hacker-Tool
Marco Eggerling warnt anhand jüngster Fälle von Cyberangriffen mittels Deepfakes, dass diese auf KI basierene Technologie zum neuen Standardwerkzeug für Hacker geworden ist
[datensicherheit.de, 17.08.2025] Zur aktuellen Gefahrenlage im Kontext sogenannter Deepfakes nimmt Marco Eggerling, „Global CISO“ bei Check Point, Stellung und erklärt anhand jüngster Fälle von Cyberangriffen mittels Deepfakes, wie diese auf Künstlicher Intelligenz (KI) basierene Technologie zum neuen Standardwerkzeug für Hacker geworden ist. Deepfakes seien längst keine Spielerei mehr: „Was als unterhaltsamer Internettrend begann, ist heute ein hochentwickeltes Werkzeug für Cyberkriminalität. Moderne Deepfakes schauen täuschend echt aus, lassen sich in Echtzeit einsetzen und sind massentauglich. Damit stellen sie eine akute Bedrohung für Wirtschaft und Gesellschaft dar!“

Foto: Check Point Software
Marco Eggerling: Deepfakes sind mittlerweile knallharte Realität der Cyberkriminalität
Besonders besorgniserregend: Zunahme der Deepfake-Kommerzialisierung
„Laut unserem ,AI Security Report 2025‘ verursachten Deepfake-Angriffe allein in zwei bekannt gewordenen Fällen in Kanada und Großbritannien einen Schaden in Höhe von über 35 Millionen US-Dollar“, berichtet Eggerling. Noch gravierender sei, dass sich die kriminelle Nutzung längst nicht mehr auf Videos beschränke: KI-generierte Stimmen würden mittlerweile regelmäßig bei „Sextortion“, CEO-Hochstapelei und Fake-Geiselnahmen eingesetzt. So seien beispielsweise in Italien der Verteidigungsminister, sowie Giorgio Armani und andere Konzernführer per Deepfake-Stimme nachgeahmt worden, um prominente Kontakte zu erpressen.
- Die technische Basis dafür sei ebenso erschreckend wie leicht zugänglich: „Voice-Cloning-Systeme lassen sich mit nur wenigen Minuten an Audiomaterial trainieren, kosten etwa 20.000 US-Dollar und können jede Stimme in jeder Sprache in Echtzeit imitieren – sogar über mehrere Gespräche hinweg.“ Ergänzt würden diese Systeme durch gefälschte Business-E-Mail-Kits und auf Betrug zugeschnittene Phishing-Suites. „Sie sind im ,Darknet’ und auf ,Telegram’ für wenige Hundert US-Dollar erhältlich und arbeiten ohne menschliche Beteiligung.“
Besonders besorgniserregend sei die zunehmende Kommerzialisierung dieser Technologien. Sogar technisch weniger versierte Hacker könnten solche „Tools“ missbrauchen, welche auf Generativer KI basierten und somit kontinuierlich dazulernten sowie sich dynamisch an das Verhalten ihrer Opfer anpassten. „Damit können sie täuschend echte CEO-Anrufe, gefälschte Konferenzschaltungen oder personalisierte Phishing-Kampagnen durchführen!“, warnt Eggerling.
Deepfakes so skalierbar wie nie zuvor – Technologie in den letzten Jahren stark verbessert
Diese Automatisierung der Cyberkriminalität mache Deepfakes so skalierbar wie nie zuvor. Die Technologie sei in den letzten Jahren stark verbessert worden. „Zum Beispiel gibt es autonome Live-Agenten. Mit diesen kann man nicht nur Identitäten fälschen, sondern ganze Gespräche mit Avataren führen, die von der Künstlichen Intelligenz gesteuert werden.“ Die Übergänge zwischen Realität und Simulation würden somit fließend und herkömmliche Überprüfungsmechanismen griffen nicht mehr.
- Eggerling erläutert: „Was dagegen hilft, ist einerseits die Aufmerksamkeit des Nutzers, um Ungereimtheiten zu erkennen und nicht alles zu glauben, was seriös erscheint. Andererseits können Unternehmen und Behörden sich mithilfe mehrschichtiger Sicherheitsarchitekturen, die verschiedene Komponenten konsolidieren, gegen solche Betrügereien schützen.“ Die KI-Einbindung in die Cyberabwehr sei außerdem die erste Wahl, um KI-generierte Angriffe abzuwehren, „weil hier Ähnliches mit Ähnlichem gekontert wird“. Mithilfe KI-basierter Verteidigungssysteme ließen sich gefälschte Medien, verdächtige Kommunikation und Anomalien im Verhalten frühzeitig erkennen und blockieren, „bevor Schaden entsteht“.
Diese Technologien könnten Deepfakes in Audiodateien erkennen, Angriffe von autonomen KI-Agenten isolieren und die Ausführung manipulierten Inhalts verhindern. In Kombination mit Zero-Trust-Modellen und gezielten „Awareness“-Programmen entstehe so ein umfassender Schutzschild gegen Deepfake-Angriffe. Eggerling gibt abschließend zu bedenken: „Jedem sollte daher bewusst sein: Deepfakes sind keine theoretische Zukunftsvision mehr, oder die kleine Spielerei einiger Hacker, um die Öffentlichkeit zu erschrecken, sondern knallharte Realität der Cyberkriminalität!“
Weitere Informationen zum Thema:
The Guardian, Angela Giuffrida, 10.02.2025
AI phone scam targets Italian business leaders including Giorgio Armani / Cloned voice of defence minister, Guido Crosetto, used in some calls asking for money to free kidnapped journalists
FEDERAL BUREAU OF INVESTIGATION, 03.12.2024
Alert Number: I-120324-PSA / Criminals Use Generative Artificial Intelligence to Facilitate Financial Fraud
datensicherheit.de, 14.07.2025
KI-Waffe Deepfake: Betrug, Identitätsdiebstahl und Angriffe auf Unternehmen / Ein neuer Bericht von Trend Micro zeigt Methoden hinter deepfake-gestützter Cyberkriminalität auf
INFOPOINT SECURITY, Herbert Wieler, 25.04.2023
Personalien: Check Point beruft Marco Eggerling zum CISO EMEA
datensicherheit.de, 12.07.2025
Deepfake-Betrug verursacht finanziellen Schaden in Millionen-Höhe / Einer aktuellen Studie von Surfshark zufolge gab es in der ersten Hälfte des Jahres 2025 fast viermal so viele Deepfake-Vorfälle wie im gesamten Jahr 2024
datensicherheit.de, 08.07.2025
Audio-Deepfakes: Zunahme der KI-Verfügbarkeit als Booster für Betrugsversuche / Einen hohen Anteil an diesen Deepfake-Betrugsversuchen haben laut KnowBe4 synthetische Sprachanrufe
datensicherheit.de, 06.04.2025
KI ermöglicht Cyber-Betrug 2.0: TEHTRIS-Studie zu Deepfake-as-a-Service / Industrialisierung von Deepfakes und KI im Dienste der Cyber-Kriminalität – neue Welle automatisierter und ausgeklügelter Bedrohungen befürchtet
datensicherheit.de, 11.02.2025
Fake-Romance: Scams mit KI-gestützten Deepfake-Promis fordern Opfer / KI-Deepfakes gaukeln Opfern prominente Persönlichkeiten vor, welche angeblich in einer Notlage stecken und finanzielle Unterstützung benötigen
[datensicherheit.de, 27.01.2025]
Deepfakes: Wie Internet-Nutzer täuschend echte Fälschungen erkennen können / Immer häufiger tauchen aktuell sogenannte Deepfakes auf, d.h. mit Künstlicher Intelligenz manipulierte Fotos und Videos
Aktuelles, Experten - Aug. 15, 2025 0:20 - noch keine Kommentare
Gefragte BfDI-Informationsbroschüre wurde aktualisiert
weitere Beiträge in Experten
- Gemischt: eco-Kommentar zur 100-Tage-Bilanz der neuen Bundesregierung
- Humanoide Roboter: Ergänzung und Erweiterung bestehender Technologien statt deren Ersatz
- Abu Dhabi equips „The Games of the Future 2025“ with a range of phygital disciplines
- „The Games of the Future 2025″: Abu Dhabi rüstet Spiele der Zukunft 2025 mit einer Reihe Phygital-Disziplinen aus
- 13. Expanded Conference in Linz: Erneut Schaufenster der internationalen digitalen Kunst- und Forschungsszene
Aktuelles, Branche, Studien - Aug. 17, 2025 18:49 - noch keine Kommentare
Deepfakes 2025: Zuvor KI-Spielerei und heute bedrohliches Hacker-Tool
weitere Beiträge in Branche
- KI-Einsatz: Studie offenbart dringenden Handlungsbedarf für Schulungen und Richtlinien
- Mehr digitale Souveränität und Resilienz – Cybersicherheit neu gedacht
- Windows: Microsoft schloss sechs von Check Point entdeckte Sicherheitslücken
- LumaSpy: Android-Spyware als Bedrohung für Privatpersonen und Unternehmen
- Armis rät Flughäfen dringend, ihre Cybersicherheit auf den Prüfstand zu stellen
Aktuelles, Branche, Umfragen - Juli 9, 2025 19:03 - noch keine Kommentare
DigiCert-Umfrage: Manuelle Zertifikatsprozesse führen zu Ausfällen, Compliance-Fehlern und hohen Verlusten im Unternehmen
weitere Beiträge in Service
- Threat Hunting: Bedeutung und Wertschätzung steigt
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
Kommentieren