Aktuelles, Branche, Studien - geschrieben von am Sonntag, August 17, 2025 18:49 - noch keine Kommentare

Deepfakes 2025: Zuvor KI-Spielerei und heute bedrohliches Hacker-Tool

Marco Eggerling warnt anhand jüngster Fälle von Cyberangriffen mittels Deepfakes, dass diese auf KI basierene Technologie zum neuen Standardwerkzeug für Hacker geworden ist

[datensicherheit.de, 17.08.2025] Zur aktuellen Gefahrenlage im Kontext sogenannter Deepfakes nimmt Marco Eggerling, „Global CISO“ bei Check Point, Stellung und erklärt anhand jüngster Fälle von Cyberangriffen mittels Deepfakes, wie diese auf Künstlicher Intelligenz (KI) basierene Technologie zum neuen Standardwerkzeug für Hacker geworden ist. Deepfakes seien längst keine Spielerei mehr: „Was als unterhaltsamer Internettrend begann, ist heute ein hochentwickeltes Werkzeug für Cyberkriminalität. Moderne Deepfakes schauen täuschend echt aus, lassen sich in Echtzeit einsetzen und sind massentauglich. Damit stellen sie eine akute Bedrohung für Wirtschaft und Gesellschaft dar!“

check-point-software-marco-eggerling

Foto: Check Point Software

Marco Eggerling: Deepfakes sind mittlerweile knallharte Realität der Cyberkriminalität

Besonders besorgniserregend: Zunahme der Deepfake-Kommerzialisierung

„Laut unserem ,AI Security Report 2025‘ verursachten Deepfake-Angriffe allein in zwei bekannt gewordenen Fällen in Kanada und Großbritannien einen Schaden in Höhe von über 35 Millionen US-Dollar“, berichtet Eggerling. Noch gravierender sei, dass sich die kriminelle Nutzung längst nicht mehr auf Videos beschränke: KI-generierte Stimmen würden mittlerweile regelmäßig bei „Sextortion“, CEO-Hochstapelei und Fake-Geiselnahmen eingesetzt. So seien beispielsweise in Italien der Verteidigungsminister, sowie Giorgio Armani und andere Konzernführer per Deepfake-Stimme nachgeahmt worden, um prominente Kontakte zu erpressen.

  • Die technische Basis dafür sei ebenso erschreckend wie leicht zugänglich: „Voice-Cloning-Systeme lassen sich mit nur wenigen Minuten an Audiomaterial trainieren, kosten etwa 20.000 US-Dollar und können jede Stimme in jeder Sprache in Echtzeit imitieren – sogar über mehrere Gespräche hinweg.“ Ergänzt würden diese Systeme durch gefälschte Business-E-Mail-Kits und auf Betrug zugeschnittene Phishing-Suites. „Sie sind im ,Darknet’ und auf ,Telegram’ für wenige Hundert US-Dollar erhältlich und arbeiten ohne menschliche Beteiligung.“

Besonders besorgniserregend sei die zunehmende Kommerzialisierung dieser Technologien. Sogar technisch weniger versierte Hacker könnten solche „Tools“ missbrauchen, welche auf Generativer KI basierten und somit kontinuierlich dazulernten sowie sich dynamisch an das Verhalten ihrer Opfer anpassten. „Damit können sie täuschend echte CEO-Anrufe, gefälschte Konferenzschaltungen oder personalisierte Phishing-Kampagnen durchführen!“, warnt Eggerling.

Deepfakes so skalierbar wie nie zuvor – Technologie in den letzten Jahren stark verbessert

Diese Automatisierung der Cyberkriminalität mache Deepfakes so skalierbar wie nie zuvor. Die Technologie sei in den letzten Jahren stark verbessert worden. „Zum Beispiel gibt es autonome Live-Agenten. Mit diesen kann man nicht nur Identitäten fälschen, sondern ganze Gespräche mit Avataren führen, die von der Künstlichen Intelligenz gesteuert werden.“ Die Übergänge zwischen Realität und Simulation würden somit fließend und herkömmliche Überprüfungsmechanismen griffen nicht mehr.

  • Eggerling erläutert: „Was dagegen hilft, ist einerseits die Aufmerksamkeit des Nutzers, um Ungereimtheiten zu erkennen und nicht alles zu glauben, was seriös erscheint. Andererseits können Unternehmen und Behörden sich mithilfe mehrschichtiger Sicherheitsarchitekturen, die verschiedene Komponenten konsolidieren, gegen solche Betrügereien schützen.“ Die KI-Einbindung in die Cyberabwehr sei außerdem die erste Wahl, um KI-generierte Angriffe abzuwehren, „weil hier Ähnliches mit Ähnlichem gekontert wird“. Mithilfe KI-basierter Verteidigungssysteme ließen sich gefälschte Medien, verdächtige Kommunikation und Anomalien im Verhalten frühzeitig erkennen und blockieren, „bevor Schaden entsteht“.

Diese Technologien könnten Deepfakes in Audiodateien erkennen, Angriffe von autonomen KI-Agenten isolieren und die Ausführung manipulierten Inhalts verhindern. In Kombination mit Zero-Trust-Modellen und gezielten „Awareness“-Programmen entstehe so ein umfassender Schutzschild gegen Deepfake-Angriffe. Eggerling gibt abschließend zu bedenken: „Jedem sollte daher bewusst sein: Deepfakes sind keine theoretische Zukunftsvision mehr, oder die kleine Spielerei einiger Hacker, um die Öffentlichkeit zu erschrecken, sondern knallharte Realität der Cyberkriminalität!“

Weitere Informationen zum Thema:

CHECK POINT
About Us / Check Point Software Technologies is a global leader in cyber security solutions, dedicated to protecting corporate enterprises and governments worldwide.

CHECK POINT
Check Point Research AI Security Report 2025 / Your guide to understanding AI-powered threats and building smarter defenses

CHECK POINT
What is the Dark Web? / The Dark Web is a section of the Internet that isn’t accessible via traditional web browsers and search engines. Instead, Dark Web sites are accessed via special browsers either with knowledge of the specific URL or using a special Dark Web search engine.

The Guardian, Angela Giuffrida, 10.02.2025
AI phone scam targets Italian business leaders including Giorgio Armani / Cloned voice of defence minister, Guido Crosetto, used in some calls asking for money to free kidnapped journalists

FEDERAL BUREAU OF INVESTIGATION, 03.12.2024
Alert Number: I-120324-PSA / Criminals Use Generative Artificial Intelligence to Facilitate Financial Fraud

datensicherheit.de, 14.07.2025
KI-Waffe Deepfake: Betrug, Identitätsdiebstahl und Angriffe auf Unternehmen / Ein neuer Bericht von Trend Micro zeigt Methoden hinter deepfake-gestützter Cyberkriminalität auf

INFOPOINT SECURITY, Herbert Wieler, 25.04.2023
Personalien: Check Point beruft Marco Eggerling zum CISO EMEA

datensicherheit.de, 12.07.2025
Deepfake-Betrug verursacht finanziellen Schaden in Millionen-Höhe / Einer aktuellen Studie von Surfshark zufolge gab es in der ersten Hälfte des Jahres 2025 fast viermal so viele Deepfake-Vorfälle wie im gesamten Jahr 2024

datensicherheit.de, 08.07.2025
Audio-Deepfakes: Zunahme der KI-Verfügbarkeit als Booster für Betrugsversuche / Einen hohen Anteil an diesen Deepfake-Betrugsversuchen haben laut KnowBe4 synthetische Sprachanrufe

datensicherheit.de, 06.04.2025
KI ermöglicht Cyber-Betrug 2.0: TEHTRIS-Studie zu Deepfake-as-a-Service / Industrialisierung von Deepfakes und KI im Dienste der Cyber-Kriminalität – neue Welle automatisierter und ausgeklügelter Bedrohungen befürchtet

datensicherheit.de, 11.02.2025
Fake-Romance: Scams mit KI-gestützten Deepfake-Promis fordern Opfer / KI-Deepfakes gaukeln Opfern prominente Persönlichkeiten vor, welche angeblich in einer Notlage stecken und finanzielle Unterstützung benötigen

[datensicherheit.de, 27.01.2025]
Deepfakes: Wie Internet-Nutzer täuschend echte Fälschungen erkennen können / Immer häufiger tauchen aktuell sogenannte Deepfakes auf, d.h. mit Künstlicher Intelligenz manipulierte Fotos und Videos



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung