Aktuelles, Branche, Studien - geschrieben von am Montag, Dezember 8, 2025 1:32 - noch keine Kommentare

Deepfake-Angriffe: 2025 von quantitativer Zunahme wie qualitativer Raffinesse geprägt

Sowohl quanti- als auch qualitativ haben KI-basierte Betrugsfälle 2025 merklich zugelegt – bei jedem fünften von ihnen wird mittlerweile auf Deepfakes gesetzt

[datensicherheit.de, 08.12.2025] „Vor Kurzem hat Entrust seinen neuen jährlichen ,Identity Fraud Report’ vorgestellt. In ihm warnt das Unternehmen vor einem signifikanten Anstieg von Deepfake-Angriffen“, berichtet Dr. Martin J. Krämer, „CISO Advisor“ bei KnowBe4, in seiner aktuellen Stellungnahme. Sowohl quanti- als auch qualitativ hätten auf Künstlicher Intelligenz (KI) basierende Betrugsfälle 2025 merklich zugelegt. Bei jedem fünften von ihnen werde mittlerweile auf Deepfakes gesetzt. Allein die Zahl gefälschter Selfies sei 2025 um 58 Prozent gestiegen. Am effektivsten – da umfassendsten – könne der Einsatz eines modernen „Human Risk Management“-Systems helfen. Dessen Phishing-Trainings, -Schulungen und -Tests ließen sich mittels KI mittlerweile personalisieren und automatisiert – kontinuierlich – zum Einsatz bringen, um Mitarbeiter wie KI-Agenten zu stärken.

knowbe4-martin-kraemer-2023

Foto: KnowBe4

Dr. Martin J. Krämer: Will man die eigenen Systeme erfolgreich vor Betrug – auch und gerade vor Deepfakes – absichern, muss man dem „Faktor Mensch“ auch weiterhin eine zentrale Rolle innerhalb der eigenen IT-Sicherheit zuweisen!

Immer schneller, unkomplizierter – und mit einer stetig steigenden Erfolgsquote – werden Deepfake-Angriffe umgesetzt

Eine zentrale Ursache laut Krämer: „Immer mehr KI-Plattformen drängen auf den freien Markt, die missbraucht werden können. Und immer mehr bösartige ‚Kits‘ sind im ,Darknet’ erhältlich, mit denen sich auch komplexe Deepfake-Angriffe realisieren lassen.“

  • Realistisch wirkende Fake-Medieninhalte, egal ob nun Video, Audio oder Text, ließen sich mittlerweile auch von Laien weitgehend problemlos erstellen. Immer schneller, unkomplizierter – und mit einer stetig steigenden Erfolgsquote – könnten sie Deepfake-Angriffe realisieren. Längst fluteten ihre Deepfakes das Netz. „Der erwähnte 58-prozentige Anstieg von Fake-Selfies, er kommt nicht von ungefähr.“

Vor allem „Injection“-Angriffe hätten 2025 noch einmal kräftig zugelegt – im Vergleich zum Vorjahr um sage und schreibe 40 Prozent. „Bei einem ,Injection’-Angriff nutzt ein Angreifer eine Sicherheitslücke, um bösartigen Code in eine Anwendung einzuschleusen.“ Typischerweise über unzureichend validierte Benutzereingabefelder, um die beabsichtigte Logik der Anwendung zu manipulieren und sich unautorisierten Zugriff auf Daten oder ein System zu verschaffen.

In zwei „Injection“-Angriffsszenarien kommen Deepfakes mittlerweile verstärkt zum Einsatz:

  1. „Video/Media-Injection“ (als ,Injection’-Angriff auf das Authentifizierungssystem)
    Angreifer schleusten hierbei einen Deepfake-Inhalt (Video, Audio oder Bild) in den Datenstrom eines Systems ein, welches diesen Inhalt dann als „echt“ interpretiere.
    Das Hauptziel des Angriffs sei die Umgehung biometrischer Verifizierungssysteme und anderer digitaler Kontrollen.
  2. „Adversarial Injection“ (als „Injection“-Angriff auf das Detektionssystem)
    Angreifer fügten hierzu einem Deepfake-Inhalt „unsichtbare“ Störungen (Perturbationen) bei, um einen Deepfake-Detektor (ein KI-Modell, das Fälschungen erkennen soll) gezielt zu täuschen.
    Ziel sei es, den Detektor dazu zu bringen, dass er den gefälschten Inhalt als echt einstuft.

„Faktor Mensch“ von zentraler Bedeutung bei Deepfake-Abwehr

Der Bericht zeige: „Unternehmen sollten sich, wenn es um Betrugsprävention geht, nicht zu sehr auf ihre technischen Sicherheitslösungen verlassen!“ Längst hätten Angreifer begonnen, eben diese ins Visier zu nehmen.

  • „Will man die eigenen Systeme erfolgreich vor Betrug – auch und gerade vor Deepfakes – absichern, will man eigene Risiken nachhaltig reduzieren, muss man dem ,Faktor Mensch’ auch weiterhin eine zentrale Rolle innerhalb der eigenen IT-Sicherheit zuweisen – und die eigenen Mitarbeiter entsprechend schulen, betont Krämer.

Er rät daher:

  • „Trainieren Sie Ihre Mitarbeiter darin, verdächtige Aktivitäten, die auf einen Deepfake-Angriff schließen lassen, zu erkennen!“
  • „Vermitteln Sie ihnen das erforderliche Bewusstsein, so dass sie sich ein Bild von der steigenden Qualität und den spezifischen Risiken von Deepfakes (Video, Audio, Bild) machen können!“
  • „Vermitteln Sie klare Verhaltensregeln zum Umgang mit verdächtigen Inhalten und zur Prüfung kritischer Anfragen (zum Beispiel von Zahlungsanweisungen)!“

Weitere Informationen zum Thema:

knowbe4
KnowBe4 News und Wissenswertes

knowbe4
Dr. Martin J. Krämer

ENTRUST
Identity Fraud Report: Explore the Latest in Global Fraud Intelligence / Fraudsters follow opportunity, and people remain one of the most vulnerable links in the chain. In 2025, we saw social engineering and coercion pose an increasing threat to identity verification, especially during the onboarding process.

datensicherheit.de, 14.10.2025
KI-basierte Betrugsmethoden: Wenn Deepfakes zur Waffe werden / Künstliche Intelligenz (KI) wird zunehmend zur Waffe in den Händen von Kriminellen. Während wir noch über die Chancen der Digitalisierung diskutieren, nutzen Betrüger bereits hoch entwickelte KI-Tools, um perfekte Fälschungen zu erstellen, die selbst Experten täuschen können und eine Herausforderung für Ermittler und Unternehmen darstellen

datensicherheit.de, 22.09.2025
Deepfakes in Echtzeit ab 30 US-Dollar im Darknet angeboten / Kaspersky-Experten vom „Global Research and Analysis Team“ (GReAT) haben in Untergrundforen Anzeigen entdeckt, die Echtzeit-Deepfakes für Video und Audio günstig anbieten

datensicherheit.de, 13.09.2025
CEO DEEPFAKE CALL: Bei Anruf Awareness-Training zum Thema Vishing / Swiss Infosec bietet proaktiv Sensibilisierung und Training für Mitarbeiter im Kontext der Gefahren KI-basierter Anrufsimulationen (Voice AI Deepfakes) an

datensicherheit.de, 17.08.2025
Deepfakes 2025: Zuvor KI-Spielerei und heute bedrohliches Hacker-Tool / Marco Eggerling warnt anhand jüngster Fälle von Cyberangriffen mittels Deepfakes, dass diese auf KI basierene Technologie zum neuen Standardwerkzeug für Hacker geworden ist

datensicherheit.de, 14.07.2025
KI-Waffe Deepfake: Betrug, Identitätsdiebstahl und Angriffe auf Unternehmen / Ein neuer Bericht von Trend Micro zeigt Methoden hinter deepfake-gestützter Cyberkriminalität auf



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung