Aktuelles, Branche, Studien - geschrieben von am Dienstag, Juli 8, 2025 7:03 - noch keine Kommentare

Audio-Deepfakes: Zunahme der KI-Verfügbarkeit als Booster für Betrugsversuche

Einen hohen Anteil an diesen Deepfake-Betrugsversuchen haben laut KnowBe4 synthetische Sprachanrufe

[datensicherheit.de, 08.07.2025] „Vor wenigen Tagen ist ein neuer Report erschienen, der den rasanten Anstieg von Deepfake-Betrugsversuchen in den Blick nimmt“, berichtet Dr. Martin J. Krämer, „Security Awareness Advocate“ bei KnowBe4, in seiner aktuellen Stellungnahme. Demnach haben Deepfake-Betrugsversuche im vergangenen Jahr (2024) „um mehr als 1.300 Prozent zugenommen“. 2023 hätten Unternehmen im Schnitt noch lediglich einen Angriff pro Monat zu verkraften gehabt. „Im vergangenen Jahr waren es nun schon sieben – pro Tag. Tendenz steigend!“, so Krämer.

knowbe4-martin-kraemer-2023

Foto: KnowBe4

Dr. Martin J. Krämer: Die gesamte Belegschaft muss in die Lage versetzt werden, noch die subtilsten Anzeichen von „Social Engineering“ zu erkennen!

Qualität der Audio-Deepfakes hat deutlich zugelegt

Einen hohen Anteil an diesen Deepfake-Betrugsversuchen haben laut Krämer synthetische Sprachanrufe: „Um 475 Prozent haben betrügerische Sprachanrufe auf Versicherungsunternehmen, um 149 Prozent solche auf Finanzunternehmen im vergangenen Jahr zugenommen.“

  • Am stärksten sei nach wie vor der Einzelhandel betroffen. Im Schnitt habe es dessen Kontaktzentren fünfmal häufiger als die von Versicherungsunternehmen und Banken getroffen. „Jeder 127. Anruf ist hier mittlerweile synthetisch generiert.“

Die Qualität der Audio-Deepfakes habe dabei, dank wachsender Verfügbarkeit und zunehmenden Fähigkeiten von KI-Tools und -Modellen, deutlich zugelegt. „Die Zeiten, in denen elektronisch klingende Stimmen am Telefon monoton einen zuvor schriftlich fixierten Text vortrugen, nähern sich ihrem Ende.“

KI-gestützte Deepfakes ermöglichen überzeugende automatisierte Massen-Betrugsversuche

Krämer warnt: „Die KI-gestützten Tools, die Angreifern mittlerweile zur Verfügung stehen, ermöglichen überzeugende automatisierte Massen-Betrugsversuche. Selbst Emotionen, wie etwa Freude, Wut oder Traurigkeit, können durch Anpassung von Tonhöhe, Kadenz, Tonfall und Lautstärke, überzeugend simuliert werden.“ In Echtzeit könnten Angreifer Live-Gespräche mit ihren Opfern führen – ausgestattet mit der Stimme einer ihrem Opfer bekannten Person.

  • „Mittlerweile sind diese Tools für jedermann leicht zugänglich, so dass auch ungeschulte Angreifer ausgeklügelte Social Engineering-Betrugsversuche durchführen können.“ Allein im Jahr 2024 seien bei der Open-Source-KI-Plattform „Hugging Face“ mehr als 2.400 TTS-Modelle (text-to-speech) und über 1.800 Text-to-Audio-Modelle gehostet worden. Offiziell dienten diese Tools legitimen Anwendungsfällen. Inoffiziell könnten sie aber sehr wohl von Betrügern für ihre Angriffe missbraucht werden.

Mit Blick auf das Jahr 2025 prognostiziere dieser Report, dass die Zahl der Deepfake-Sprachanrufe auch weiterhin stark anwachsen werde – voraussichtlich noch einmal um 155 Prozent. „Auch für den Einzelhandel geht der Report nochmals von einer Verdoppelung aus. Jeder 56. Anruf in den Kontaktzentren wird dann synthetisch sein.“ Mit erheblichen Folgen: Auf 38 Milliarden Euro werde die globale Schadenssumme geschätzt.

Stärkung der Authentifizierungsprotokolle, Implementierung von Echtzeit-Risikoanalysen und kontinuierliche Schulungen empfohlen

Unternehmen aller Branchen werden sich wohl gegen die neue, wachsende Bedrohung besser schützen müssen: Mit der Stärkung ihrer Authentifizierungsprotokolle, der Implementierung von Echtzeit-Risikoanalysen – „und dem Ausbau der kontinuierlichen Schulungen der eigenen Mitarbeiter in Punkto Sicherheitsbewusstsein“.

  • Die gesamte Belegschaft müsse in die Lage versetzt werden, noch die subtilsten Anzeichen von „Social Engineering“, von Phishing und „Spear Phishing“ zu erkennen – bevor es zu spät ist; egal, ob es sich nun um Text- oder Sprachnachrichten handelt.

Effektiv helfen könne hierzu ein modernes „Human Risk Management“. Krämer unterstreicht abschließend: „Dessen Phishing-Trainings, -Schulungen und -Tests lassen sich, KI sei Dank, mittlerweile personalisieren und automatisiert – kontinuierlich – zum Einsatz bringen. Moderne Anti-Phishing-E-Mail-Technologien kombinieren KI mit ,Crowdsourcing’, um neueste Zero-Day-Bedrohungen aufzuspüren und zu neutralisieren.“ Mit solchen und ähnlichen Systemen sei es Unternehmen möglich, ihre „Human Risks“ zurückzufahren und ihre Mitarbeiter zu ihrer besten Verteidigung im Kampf gegen Cyberbedrohungen zu machen.

Weitere Informationen zum Thema:

Pindrop, 2025
Annual Report: 2025 Voice Intelligence and Security Report / Contact centers are under siege—an estimated $12.5B lost to fraud in 2024*, driven by AI threats. With 2.6M fraud events reported*, deepfakes and synthetic voices are overwhelming legacy defenses. Learn how to better secure every conversation and protect trust in an AI-first world.

KnowBe4
The Future of Human Risk Management is Here / Introducing KnowBe4 HRM+ / KnowBe4’s innovative approach to human risk management, integration of AI, and comprehensive security products. Discover why 47 of the world’s top 50 cybersecurity companies trust KnowBe4.

datensicherheit.de, 11.06.2025
Cyberangriffswelle auf den Einzelhandel sowohl in Nordamerika als auch in Europa / Was diese Entwicklung laut Adam Marrè besonders alarmierend macht, ist ihr Ausmaß und die offenbar koordinierte Vorgehensweise

datensicherheit.de, 06.04.2025
KI ermöglicht Cyber-Betrug 2.0: TEHTRIS-Studie zu Deepfake-as-a-Service / Industrialisierung von Deepfakes und KI im Dienste der Cyber-Kriminalität – neue Welle automatisierter und ausgeklügelter Bedrohungen befürchtet

datensicherheit.de, 05.12.2024
KI-basierte Deepfakes zur effektiven Täuschung als Angriffsvektor etabliert / Deepfakes werden in Audio- und Video-Formaten vermehrt für Betrugsmanöver eingesetzt

datensicherheit.de, 29.08.2024
Drei präventive Schutzmaßnahmen gegen CEO-Fraud und Deepfake-Angriffe / Detlev Riecke gibt Unternehmen Empfehlungen, um Chance eines erfolgreichen KI-gestützten Deepfake-Angriffs erheblich zu mindern



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung