Aktuelles, Branche, Studien - geschrieben von am Montag, Mai 4, 2026 9:46 - noch keine Kommentare

Deepfakes: Laut BSI-Bericht überschätzen Nutzer eigene Fähigkeit zur Erkennung

Die bereits vorliegenden Ergebnisse des „Cybersicherheitsmonitors 2026“ zeigen vor allem im Bereich Deepfakes eine erhebliche Diskrepanz zwischen Wahrnehmung und Handeln der Nutzer

[datensicherheit.de, 04.05.2026] Dr. Martin J. Krämer, „CISO Advisor“ bei KnowBe4, kommentiert in seiner aktuellen Stellungnahme den kürzlich vom Bundesamt für Sicherheit in der Informationstechnik (BSI) publizierten Vorab-Bericht zum diesjährigen „Cybersicherheitsmonitor“. Das Fokus-Thema der am 11. Mai 2026 erscheinenden gemeinsamen Erhebung des BSI mit der Polizeilichen Kriminalprävention der Länder und des Bundes (ProPK) lautet demnach „Online-Betrug und Künstliche Intelligenz“. „Die bereits vorliegenden Ergebnisse zeigen vor allem im Bereich Deepfakes eine erhebliche Diskrepanz: Knapp die Hälfte der Befragten (47%) gibt an, KI-generierte Inhalte als solche erkennen zu können – doch ein Drittel (32%) hat noch nie eine einzige konkrete Maßnahme ergriffen, um ein Bild oder Video tatsächlich auf KI-Ursprung zu überprüfen“, berichtet Krämer.

knowbe4-martin-kreaemer-2026

Foto: KnowBe4

Dr. Martin J. Krämer gibt zu bedenken: Es besteht ein qualitativer Unterschied zwischen dem reinen Wissen, dass eine Checkliste existiert, und der routinemäßigen Anwendung von Prüfschritten im digitalen Alltag…

Ein falsches Gefühl der Kompetenz reduziert die Wachsamkeit auch gegenüber Deepfakes

Diese Kluft zwischen wahrgenommener Kompetenz und tatsächlichem Verhalten sei einer der kritischsten Befunde dieses Berichts. „Die Erhebung legte den Befragten elf konkrete Maßnahmen zur Erkennung KI-generierter Inhalte vor – von der Prüfung auf visuelle Unstimmigkeiten über die Quellenrecherche bis hin zur Rückwärts-Bildersuche oder der Nutzung spezialisierter Erkennungstools.“

  • Keine einzige dieser Maßnahmen sei von mehr als der Hälfte der Bevölkerung jemals angewandt worden. Die am häufigsten genannte Methode – „zu überlegen, ob eine dargestellte Szene realistisch ist“ – sei von 40 Prozent der Befragten angegeben worden. Strukturiertere Überprüfungsschritte wie die Quellenprüfung (19%) oder die Rückwärts-Bildersuche (10%) seien deutlich seltener.

„Aus einer Cybersicherheitsperspektive ist dieses Muster höchst besorgniserregend! Personen, die glauben, manipulierte Inhalte erkennen zu können, diese aber nicht aktiv verifizieren, sind in der Praxis stärker gefährdet als jene, die ihre eigene Unsicherheit einräumen“, kommentiert Krämer. Ein falsches Gefühl der Kompetenz reduziere die Wachsamkeit; es mache Betroffene weniger geneigt, innezuhalten, zu hinterfragen oder kritisch zu prüfen, wenn sie mit KI-generiertem Material konfrontiert werden – „genau das Verhalten, auf das Angreifer setzen“.

Deepfake-Videos prominenter Personen werden eingesetzt, um gefälschte „Kryptowährungs“-Produkte zu bewerben

Der Bericht illustriere dies mit einem konkreten Beispiel: „Betrügerische Anlagemodelle, bei denen Deepfake-Videos prominenter Personen eingesetzt werden, um gefälschte ,Kryptowährungs’-Produkte zu bewerben.“ Laut BSI nutzten Täter dabei sowohl Inflationsängste bei Spareinlagen als auch eine allgemeine Unkenntnis über Finanzprodukte aus.

  • Die Erhebung zeige, dass unter denjenigen, die in „Kryptowährung“ investiert hatten und anschließend feststellten, Opfer eines Betrugs geworden zu sein, zwei Drittel über Werbung im Internet auf das jeweilige Angebot aufmerksam geworden seien.

Der Bericht zeige darüber hinaus, dass das Bewusstsein für einige KI-bezogene Bedrohungen seit 2023 zwar gewachsen sei, das Wissen über technische Angriffsvektoren aber weiterhin begrenzt bleibe. Deepfake-Videos und KI-generiertes „Voice Cloning“ bei sogenannten Schockanrufen seien der Mehrheit bekannt.

Abwehr von Deepfakes: Das BSI veröffentlicht Checklisten zur Erkennung KI-generierter Bilder

Dass KI-Systeme selbst manipuliert werden könnten – etwa durch unsichtbare Anweisungen in Dokumenten, welche ein KI-Programm zur Ausführung unbeabsichtigter Aktionen veranlassten – sei hingegen nur einer Minderheit bewusst. „Das Bewusstsein dafür, wie KI für Betrug eingesetzt wird, ist demnach deutlich höher als die Einsicht darüber, dass KI-Systeme selbst angegriffen oder unterwandert werden können.“

  • Die Ergebnisse bestätigten, was Fachleute für „Security Awareness“ in der Praxis beobachten: Der Zugang zu Information allein verändere kein Verhalten. „Das BSI veröffentlicht Checklisten zur Erkennung KI-generierter Bilder – und solche Ressourcen sind durchaus wertvoll. Doch es besteht ein qualitativer Unterschied zwischen dem reinen Wissen, dass eine Checkliste existiert, und der routinemäßigen Anwendung von Prüfschritten im digitalen Alltag.“ Um diese Lücke zu überbrücken, brauche es anstelle von einmaligen Sensibilisierungskampagnen viel mehr wiederholtes und strukturiertes Training, um Verhaltensgewohnheiten verlässlich aufzubauen.

Organisationen sollten die Ergebnisse des BSI-Berichts als Anlass nehmen, ihren eigenen Umgang mit KI-bezogener Sicherheitsaufklärung zu überprüfen. Mitarbeiter seien KI-generierten Inhalten nicht nur im Privaten ausgesetzt, sondern zunehmend auch im beruflichen Kontext, beispielsweise über geschäftliche E-Mails, „Social Media“, Kollaborationsplattformen und Werbung. Krämers Empfehlung: „Eine Human-Risk-Management-Strategie, die realistische Simulationen KI-gestützter Social-Engineering-Angriffe umfasst und gezieltes, rollenspezifisches Training bietet, kann dazu beitragen, dass das Vertrauen in die eigene Erkennungsfähigkeit auf tatsächlicher Kompetenz beruht – nicht auf Annahmen.“

Weitere Informationen zum Thema:

knowbe4
KnowBe4 News und Wissenswertes

knowbe4
Dr. Martin J. Krämer

Bundesamt für Sicherheit in der Informationstechnik, 13.04.2026
KI-Betrug im Netz: Nur ein Fünftel überprüft die Quelle / Cybersicherheitsmonitor 2026: Online-Betrug und Künstliche Intelligenz

datensicherheit.de, 19.04.2026
USA auf Platz 1: Globaler Deepfake-Betrug hat 2,19 Milliarden US-Dollar erreicht / 2019 noch als „Deepfake-Phänomen“ wahrgenommen, hat es sich inzwischen offensichtlich zu einer ernsthaften Cyberbedrohung entwickelt

datensicherheit.de, 19.12.2025
Bekämpfung von KI-gestütztem Social Engineering: KnowBe4 stellt Deepfake-Training bereit / KnowBe4 hat als Anbieter einer weltweit renommierten Plattform, welche sich umfassend mit „Human Risk Management“ und agentenbasierter KI befasst, nun eine Deepfake-Schulung vorgestellt

datensicherheit.de, 14.04.2026
KI-Betrug im Netz: Quellen-Überprüfung nur von einem Fünftel der Nutzer / Fast die Hälfte der Internetnutzer in Deutschland sieht sich zwar in der Lage, mit KI generierte Inhalte zu erkennen – tatsächlich aber schaut bisher kaum jemand genauer hin



Kommentare sind geschlossen.

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung