Aktuelles, Branche - geschrieben von dp am Dienstag, Mai 21, 2024 17:00 - noch keine Kommentare
Deepfakes: Paragraf zum Persönlichkeitsschutz soll im Strafgesetzbuch Aufnahme finden
Noch können Deepfakes erkannt werden – aber Optimierung schreitet voran
[datensicherheit.de, 21.05.2024] Die Bayerische Staatsregierung hat nach eigenen Angaben Mitte Mai 2024 gefordert, dass die Persönlichkeitsrechte besser vor sogenannten Deepfakes geschützt werden sollten, und schlägt daher einen Paragrafen zum Persönlichkeitsschutz im Strafgesetzbuch (StGB) vor: Dieser solle sich speziell mit Deepfakes auseinandersetzen. „Eine vom Ministerrat beschlossene Gesetzesinitiative wurde am 17. Mai in den Bundesrat eingebracht“, berichtet Dr. Martin J. Krämer, „Security Awareness Advocate“ bei KnowBe4, in seiner Stellungnahme.
Dr. Martin J. Krämer warnt: Cyber-Kriminelle verfolgen mit Deepfakes handfeste kommerzielle Interessen!
Cyber-Kriminelle nutzen Deepfakes für Desinformationen und Betrug
Dr. Krämer erläutert: „Diese Entwicklung wurde vor allem aufgrund einer Welle von Deepfakes ins Leben gerufen, die Persönlichkeitsrechte von Frauen und Mädchen im Internet verletzt.“ Deepfakes hätten jedoch auch eine politische Komponente – „wenn Desinformationen verbreitet werden“. Doch nicht nur in diesen Fällen, sondern auch bei Betrug werde auf dieses Mittel zurückgegriffen: Cyber-Kriminelle verfolgten handfeste kommerzielle Interessen, um Menschen und Unternehmen mit Deepfakes zu erpressen, in eine Investmentfalle zu locken oder aber zu einer Notfallspende ähnlich dem „Enkeltrick“ zu verleiten.
Bevor entsprechende Gesetze wie das der Bayerischen Staatsregierung angestoßene, beschlossen und umgesetzt würden, gehe es für Verbraucher vor allem darum, Deepfakes selbst zu erkennen. „Auch wenn die Fälschungen immer besser werden und es bald unmöglich sein wird, ein gefälschtes von einem echten Video zu unterscheiden, gibt es doch einige Anhaltspunkte.“ Wichtig sei die Unterscheidung zwischen Gesichtsumwandlungen (welche das Gesicht einer Person auf das Gesicht einer anderen Person legten) und vollständig synthetisch erzeugten Videosequenzen, wobei letztere inzwischen kommerziell erhältlich seien und sich in den letzten sechs Monaten erheblich verbessert hätten.
Deepfakes haben manchmal noch Probleme damit, die natürliche Physik einer Szene nachzubilden
„Gesichtsumwandlungen sind manchmal leichter zu erkennen. Vor allem an den Rändern eines Gesichts“, erläutert Dr. Krämer. Ein Hinweis sei, dass das Alter des Gesichtes anders erscheine als das des restlichen Kopfes. Auch die Schatten der Augenbrauen könnten falsch sein. Deepfakes hätten manchmal Probleme damit, die natürliche Physik einer Szene nachzubilden. Ähnliches gelte für Lichtverhältnisse – „beispielsweise lässt sich erkennen, ob die Überblendung natürlich wirkt“. Diese Indikatoren seien jedoch bei den häufiger zum Einsatz kommenden vollsynthetisierten Videos weniger zuverlässig.
Verbraucher könnten trotzdem auf die richtige Körpersprache achten. Augenbewegungen sollten beispielsweise Aussagen und Argumente unterstützen. „Wiederholen sie sich oft, anstatt das gesprochene Wort zu unterstützen? Es ist sehr unwahrscheinlich, dass in einer echten Kommunikation gleichbleibende und sich wiederholende Augen- oder Augenbrauen-Bewegungen auftreten.“ Ein weiteres Beispiel seien die Lippenbewegungen: „Die Lippen werden normalerweise mit dem gesprochenen Wort synchronisiert.“ In beiden Fällen könnten Abweichungen Rückschlüsse auf die Echtheit eines Videos zulassen.
Weitere Erforschung wirksamer und zuverlässiger Instrumente zur Erkennung von Deepfakes unerlässlich
Ein weiterer wichtiger Indikator sei die Stimme selbst, insbesondere bei Stimmen von bekannten Persönlichkeiten des öffentlichen Lebens. Anomalien in deren Stimmen seien am leichtesten zu erkennen: „Plötzliche Veränderungen in der Tonhöhe, im Rhythmus und in der Aussprache sind ebenfalls Anzeichen für eine computergenerierte Stimme.“ Bei Audiodateien sei das weniger leicht herauszuhören und weniger häufig. Dr. Krämer gibt noch einen weiteren Rat: „Ein Hinweis, dass es sich um eine Fälschung handelt, ist auch eine übermäßig präzise Aussprache. Niemand spricht konsequent wie ein Nachrichtensprecher, d.h. übermäßig geschliffen und akribisch.“
Aktuell schienen diese Tipps und Hinweise, auf Unregelmäßigkeiten oder zu viel Regelmäßigkeit zu achten, noch zu funktionieren. Es sei allerdings dazu zu raten, sich in nächster Zeit nicht allein darauf zu verlassen. Dr. Krämer betont abschließend: „Am wichtigsten bleibt, kritisches Denken und ein emotionales Bewusstsein zu entwickeln, um Manipulationsversuche abzuwehren.“ Die weitere Erforschung wirksamer und zuverlässiger Instrumente zur Erkennung von Deepfakes bleibe unerlässlich. Schlussendlich sei es ein Wettrüsten, das man zum Nutzen von Wirtschaft und Gesellschaft genau verfolgen müsse.
Weitere Informationen zum Thema:
Bayerische Staatsregierung, 16.05.2024
Strafrechtlicher Schutz von Persönlichkeitsrechten vor Deepfakes / Bayern fordert neuen Paragrafen im Strafgesetzbuch / Bayern bringt Initiative in den Bundesrat ein…
datensicherheit.de, 18.05.2024
Cyber-Angriff mittels Deepfake-Phishing: Mitarbeiter sensibilisieren, CEO-Imitationen zu erkennen! / Anrufe und Textnachrichten sowie mindestens eine Sprachnachricht mit einer per Deepfake-Technologie gefälschten Stimme des CEO
datensicherheit.de, 20.02.2024
Deepfakes: Vielfältige Betrugsversuche / Es gibt aber auch konstruktive Anwendungen für Deepfake-Prinzipien
datensicherheit.de, 19.09.2023
Gefahren für Politik und Demokratie: Optimierung von Deepfakes mittels KI / Deepfake-Wahlwerbespots könnten mit computergenerierten Bildern von Kandidaten erstellt werden
datensicherheit.de, 22.06.2022
Deepfakes bald Standardrepertoire Cyber-Krimineller / Vor allem Soziale Plattformen als neue Spielwiese zur Verbreitung von Deepfake-Material genutzt
Aktuelles, Experten - Jan. 24, 2025 1:00 - noch keine Kommentare
Stargate: KI-Initiative in den USA setzt Europa unter Zugzwang
weitere Beiträge in Experten
- Laut Studie von DLA Piper wurden 2024 europaweit 1,2 Milliarden Euro DSGVO-Bußgelder verhängt
- Auskunftsrecht: EDSA hat Bericht zur koordinierten Prüfaktion CEF 2024 publiziert
- Bundestagswahl 2025: Politische Parteien dürfen Adressen zweckgebunden für Wahlwerbung nutzen
- Pseudonymisierung: Europäischer Datenschutzausschuss hat Leitlinien beschlossen
- Rat der Verbraucherzentrale zur ePA: Entweder aktive Pflege oder grundsätzlicher Widerspruch
Aktuelles, Branche, Studien - Jan. 23, 2025 0:48 - noch keine Kommentare
Cyber-Versicherungen: Neuer KnowBe4-Bericht zeigt dringenden Bedarf angesichts eskalierender digitaler Bedrohungen auf
weitere Beiträge in Branche
- Der Europäische Datenschutztag am 28. Januar soll Bürger sensibilisieren, die eigenen Daten besser zu schützen
- Gamer geraten ins Phishing-Fadenkreuz
- DORA: Europas neue Cyber-Sicherheitsverordnung stellt nicht nur den Finanzsektor vor Herausforderungen
- NIS-2: Veeam-Umfrage in Deutschland kündet von vielen Baustellen der KRITIS-Betreiber
- Warnung vor neuer Phishing-Angriffskampagne über Reisebüro-Konten
Branche, Umfragen - Dez. 21, 2020 21:46 - noch keine Kommentare
Threat Hunting: Bedeutung und Wertschätzung steigt
weitere Beiträge in Service
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
- Cybersicherheit: SANS-Studie zu Frauen in Führungspositionen
Kommentieren