Aktuelles, Branche - geschrieben von am Dienstag, Mai 21, 2024 17:00 - noch keine Kommentare

Deepfakes: Paragraf zum Persönlichkeitsschutz soll im Strafgesetzbuch Aufnahme finden

Noch können Deepfakes erkannt werden – aber Optimierung schreitet voran

[datensicherheit.de, 21.05.2024] Die Bayerische Staatsregierung hat nach eigenen Angaben Mitte Mai 2024 gefordert, dass die Persönlichkeitsrechte besser vor sogenannten Deepfakes geschützt werden sollten, und schlägt daher einen Paragrafen zum Persönlichkeitsschutz im Strafgesetzbuch (StGB) vor: Dieser solle sich speziell mit Deepfakes auseinandersetzen. „Eine vom Ministerrat beschlossene Gesetzesinitiative wurde am 17. Mai in den Bundesrat eingebracht“, berichtet Dr. Martin J. Krämer, „Security Awareness Advocate“ bei KnowBe4, in seiner Stellungnahme.

knowbe4-martin-j-kraemer-2024

Foto: KnowBe4

Dr. Martin J. Krämer warnt: Cyber-Kriminelle verfolgen mit Deepfakes handfeste kommerzielle Interessen!

Cyber-Kriminelle nutzen Deepfakes für Desinformationen und Betrug

Dr. Krämer erläutert: „Diese Entwicklung wurde vor allem aufgrund einer Welle von Deepfakes ins Leben gerufen, die Persönlichkeitsrechte von Frauen und Mädchen im Internet verletzt.“ Deepfakes hätten jedoch auch eine politische Komponente – „wenn Desinformationen verbreitet werden“. Doch nicht nur in diesen Fällen, sondern auch bei Betrug werde auf dieses Mittel zurückgegriffen: Cyber-Kriminelle verfolgten handfeste kommerzielle Interessen, um Menschen und Unternehmen mit Deepfakes zu erpressen, in eine Investmentfalle zu locken oder aber zu einer Notfallspende ähnlich dem „Enkeltrick“ zu verleiten.

Bevor entsprechende Gesetze wie das der Bayerischen Staatsregierung angestoßene, beschlossen und umgesetzt würden, gehe es für Verbraucher vor allem darum, Deepfakes selbst zu erkennen. „Auch wenn die Fälschungen immer besser werden und es bald unmöglich sein wird, ein gefälschtes von einem echten Video zu unterscheiden, gibt es doch einige Anhaltspunkte.“ Wichtig sei die Unterscheidung zwischen Gesichtsumwandlungen (welche das Gesicht einer Person auf das Gesicht einer anderen Person legten) und vollständig synthetisch erzeugten Videosequenzen, wobei letztere inzwischen kommerziell erhältlich seien und sich in den letzten sechs Monaten erheblich verbessert hätten.

Deepfakes haben manchmal noch Probleme damit, die natürliche Physik einer Szene nachzubilden

„Gesichtsumwandlungen sind manchmal leichter zu erkennen. Vor allem an den Rändern eines Gesichts“, erläutert Dr. Krämer. Ein Hinweis sei, dass das Alter des Gesichtes anders erscheine als das des restlichen Kopfes. Auch die Schatten der Augenbrauen könnten falsch sein. Deepfakes hätten manchmal Probleme damit, die natürliche Physik einer Szene nachzubilden. Ähnliches gelte für Lichtverhältnisse„beispielsweise lässt sich erkennen, ob die Überblendung natürlich wirkt“. Diese Indikatoren seien jedoch bei den häufiger zum Einsatz kommenden vollsynthetisierten Videos weniger zuverlässig.

Verbraucher könnten trotzdem auf die richtige Körpersprache achten. Augenbewegungen sollten beispielsweise Aussagen und Argumente unterstützen. „Wiederholen sie sich oft, anstatt das gesprochene Wort zu unterstützen? Es ist sehr unwahrscheinlich, dass in einer echten Kommunikation gleichbleibende und sich wiederholende Augen- oder Augenbrauen-Bewegungen auftreten.“ Ein weiteres Beispiel seien die Lippenbewegungen: „Die Lippen werden normalerweise mit dem gesprochenen Wort synchronisiert.“ In beiden Fällen könnten Abweichungen Rückschlüsse auf die Echtheit eines Videos zulassen.

Weitere Erforschung wirksamer und zuverlässiger Instrumente zur Erkennung von Deepfakes unerlässlich

Ein weiterer wichtiger Indikator sei die Stimme selbst, insbesondere bei Stimmen von bekannten Persönlichkeiten des öffentlichen Lebens. Anomalien in deren Stimmen seien am leichtesten zu erkennen: „Plötzliche Veränderungen in der Tonhöhe, im Rhythmus und in der Aussprache sind ebenfalls Anzeichen für eine computergenerierte Stimme.“ Bei Audiodateien sei das weniger leicht herauszuhören und weniger häufig. Dr. Krämer gibt noch einen weiteren Rat: „Ein Hinweis, dass es sich um eine Fälschung handelt, ist auch eine übermäßig präzise Aussprache. Niemand spricht konsequent wie ein Nachrichtensprecher, d.h. übermäßig geschliffen und akribisch.“

Aktuell schienen diese Tipps und Hinweise, auf Unregelmäßigkeiten oder zu viel Regelmäßigkeit zu achten, noch zu funktionieren. Es sei allerdings dazu zu raten, sich in nächster Zeit nicht allein darauf zu verlassen. Dr. Krämer betont abschließend: „Am wichtigsten bleibt, kritisches Denken und ein emotionales Bewusstsein zu entwickeln, um Manipulationsversuche abzuwehren.“ Die weitere Erforschung wirksamer und zuverlässiger Instrumente zur Erkennung von Deepfakes bleibe unerlässlich. Schlussendlich sei es ein Wettrüsten, das man zum Nutzen von Wirtschaft und Gesellschaft genau verfolgen müsse.

Weitere Informationen zum Thema:

Bayerische Staatsregierung, 16.05.2024
Strafrechtlicher Schutz von Persönlichkeitsrechten vor Deepfakes / Bayern fordert neuen Paragrafen im Strafgesetzbuch / Bayern bringt Initiative in den Bundesrat ein…

datensicherheit.de, 18.05.2024
Cyber-Angriff mittels Deepfake-Phishing: Mitarbeiter sensibilisieren, CEO-Imitationen zu erkennen! / Anrufe und Textnachrichten sowie mindestens eine Sprachnachricht mit einer per Deepfake-Technologie gefälschten Stimme des CEO

datensicherheit.de, 20.02.2024
Deepfakes: Vielfältige Betrugsversuche / Es gibt aber auch konstruktive Anwendungen für Deepfake-Prinzipien

datensicherheit.de, 19.09.2023
Gefahren für Politik und Demokratie: Optimierung von Deepfakes mittels KI / Deepfake-Wahlwerbespots könnten mit computergenerierten Bildern von Kandidaten erstellt werden

datensicherheit.de, 22.06.2022
Deepfakes bald Standardrepertoire Cyber-Krimineller / Vor allem Soziale Plattformen als neue Spielwiese zur Verbreitung von Deepfake-Material genutzt



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung