Aktuelles, Branche - geschrieben von dp am Dienstag, September 19, 2023 22:37 - noch keine Kommentare
Gefahren für Politik und Demokratie: Optimierung von Deepfakes mittels KI
Deepfake-Wahlwerbespots könnten mit computergenerierten Bildern von Kandidaten erstellt werden
[datensicherheit.de, 19.09.2023] Sogenannte Deepfakes – d.h. verblüffend authentisch wirkende Videos (und andere Medien), welche Menschen oder Szenen mittels Technologie imitieren – existieren bereits seit Jahren und werden zunehmend für diverse Anwendungszwecke eingesetzt. „So können z.B. mithilfe der Technik bereits verstorbene Künstler wie Salvador Dalí als Teil von interaktiven Ausstellungen wieder zum Leben erweckt werden“, berichtet Morgan Wright, „Chief Security Advisor“ bei SentinelOne. Eine proaktive Zusammenarbeit zwischen Technologieunternehmen, Regulierungsbehörden und der Gesellschaft sei unabdingbar, um dem Anstieg betrügerischer „Deepfakes“ begegnen zu können.

Foto: SentinelOne
Morgan Wright: Gesellschaft muss digitaler Bildung Vorrang einräumen!
Deepfake-Möglichkeiten der Bedrohungsakteure massiv zugenommen
„In der heutigen Zeit, wo viele Nationen mit globalen Unwägbarkeiten und politischer Instabilität zu kämpfen haben, geht es für Regierungen aber nicht um den Einsatz von KI zur Erzeugung von Spezialeffekten, futuristischer Kulissen oder dystopischen Zukunftsszenarien“, führt Wright aus.
Vielmehr bedeuteten die außergewöhnlichen Fortschritte in der Künstlichen Intelligenz (KI), dass die Möglichkeiten und Werkzeuge der Bedrohungsakteure nun massiv gewachsen seien.
Sie könnten beispielsweise Wahlwerbespots mit computergenerierten Fake-Bildern von Kandidaten produzieren, „die lebensecht erscheinen, um inkriminierende Fehldarstellungen dieser Kandidaten darzustellen“.
Auswirkungen von Deepfakes auf politische Prozesse
Eine Erzählung brauche ein fesselndes Element, um sie im Gedächtnis der Zielgruppe zu verankern. Bei Filmen gehe es um Unterhaltung und die Flucht vor der Realität – oft sei das in der Politik nicht viel anders.
Das fesselnde Element könne ein Bild, ein Audio-Clip oder ein Video sein. Die Fortschritte im Bereich KI hätten sowohl in der Unterhaltungsbranche als auch als Werkzeug für Täuschung ganz neue Möglichkeiten eröffnet. KI benötige große Datenmengen, um effektiv trainiert werden zu können und verlässliche sowie hochwertige Antworten zu liefern.
Wright erläutert: „Je mehr Inhalt, desto besser kann KI die angestrebten Ergebnisse erzielen. Für Bedrohungsakteure deren Ziel die Manipulation menschlichen Verhaltens und die Veränderung zuvor gesicherter Überzeugungen ist, stellt die Fülle von Audio-, Video- und Bilddateien in der politischen Sphäre einen erstklassigen Trainingsplatz dar.“
Falschinformationen: Deepfakes als sehr gefährliche und wirksame politische Waffe
„Die Geschichte hat uns gelehrt, dass Lügen oftmals leichter verbreitet werden als die Wahrheit und sehr schwer zu korrigieren sind“, warnt Wright. In unseren Köpfen gebe es eine direkte Verbindung der eigenen Wahrnehmung hin zu unserem Verständnis von Realität, und es falle uns sehr schwer, dieses anfänglich erzeugte Bild der Realität kritisch zu hinterfragen.
Dieses Phänomen habe ein erhebliches rechtliches und technisches Dilemma geschaffen: „Wie können wir sicher sein, dass ein Video kein ,Deepfake’ ist? Wie beweist man, dass etwas nicht passiert ist?“ Und die größere Frage, welche sich uns stelle: „Wie können wir definitiv beweisen, dass etwas gefälscht ist?“
Im Jahr 2023 habe KI sich in vielen Bereichen bereits weit über die grundlegende menschliche Fähigkeit hinaus entwickelt: Sie ermögliche es, täuschend echte Aufnahmen – ein Bild, ein Video oder eine Stimme – sehr schnell und unkompliziert zu fälschen. Es würden Situationen geschaffen, in denen die Wahrnehmung in den Köpfen der Menschen beeinflusst werden könne – durch gezielte Falschinformationen, „was eine sehr gefährliche und wirksame politische Waffe darstellt“.
Täuschung der Massen mit Deepfakes
„Deepfakes“ seien dadurch eine neue Art der „Weapons of Mass Deception“, also Waffen der Massentäuschung, geworden. Die größte Auswirkung von „Deepfake“-Videos sei nicht die Tatsache, „dass sie gefälscht sind“. Es seien die Nachwirkungen der Täuschung, welche auch lange nach der Entdeckung der Wahrheit in den Köpfen der Menschen bestehen blieben – ein äußerst mächtiges Werkzeug in den Händen von Bedrohungsakteuren.
Diese Art von Szenario und seine potenziellen Folgen habe bereits 1710 Jonathan Swift, der Autor von „Gullivers Reisen“, beleuchtet. In einem Artikel für „The Examiner“ bemerkte er demnach: „Wenn eine Lüge nur eine Stunde lang geglaubt wird, hat sie ihre Arbeit getan, und es besteht keine weitere Notwendigkeit dafür. Die Falschheit fliegt, und die Wahrheit kommt hinkend nach, so dass, wenn die Menschen wieder aufgeklärt werden, es zu spät ist; der Witz ist vorbei, und die Geschichte hat ihre Wirkung entfaltet.“
Eine große Chance für Sicherheitsteams in der Bekämpfung von durch KI optimierten „Deepfakes“, bestehe nun darin, selbst KI einzusetzen, „die darauf trainiert wurde, ,Deepfakes’ zu erkennen“. Aber auch andere Prozesse seien vonnöten: „Angesichts der Bedrohung durch ,Deepfakes’ muss die Gesellschaft der digitalen Bildung Vorrang einräumen, den Einzelnen in die Lage versetzen, zwischen echten und manipulierten Medien zu unterscheiden, in Technologien zur Erkennung von ,Deepfakes’ investieren und rechtliche Rahmenbedingungen schaffen, um böswillige Nutzung zu verhindern.“
Weitere Informationen zum Thema:
The Dalí Museum, 08.05.2019
Behind the Scenes: Dalí Lives
Aktuelles, Experten - Juli 12, 2025 10:57 - noch keine Kommentare
Stärkung der Cybersicherheit in Bund und Ländern: BSI und Baden-Württemberg kooperieren
weitere Beiträge in Experten
- Leibniz-Center for Industrial Security: CISPA fokussiert auf Zukunft der Cybersicherheit
- KI-Modelle: BfDI hat öffentliches Konsultationsverfahren gestartet
- Bitkom-Transparenzbericht 2025 veröffentlicht
- Urlaubsfotos in Sozialen Medien: Nur fünf Prozent machen Kindergesichter unkenntlich
- Blaupause für Deutschland: Hessens Rechenzentren-Strategie als Vorbild
Aktuelles, Branche, Studien - Juli 12, 2025 10:44 - noch keine Kommentare
Deepfake-Betrug verursacht finanziellen Schaden in Millionen-Höhe
weitere Beiträge in Branche
- Cyberabwehr: 74 Prozent der deutschen Unternehmen setzen bereits KI ein
- Cybersicherheit: Deutsche Unternehmen setzen zunehmend auf Digitale Souveränität
- Online-Betrug in Deutschland: 10,6 Milliarden Euro Verlust in zwölf Monaten
- Dragos’ Ransomware-Analyse: 68 Prozent der Angriffe im ersten Quartal 2025 trafen die Fertigung
- KI droht zur größten Cyberbedrohung zu werden
Aktuelles, Branche, Umfragen - Juli 9, 2025 19:03 - noch keine Kommentare
DigiCert-Umfrage: Manuelle Zertifikatsprozesse führen zu Ausfällen, Compliance-Fehlern und hohen Verlusten im Unternehmen
weitere Beiträge in Service
- Threat Hunting: Bedeutung und Wertschätzung steigt
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
Kommentieren