Aktuelles, Branche - geschrieben von am Dienstag, September 19, 2023 22:37 - noch keine Kommentare

Gefahren für Politik und Demokratie: Optimierung von Deepfakes mittels KI

Deepfake-Wahlwerbespots könnten mit computergenerierten Bildern von Kandidaten erstellt werden

[datensicherheit.de, 19.09.2023] Sogenannte Deepfakes – d.h. verblüffend authentisch wirkende Videos (und andere Medien), welche Menschen oder Szenen mittels Technologie imitieren – existieren bereits seit Jahren und werden zunehmend für diverse Anwendungszwecke eingesetzt. „So können z.B. mithilfe der Technik bereits verstorbene Künstler wie Salvador Dalí als Teil von interaktiven Ausstellungen wieder zum Leben erweckt werden“, berichtet Morgan Wright, „Chief Security Advisor“ bei SentinelOne. Eine proaktive Zusammenarbeit zwischen Technologieunternehmen, Regulierungsbehörden und der Gesellschaft sei unabdingbar, um dem Anstieg betrügerischer „Deepfakes“ begegnen zu können.

sentinelone-morgan-wright

Foto: SentinelOne

Morgan Wright: Gesellschaft muss digitaler Bildung Vorrang einräumen!

Deepfake-Möglichkeiten der Bedrohungsakteure massiv zugenommen

„In der heutigen Zeit, wo viele Nationen mit globalen Unwägbarkeiten und politischer Instabilität zu kämpfen haben, geht es für Regierungen aber nicht um den Einsatz von KI zur Erzeugung von Spezialeffekten, futuristischer Kulissen oder dystopischen Zukunftsszenarien“, führt Wright aus.

Vielmehr bedeuteten die außergewöhnlichen Fortschritte in der Künstlichen Intelligenz (KI), dass die Möglichkeiten und Werkzeuge der Bedrohungsakteure nun massiv gewachsen seien.

Sie könnten beispielsweise Wahlwerbespots mit computergenerierten Fake-Bildern von Kandidaten produzieren, „die lebensecht erscheinen, um inkriminierende Fehldarstellungen dieser Kandidaten darzustellen“.

Auswirkungen von Deepfakes auf politische Prozesse

Eine Erzählung brauche ein fesselndes Element, um sie im Gedächtnis der Zielgruppe zu verankern. Bei Filmen gehe es um Unterhaltung und die Flucht vor der Realität – oft sei das in der Politik nicht viel anders.

Das fesselnde Element könne ein Bild, ein Audio-Clip oder ein Video sein. Die Fortschritte im Bereich KI hätten sowohl in der Unterhaltungsbranche als auch als Werkzeug für Täuschung ganz neue Möglichkeiten eröffnet. KI benötige große Datenmengen, um effektiv trainiert werden zu können und verlässliche sowie hochwertige Antworten zu liefern.

Wright erläutert: „Je mehr Inhalt, desto besser kann KI die angestrebten Ergebnisse erzielen. Für Bedrohungsakteure deren Ziel die Manipulation menschlichen Verhaltens und die Veränderung zuvor gesicherter Überzeugungen ist, stellt die Fülle von Audio-, Video- und Bilddateien in der politischen Sphäre einen erstklassigen Trainingsplatz dar.“

Falschinformationen: Deepfakes als sehr gefährliche und wirksame politische Waffe

„Die Geschichte hat uns gelehrt, dass Lügen oftmals leichter verbreitet werden als die Wahrheit und sehr schwer zu korrigieren sind“, warnt Wright. In unseren Köpfen gebe es eine direkte Verbindung der eigenen Wahrnehmung hin zu unserem Verständnis von Realität, und es falle uns sehr schwer, dieses anfänglich erzeugte Bild der Realität kritisch zu hinterfragen.

Dieses Phänomen habe ein erhebliches rechtliches und technisches Dilemma geschaffen: „Wie können wir sicher sein, dass ein Video kein ,Deepfake’ ist? Wie beweist man, dass etwas nicht passiert ist?“ Und die größere Frage, welche sich uns stelle: „Wie können wir definitiv beweisen, dass etwas gefälscht ist?“

Im Jahr 2023 habe KI sich in vielen Bereichen bereits weit über die grundlegende menschliche Fähigkeit hinaus entwickelt: Sie ermögliche es, täuschend echte Aufnahmen – ein Bild, ein Video oder eine Stimme – sehr schnell und unkompliziert zu fälschen. Es würden Situationen geschaffen, in denen die Wahrnehmung in den Köpfen der Menschen beeinflusst werden könne – durch gezielte Falschinformationen, „was eine sehr gefährliche und wirksame politische Waffe darstellt“.

Täuschung der Massen mit Deepfakes

„Deepfakes“ seien dadurch eine neue Art der „Weapons of Mass Deception“, also Waffen der Massentäuschung, geworden. Die größte Auswirkung von „Deepfake“-Videos sei nicht die Tatsache, „dass sie gefälscht sind“. Es seien die Nachwirkungen der Täuschung, welche auch lange nach der Entdeckung der Wahrheit in den Köpfen der Menschen bestehen blieben – ein äußerst mächtiges Werkzeug in den Händen von Bedrohungsakteuren.

Diese Art von Szenario und seine potenziellen Folgen habe bereits 1710 Jonathan Swift, der Autor von „Gullivers Reisen“, beleuchtet. In einem Artikel für „The Examiner“ bemerkte er demnach: „Wenn eine Lüge nur eine Stunde lang geglaubt wird, hat sie ihre Arbeit getan, und es besteht keine weitere Notwendigkeit dafür. Die Falschheit fliegt, und die Wahrheit kommt hinkend nach, so dass, wenn die Menschen wieder aufgeklärt werden, es zu spät ist; der Witz ist vorbei, und die Geschichte hat ihre Wirkung entfaltet.“

Eine große Chance für Sicherheitsteams in der Bekämpfung von durch KI optimierten „Deepfakes“, bestehe nun darin, selbst KI einzusetzen, „die darauf trainiert wurde, ,Deepfakes’ zu erkennen“. Aber auch andere Prozesse seien vonnöten: „Angesichts der Bedrohung durch ,Deepfakes’ muss die Gesellschaft der digitalen Bildung Vorrang einräumen, den Einzelnen in die Lage versetzen, zwischen echten und manipulierten Medien zu unterscheiden, in Technologien zur Erkennung von ,Deepfakes’ investieren und rechtliche Rahmenbedingungen schaffen, um böswillige Nutzung zu verhindern.“

Weitere Informationen zum Thema:

The Dalí Museum, 08.05.2019
Behind the Scenes: Dalí Lives



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung