Aktuelles, Branche - geschrieben von am Montag, Juli 4, 2022 13:07 - noch keine Kommentare

Fake-Anruf: Berlins Regierende Bürgermeisterin im vermeintlichen Video-Telefonat mit Vitali Klitschko

Jelle Wieringa erörtert, ob Fake-Klitschko eine Deepfake- oder doch eher ein Shallowfake-Erscheinung war

[datensicherheit.de, 04.07.2022] Berlins Regierende Bürgermeisterin, Franziska Giffey, soll laut Medienberichten ein Video-Telefonat mit dem Bürgermeister von Kiew, Vitali Klitschko, geführt haben – während des Gesprächs hat sich demnach für Giffey herausgestellt, dass es sich um einen „Fake“-Anruf handelte. Jelle Wieringa, „Security Awareness Advocate“ bei KnowBe4, geht in seiner aktuellen Stellungnahme auf diesen Vorfall ein. Seiner Ansicht nach handelt es sich beim falschen Klitschko wohl um eine kriminelle Nachahmung – aber möglicherweise eher um ein „Shallowfake“.

Jelle Wieringa

Foto: KnowBe4

Jelle Wieringa: In technologischer Hinsicht wohl eher ein weniger anspruchsvoller Shallowfake-Vorfall…

Bürgermeister mehrerer europäischer Hauptstädte im Gespräch mit Fake-Klitschko

Neben den Bürgermeistern mehrerer europäischer Hauptstädte sei auch die Regierende Bürgermeisterin von Berlin, Franziska Giffey, Opfer eines Fake-Anrufs geworden: Hierbei habe sich jemand als Vitali Klitschko, in seiner Eigenschaft als Bürgermeister von Kiew, ausgegeben und erst nach etwa 15 Minuten sei Giffey misstrauisch geworden.

Wieringa berichtet: „Als die Verbindung kurz unterbrochen wurde, kontaktierte das Büro den ukrainischen Botschafter in Deutschland, der über die Behörden in Kiew bestätigte, dass es sich bei der Person in dem Video-Anruf nicht um den echten Klitschko handelte.“

Die Berliner Senatskanzlei selbst habe den ungewöhnlichen Vorgang noch am selben Tag öffentlich gemacht. Auf „Twitter“ sei erklärt worden, dass es sich wohl um einen „Deepfake“-Vorfall gehandelt habe – also um ein mittels Künstlicher Intelligenz (KI) generierte Simulation des Politikers.

Keine Bestätigung für Verwendung einer Deepfake-Manipulation bei Telefonat Giffey-Klitschko zu finden

„Eine Untersuchung des Bildmaterials durch des Politikmagazins ,Kontraste‘ weckt nun jedoch Zweifel daran, dass tatsächlich diese fortschrittliche Technologie zum Einsatz kam“, so Wieringa. Grundsätzlich könne mit einer Software wie beispielsweise „DeepFaceLive“ heute jeder Nutzer, welcher über „adäquate technische Ressourcen“ verfügt, eine überzeugende „Deepfake“-Darstellung erstellen.

„Sie sind als eine echte und ernstzunehmende Bedrohung anzusehen“, betont Wieringa und führt indes weiter aus: „Jedoch ist in diesem Fall nirgends eine Bestätigung für die Verwendung eines ,Deepfake‘ zu finden. Tatsächlich wird auch für ein ,Deepfake‘ eine Vorlage benötigt – am besten viel Video-Material. In Echtzeit erzeugte Ergebnisse waren bislang wenig überzeugend, da früher oder später meist verräterische Bildfehler auftreten.“

Basierend auf existierenden Gesichtsaufnahmen würden Daten gesammelt, anhand derer ein Programm die Mimik und Gestik der Person lernen solle. Schließlich versuche die KI, die Realität selbst zu simulieren und eigene Bilder zu erstellen – passend zu einem neuen Sprechertext. Es handele sich dann nicht um eine einfache Kopie der Vorlage, sondern um eine „anspruchsvolle Neukreation“.

Falscher Klitschko in jedem Fall kriminelle Nachahmung

„Mit dieser zusätzlichen Waffe im Arsenal, können Cyber-Kriminelle nun Privatpersonen, politische Entscheidungsträger und große Organisationen angreifen“, erläutert Wieringa.

Das Erstellen einer guten digitalen Simulation einer Person werde immer unkomplizierter und die Ergebnisse würden von Tag zu Tag besser. In Kombination mit anderen KI-Technologien könnten realistische Gespräche geführt werden, bei denen die meisten Menschen ohne tiefgreifende technische Kenntnisse getäuscht werden könnten. Aus diesen Gründen müssten alle Unternehmen dieses enorme Bedrohungspotenzial in ihren Sicherheitsstrategien berücksichtigen.

Im aktuellen Fall meint Wieringa allerdings: „Bisher konnten keine definitiven Belege gefunden werden, die den Einsatz eines der Klitschko-,Deepfakes‘ ausschließen. Jedoch deutet das vorhandene Bildmaterial darauf hin, dass es sich eher um ein neues Arrangement von alten Interview-Aufnahmen handeln könnte. Es scheint gut möglich, dass die in den ersten Minuten der Anrufe bei Video-Anrufen üblichen Ruckler, kleinere Fehler bei diesem Kopiervorgang kaschiert haben.“ Der falsche Klitschko wäre dann zwar immer noch eine kriminelle Nachahmung – aber ein in technologischer Hinsicht weniger anspruchsvolles „Shallowfake“.

Weitere Informationen zum Thema:

tagesschau, Daniel Laufer (rbb), 28.06.2022
Falscher Klitschko Was gegen ein Deepfake spricht



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung