Gesichtserkennung – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Fri, 07 Feb 2025 17:09:02 +0000 de hourly 1 https://wordpress.org/?v=5.6.16 Öffentliche Sicherheit contra Privatsphäre: Biometrische KI-Gesichtserkennung in der Diskussion im Vorfeld der Bundestagswahl 2025 https://www.datensicherheit.de/oeffentlichkeit-sicherheit-contra-privatsphaere-biometrie-ki-gesichtserkennung-diskussion-vorfeld-bundestagswahl-2025 https://www.datensicherheit.de/oeffentlichkeit-sicherheit-contra-privatsphaere-biometrie-ki-gesichtserkennung-diskussion-vorfeld-bundestagswahl-2025#respond Sun, 09 Feb 2025 00:08:37 +0000 https://www.datensicherheit.de/?p=46147 Gesuchte Personen im Internet können mit Hilfe der KI-Gesichtserkennungs-Software „PimEyes“ aufgespürt werden

[datensicherheit.de, 09.02.2025] Die Evangelische Akademie Bad Boll bietet nach eigenen Angaben im Vorfeld der Bundestagswahl 2025 eine Online-Reihe zu ausgewählten Themen an: „Wir führen sachkundige Diskussionen mit Fachleuten zu wahlentscheidenden Fragestellungen aus den Bereichen Migration, Digitalität und Wirtschaft und laden Sie zum Gespräch ein.“ Das Thema KI-Gesichtserkennung steht nun auf dem Programm – die Evangelische Akademie Bad Boll lädt zu einer Online-Diskussionsveranstaltung am 13. Februar 2025 ein, um sich im Rahmen einer Pro- und Contra-Diskussion eine eigene Meinung zu bilden:

KI-Software „PimEyes“ kann im Internet von allen genutzt werden – nur nicht von Behörden in der EU

„Was deutsche Strafverfolgungsbehörden 30 Jahre lang nicht geschafft haben, das ist einem kanadischen Journalisten angeblich in 30 Minuten gelungen: Er hat die Ex-RAF-Terroristin Daniela Klette im Internet aufgespürt – mit Hilfe der KI-Gesichtserkennungs-Software ,PimEyes’.“

Diese KI-Software könne im Internet von allen genutzt werden – nur nicht von Behörden innerhalb der Europäischen Union, denn „PimEyes“ gehöre zu einem Unternehmen in Dubai und stehe aufgrund seiner „undurchsichtigen Geschäftspraktiken und seines problematischen Umgangs mit dem Datenschutz“ regelmäßig in der Kritik.

KI-Gesichtserkennungs-Software: Beitrag zur öffentlichen Sicherheit vs. Angriff auf die Privatsphäre

Noch-Bundesinnenministerin Nancy Faeser möchte deutsche Strafverfolgungsbehörden demnach mit ähnlichen Kompetenzen ausstatten. Alexander Poitz, stellvertretender Bundesvorsitzender der Gewerkschaft der Polizei, befürworte dieses Vorhaben als Beitrag zur öffentlichen Sicherheit. Kilian Vieth-Ditlmann, stellvertretender Leiter des „Policy- & Advocacy-Teams“ von AlgorithmWatch, hingegen sehe in der Einführung einer KI-Gesichtserkennungs-Software einen Angriff auf die Privatsphäre.

Am 13. Februar 2025 stellen sich die beiden Kontrahenten im Rahmen einer Online-Veranstaltung der Diskussion pro und contra Einsatz von KI-Gesichtserkennungs-Software: Allen Interessierten biete sich die Möglichkeit, im Rahmen dieser Online-Veranstaltung mit Stellungnahmen von Poitz und Vieth-Ditlmann eine eigene Meinung zu bilden.

Gesichtserkennung mittels KI in der Pro- und Contra-Diskussion

„Biometrische Gesichtserkennung: Öffentliche Sicherheit contra Privatsphäre“
Donnerstag, 13.02.2025, 18.00 bis -19.30 Uhr, online
Teilnahme kostenlos, Online-Anmeldung erforderlich (s.u.)

Agenda (ohne Gewähr):

18.00 Uhr Begrüßung und Einführung
– Pfarrer Peter Steinle

18.10 Uhr Pro-Statement: „Gesichtserkennung als Beitrag zur öffentlichen Sicherheit“
– Alexander Poitz

18.25 Uhr Contra-Statement: „Gesichtserkennung als Angriff auf die Privatsphäre“
– Kilian Vieth-Ditlmann

18.40 Uhr Diskussion

19.20 Abschluss
– Pfarrer Peter Steinle

Weitere Informationen zum Thema und Anmeldung:

evangelische akademie bad boll
13.02.2025, 18:00 – 19:30 Uhr, Online-Veranstaltung, Online / Diskussionsreihe zur Bundestagswahl / Biometrische Gesichtserkennung: Sicherheit contra Privatsphäre

evangelische akademie bad boll
Anmeldung / Diskussionsreihe zur Bundestagswahl / Biometrische Gesichtserkennung: Sicherheit contra Privatsphäre 13.02.2025, Onlineveranstaltung – Tagungsnummer: 530625

datensicherheit.de, 11.05.2024
Biometrische Überwachung: DAV kritisiert geplante Gesichtserkennung / DAV-Kommentar zum intransparenten Einsatz von Observationstechnik

datensicherheit.de, 28.05.2020
Polizei Hamburg: Datenbank zum Gesichtsabgleich gelöscht / Anlässlich der Ermittlungen zu „G20“-Ausschreitungen mit Hilfe von Gesichtserkennung erstellte biometrische Datenbank war heftig umstritten

datensicherheit.de, 14.08.2019
FaceApp: Spitch warnt vor Gesichtserkennung / Authentifizierung anhand der eigenen Stimme deutlich sicherer

datensicherheit.de, 15.12.2017
Pilotprojekt Gesichtserkennung am Bahnhof Südkreuz: Kritik vom Deutschen Anwaltverein / Das massenhafte Scannen von unbescholtenen Personen greift massiv in Grundrechte ein

]]>
https://www.datensicherheit.de/oeffentlichkeit-sicherheit-contra-privatsphaere-biometrie-ki-gesichtserkennung-diskussion-vorfeld-bundestagswahl-2025/feed 0
Biometrische Überwachung: DAV kritisiert geplante Gesichtserkennung https://www.datensicherheit.de/biometrie-ueberwachung-dav-kritik-planung-gesichtserkennung https://www.datensicherheit.de/biometrie-ueberwachung-dav-kritik-planung-gesichtserkennung#comments Sat, 11 May 2024 09:26:01 +0000 https://www.datensicherheit.de/?p=44660 DAV-Kommentar zum intransparenten Einsatz von Observationstechnik

[datensicherheit.de, 11.05.2024] Nach Sachsen sollen nun auch in Berlin Observationssysteme mit Gesichtserkennung eingesetzt werden – „diese mobil sowie stationär einsetzbaren Geräte können Kennzeichen und Gesichter aufnehmen und werden durch die Behörden mit Informationen aus anderen Datenbanken abgeglichen“, meldet der Deutsche Anwaltverein (DAV) in seiner aktuellen Stellungnahme und kritisiert die „Intransparenz beim Einsatz der Technik“ – und warnt vor biometrischer Überwachung.

DAV sieht Recht auf Informationelle Selbstbestimmung berührt

„Über die konkrete Verwendung der Observationstechnik schweigen sich die Behörden in Sachsen und Berlin aus – das ist bedenklich, denn wir reden hier über ein System, das in das Recht auf Informationelle Selbstbestimmung zahlreicher Personen eingreift“, kommentiert Rechtsanwalt Dr. Saleh R. Ihwas, Mitglied des DAV-Ausschusses „Gefahrenabwehrrecht“. Ein derartiges Kamerasystem erfasse nicht nur gesuchte Personen, sondern alle, die es passieren. Die Staatsanwaltschaft Berlin sehe darin dennoch „keine flächendeckende Überwachung“.

„Gerade unter diesem Gesichtspunkt muss transparent damit umgegangen werden, wie die Technik eingesetzt und welche Person wie betroffen wird“, fordert Ihwas. Denn bereits im Jahr 2018 habe das Bundesverfassungsgericht in der zweiten Entscheidung zur automatisierten Kennzeichenkontrolle festgestellt, dass ein Eingriff in das Recht auf Informationelle Selbstbestimmung auch dann vorliege, wenn das Ergebnis des behördlichen Abgleichs zu einem „Nichttreffer“ führe. Bei den mit der hiesigen Observationstechnik ebenfalls aufgenommenen Personen handele es sich um solche „Nichttreffer“. Diese betroffenen Personen könnten zudem mangels Identifikation auch nicht über die Verarbeitung informiert werden. Darüber hinaus führe die sächsische Polizei keine Statistik zu Häufigkeit und Erfolg der Technik, so dass deren tatsächlicher Nutzen offensichtlich nicht einmal überprüft werde.

Intransparenz bei rechtsstaatlich derart heiklem Thema laut DAV nicht hinnehmbar

Generell sei die Intransparenz bei einem rechtsstaatlich derart heiklen Thema nicht hinnehmbar, so Ihwas: „Die Verfassungsmäßigkeit solcher Maßnahmen ist zu bezweifeln. Das Bundesverfassungsgericht hat nicht umsonst hohe Hürden für staatliche Maßnahmen gesetzt, die eine Vielzahl von unbeteiligten Personen betreffen.“

Ihwas unterstreicht abschließend: „Zudem sorgen solche Maßnahmen bei betroffenen Personen in der Regel für ein ungutes Gefühl des Überwachtwerdens.“ Nicht zuletzt deshalb habe der DAV schon in der Vergangenheit stets vor Vorstößen zu Gesichtserkennung und biometrischer Überwachung gewarnt.

Weitere Informationen zum Thema:

datensicherheit.de, 25.07.2022
Verbot automatisierter Gesichtserkennung: Letzte Chance für eine Unterschrift / Digitalcourage erinnert an #ReclaimYourFace-Kampagne, um Verbot automatisierter Gesichtserkennung durchzusetzen

datensicherheit.de, 28.05.2020
Polizei Hamburg: Datenbank zum Gesichtsabgleich gelöscht / Anlässlich der Ermittlungen zu „G20“-Ausschreitungen mit Hilfe von Gesichtserkennung erstellte biometrische Datenbank war heftig umstritten

datensicherheit.de, 01.09.2018
HmbBfDI kritisiert automatisierte Gesichtserkennung der Hamburger Polizei / Löschung der ohne Rechtsgrundlage erhobenen biometrischen Daten gefordert

]]>
https://www.datensicherheit.de/biometrie-ueberwachung-dav-kritik-planung-gesichtserkennung/feed 1
Verbot automatisierter Gesichtserkennung: Letzte Chance für eine Unterschrift https://www.datensicherheit.de/verbot-automatisierung-gesichtserkennung-letzte-chance-unterschrift https://www.datensicherheit.de/verbot-automatisierung-gesichtserkennung-letzte-chance-unterschrift#respond Mon, 25 Jul 2022 08:42:33 +0000 https://www.datensicherheit.de/?p=42108 Digitalcourage erinnert an #ReclaimYourFace-Kampagne, um Verbot automatisierter Gesichtserkennung durchzusetzen

[datensicherheit.de, 25.07.2022] Der Digitalcourage e.V. weist in seiner aktuellen Stellungnahme darauf hin, dass nur noch eine Woche Zeit ist – demnach ist der 31. Juli 2022 der letzte Tag, bis zu dem noch Unterschriften für die „#ReclaimYourFace“-Kampagne gesammelt werden können: „Wir brauchen jetzt Ihre Unterstützung, um ein Verbot automatisierter Gesichtserkennung durchzusetzen. Haben Sie schon unterschrieben und Bekannte dazu aufgefordert, gemeinsam ein Verbot biometrischer Massenüberwachung zu erreichen? Jetzt haben Sie dazu die letzte Chance!“

Biometrische Überwachungstechnologie: Gesichtserkennung u.a. brandaktuelles Thema

Wir stehen laut Digitalcourage am „Scheideweg“: Entweder würden „intelligente“ Videokameras mit Künstlicher Intelligenz (KI) zum Alltag – „was für eine Dystopie!“
Oder wir schafften per Gesetz wirksamen Schutz vor biometrischen Überwachungstechnologien„für uns und für die Demokratie“.
Der Einsatz biometrischer Überwachung, von sogenanntem Profiling und maschinen-basierten Prognosen über Personen stelle eine „Gefahr für die Rechtsstaatlichkeit und unsere wichtigsten Grundfreiheiten“ dar. Dieses Thema sei „brandaktuell“.

Software zur Gesichtserkennung kann Personen anhand eines Fotos identifizierbar machen

Unternehmen wie z.B. Clearview AI böten Software an, mit welcher jede Person anhand eines Fotos identifizierbar werde, und verkauften diese Information dann an Regierungen und Unternehmen.
In „intelligenten“ Supermärkten von Amazon und Real sei bereits damit experimentiert worden, Gangart und Gesten auf Schritt und Tritt zu erfassen, um Kunden über diese Daten beim Einkaufen zu manipulieren.
Hochschulen hätten bei Prüfungen biometrische Überwachungssysteme (zum Beispiel „Proctorio“) gegen Studenten eingesetzt, um jeden Blick und jede Bewegung auf mögliche Schummel-Versuche zu untersuchen.

Gesichtserkennung könnte von Autokratien und Kriminellen missbraucht werden

KI basiere darauf, „dass Systeme darauf trainiert werden, in großen Datenmengen mit Hilfe von statistischen Modellen Muster zu erkennen und diese für Prognosen zu verwenden“. Selbst wenn solche KI-Systeme mit guter Absicht eingesetzt werden, trügen sie die Voreingenommenheit der Programmierer und der Trainingsdaten in sich.
„Damit werden diskriminierende Muster einer Gesellschaft wie Rassismus und Sexismus reproduziert und verstärkt.“ Im schlimmsten Fall ermöglichten biometrische Daten lebenslange Kontrolle und die Verfolgung Unschuldiger“.
Ohne ein Verbot biometrischer Massenüberwachung werde der Missbrauch solcher Technologien durch Autokratien und Kriminelle zum Alltag.

Regierungen, Sicherheitsbehörden und Unternehmen werden Gesichtserkennung u.a. sehr gerne einsetzen

Regierungen, Sicherheitsbehörden und Unternehmen könnten und würden Gesichtserkennung und andere biometrische Überwachungssysteme gegen uns einsetzen, „unsere Körper datafizieren und analysieren“.
Darum brauchten wir jetzt ein Gesetz, um uns europaweit zu schützen.
Digitalcourage rät abschließend: „Fordern Sie unseren öffentlichen Raum zurück. Verlangen Sie ein Verbot biometrischer Massenüberwachung!“

Weitere Informationen zum Thema:

digitalcourage
Reclaim Your Face! / Im Bündnis #ReclaimYourFace kämpfen wir für eine Zukunft ohne biometrische Massenüberwachung. Unterschreiben Sie jetzt noch bis zum 31. Juli!

datensicherheit.de, 17.02.2021
Reclaim Your Face: Europaweite Bürgerinitiative gegen Biometrische Massenüberwachung gestartet / Dr. Patrick Breyer, Bürgerrechtler und Europaabgeordneter, ruft zur Unterstützung der europaweiten Bürgerinitiative auf

]]>
https://www.datensicherheit.de/verbot-automatisierung-gesichtserkennung-letzte-chance-unterschrift/feed 0
Prognose: Smartphone-Credentials sind die Zukunft der Zugangskontrolle https://www.datensicherheit.de/prognose-smartphone-credentials-zugangskontrolle https://www.datensicherheit.de/prognose-smartphone-credentials-zugangskontrolle#respond Mon, 23 Nov 2020 11:44:30 +0000 https://www.datensicherheit.de/?p=38275 Herangehensweise muss überdacht werden und neue Technologien eingesetzt werden

[datensicherheit.de, 23.11.2020] Mobile-Credentials werden laut 2N zur ersten Wahl für die Zugangskontrolle von Wohn- und Bürogebäuden werden. Sicherheitsbedenken und COVID-19 zwingen Organisationen und Unternehmen dazu, ihre Herangehensweise an die Zugangskontrolle zu überdenken und Technologien einzusetzen, die eine sichere und geschützte Lebens- und Arbeitsumgebung für Bewohner bieten.

Neue Herausforderungen durch COVID-19

Der Ausbruch von COVID-19 hat neue Herausforderungen für stark belegte Gebäude mit hochfrequentierten Räumen mit sich gebracht. Smartphone-Credentials bieten eine effektive, bequeme und kontaktlose Lösung für die Zugangskontrolle. Somit lässt sich das Sicherheitsrisiko für alle Beteiligten verringern.

Sicherheits- und Datenschutzbedenken im Zusammenhang mit Gesichtserkennungstechnologien

Sicherheits- und Datenschutzbedenken im Zusammenhang mit Gesichtserkennungstechnologien und anderer biometrischer Datenerfassung zeigt auf, dass Mobile-Credentials eine vertrauenswürdigere und sicherere Alternative zu Touchscreens und Schlüsselkarten sind.

Tomas Vystavel, Chief Product Officer bei 2N, sagt dazu: „Obwohl Gegensprechanlagen mit Touchscreens oder Schlüsselkarten immer noch alltägliche Lösungen für die Zugangskontrolle in Gebäuden mit großer Belegschaft sind, verändert sich die Welt schnell. Organisationen und Unternehmen müssen sicherstellen, dass sie über die richtigen Zugangskontrolllösungen verfügen, um mit den sich ändernden Bedürfnissen und Anliegen der Verbraucher Schritt halten zu können. Wir gehen davon aus, dass Mobile-Credentials für viele Organisationen und Unternehmen zur Standardwahl werden, um ihre Zugangskontrolle zu verbessern.“

Weitere Informationen zu Thema:

datensicherheit.de, 20.11.2020
Hohe Sicherheit: Schlüssel zum Schutz intelligenter Gebäude vor Cyberangriffen

datensicherheit.de, 19.06.2020
2N gibt Marktstart in der DACH-Region bekannt

]]>
https://www.datensicherheit.de/prognose-smartphone-credentials-zugangskontrolle/feed 0
Clearview AI: Auskunftsheranziehungsbescheid erlassen https://www.datensicherheit.de/clearview-auskunftsheranziehungsbescheid-erlass https://www.datensicherheit.de/clearview-auskunftsheranziehungsbescheid-erlass#respond Tue, 18 Aug 2020 19:31:44 +0000 https://www.datensicherheit.de/?p=37546 HmbBfDI fordert transparente Antworten zum Datenschutz bei Clearview

[datensicherheit.de, 18.08.2020] Der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit (HmbBfDI) hat nach eigenen Angaben das in den USA ansässige Unternehmen Clearview AI mittels eines formalen Bescheids angewiesen, „ihm Auskunft zu einer Reihe von Fragen zur dortigen Verarbeitung personenbezogener Daten zu geben“. Clearview AI bietet demnach eine Gesichtserkennungs-App an, „die es Kunden ermöglicht, nach Hochladen eines Fotos einer Person sämtliche öffentlich verfügbaren Fotos, auf denen diese Person zu erkennen ist – z.B. aus Profilen in Sozialen Netzwerken und von sonstigen Internetseiten –, zu ermitteln, zusammenzustellen und auszuwerten“. Dazu habe das Unternehmen offenbar mehrere Milliarden von Fotos von Nutzern weltweit aus dem Internet kopiert und diese Daten zu einem gigantischen, leicht durchsuchbaren Archiv von Gesichtern ausgebaut. Die Rechtmäßigkeit dieser Verarbeitung sei in Bezug auf europäische Betroffene angesichts der fehlenden Einwilligung in die Verarbeitung gerade biometrischer Daten überaus zweifelhaft. Das Unternehmen sei verpflichtet, der Aufsichtsbehörde bis Mitte September 2020 umfassend und aussagekräftig Auskunft zu geben für den Fall der Nichtbereitstellung der geforderten Informationen sei ein Zwangsgeld angedroht worden.

Prof. Dr. Johannes Caspar

HmbBfDI

Prof. Dr. Johannes Caspar: Clearview verpflichtet, bis Mitte September 2020 umfassend und aussagekräftig Auskunft zu geben!

Beschwerde gegen Clearview beim HmbBfDI im Februar 2020 eingereicht

Ausgehend von einer Beschwerde gegen Clearview, die beim HmbBfDI im Februar 2020 eingereicht worden sei, habe dieser mit dem Unternehmen bereits mehrfach Kontakt aufgenommen„Fragen zum Geschäftsmodell und zu den Umständen, die der Beschwerde zugrunde liegen, hat Clearview bislang lediglich ausweichend beantwortet“.
Dabei sei die rechtliche Position vertreten worden, die Datenschutzgrundverordnung (DSGVO) sei für die Verarbeitung durch Clearview insgesamt nicht anwendbar, so dass auch keine Pflicht zur Antwort in der Sache bestehe – „dieser Auffassung tritt der HmbBfDI entgegen“.

Nicht nur Betroffene, sondern auch EU-Kunden von Clearview im Blick

Der räumliche Anwendungsbereich der DSGVO sei über Art. 3 (2) b eröffnet, da die spätere Verhaltensbeobachtung nicht nur die Betroffenen, sondern auch die Kunden von Clearview betreffe. Gerade auch die App-Nutzer, die letztlich im Rahmen ihres Beschäftigungsverhältnisses für Clearview-Kunden, etwa Sicherheitsbehörden oder private Unternehmen, tätig sind, würden durch Cookie-Setzung zu unterschiedlichen Zwecken beobachtet, so z.B. zur Überprüfung ihrer Benutzeraktivitäten oder zur Verbesserung der Benutzererfahrung.
Beschäftigte, die sich dabei in der Europäischen Union befinden, genießen laut HmbBfDI „ebenfalls den Schutz der DSGVO und sind somit Betroffene nach Maßgabe dieser Vorschrift“.

Zwangsgeld gegen Clearview angedroht

Das Unternehmen sei nun verpflichtet, der Aufsichtsbehörde bis Mitte September 2020 umfassend und aussagekräftig Auskunft zu geben. Für den Fall der Nichtbereitstellung der geforderten Informationen sei ein Zwangsgeld in Höhe von je 10.000 Euro für jeden Einzelfall der insgesamt siebzehn Fragekomplexe angedroht worden.
„Geschäftsmodelle, die darin bestehen, massenhaft und anlasslos Bilder im Netz zu sammeln und die Gesichter von Personen durch biometrische Analyse identifizierbar zu machen, gefährden die Privatsphäre im globalen Maßstab“, warnt der HmbBfDI, Prof. Dr. Johannes Caspar. Zum Schutz Betroffener unter der EU-Grundrechtecharta müssten sie anhand der DSGVO kontrolliert, reguliert und nötigenfalls gestoppt werden.

Prof. Caspar geht davon aus, dass Clearview die Fragen beantworten oder Rechtsmittel einlegen wird

In Europa dürfe es keinen Raum für „düstere digitale Dystopien“ geben, in denen der Einsatz von Gesichtserkennungssoftware und biometrische Datenbanken staatlichen, aber auch privaten Stellen eine neue, kaum mehr kontrollierbare Form der Herrschaft über Menschen verschaffte. Die Datenschutzaufsichtsbehörden hätten den Auftrag, hierüber zu wachen. Das gelte auch gegenüber Unternehmen, „die entsprechende Geschäftszwecke von außerhalb der EU verfolgen und damit die Privatsphäre und die informationelle Selbstbestimmung von Menschen in der EU in Frage stellen“.
Professor Caspar betont abschließend: „Um eine datenschutzrechtliche Kontrolle zu ermöglichen, gehe ich davon aus, dass Clearview die dem Unternehmen gestellten Fragen beantworten oder zumindest gegen den Heranziehungsbescheid Rechtsmittel einlegen wird, um so eine rechtliche Entscheidung zu ermöglichen.“

Weitere Informationen zum Thema:

datensicherheit.de, 28.05.2020
Polizei Hamburg: Datenbank zum Gesichtsabgleich gelöscht / Anlässlich der Ermittlungen zu „G20“-Ausschreitungen mit Hilfe von Gesichtserkennung erstellte biometrische Datenbank war heftig umstritten

]]>
https://www.datensicherheit.de/clearview-auskunftsheranziehungsbescheid-erlass/feed 0
FaceApp: Spitch warnt vor Gesichtserkennung https://www.datensicherheit.de/faceapp-spitch-warnt-vor-gesichtserkennung https://www.datensicherheit.de/faceapp-spitch-warnt-vor-gesichtserkennung#respond Wed, 14 Aug 2019 13:47:04 +0000 https://www.datensicherheit.de/?p=34197 Authentifizierung anhand der eigenen Stimme deutlich sicherer

[datensicherheit.de, 14.08.2019] Der Schweizer Sprachsystemanbieter Spitch rät nach eigenen Angaben „zur Vorsicht bei biometrischer Gesichtserkennung, die Authentifizierung anhand der eigenen Stimme ist deutlich sicherer“.

Weitergabe des eigenen Bildes per FaceApp nicht ungefährlich

„FaceApp“ sei derzeit die beliebteste App der Welt – doch die Weitergabe des eigenen Bildes sei nicht ungefährlich, warnt die Spitch AG. Der Grund: Wer ein Selfie bei „FaceApp“ hochlädt, um es mit Künstlicher Intelligenz (KI) zu verfremden, mache damit sein biometrisches Porträtfoto für die Anbieterfirma Wireless Lab verfügbar.

Biometrisches Foto des eigenen Gesichts äußerst sensibel

„Abermillionen von Verbrauchern sind sich offenbar nicht darüber im Klaren, dass ein biometrisches Foto des eigenen Gesichts äußerst sensibel ist“, warnt daher Bernd Martin von Spitch Deutschland vor dem leichtfertigen Umgang damit. Er betont: „Die Authentifizierung anhand der persönlichen Stimme, wie sie immer häufiger eingesetzt wird, ist deutlich sicherer als die Gesichtserkennung.“

Missbrauch eines Bildes kann für Betroffene schwerwiegende Folgen haben

Biometrische Porträts dienten dazu, Personen anhand ihres Gesichts zu identifizieren und würden in Ausweisen als ultimativer Beweis für die Identität einer Person verwendet. Der Missbrauch eines Bildes etwa für „Fake News“, eine fehlerhafte Gesichtserkennung durch Kameras im Öffentlichen Raum oder ein biometrisch perfekter, aber falscher Ausweis könne für den Betroffenen schwerwiegende Folgen haben.

Gesichtserkennung steigert Risiko für kriminelle Nutzung

Das „Fatale“, so Martin, bei Selfies sei, dass sie nicht nur auf einem Server verarbeitet, sondern auch auf Millionen von Smartphones gespeichert seien, und daher viel leichter entwendet und missbraucht werden könnten. Sprachsysteme, die eine Person anhand ihrer Stimme identifizieren, sind nach seiner Darstellung „deutlich sicherer, weil die biometrischen Sprachdaten stets nur auf Servern, aber nicht auf den Smartphones gespeichert werden“.

Biometrische Sprach-Identifizierung mit Löschen des Stimmprofils auf Server beendet

Jede Sprachauthentifizierung erfolge direkt und ausschließlich auf dem Server, während bei einer Gesichtsidentifizierung zunächst ein Foto auf dem Smartphone gespeichert und erst anschließend hochgeladen werde. „Bei Sprache ist die biometrische Identifizierung mit dem Löschen des Stimmprofils auf dem Server beendet, während beim Gesicht beliebig viele Kopien auf Smartphones zurückbleiben können“, erläutert Martin.

Biometrisches Foto für Gesichtserkennung steht dauerhaft zur Verfügung

Martin resümiert: „Wir alle müssen uns an die biometrische Vermessung unseres Körpers erst gewöhnen. Dabei werden häufig die Unterschiede zu wenig beachtet. Wer ein biometrisches Foto von sich verbreitet, stellt dieses damit sozusagen ewig zur Verfügung. Anders bei Sprache: Die Stimmerkennung erfolgt exakt zum Zeitpunkt der Aussprache und ist unmittelbar danach beendet.“

Weitere Informationen zum Thema:

datensicherheit.de, 19.07.2019
FaceApp: Hype lockt Betrüger an / ESET Forscher entdecken Betrugswelle mit der derzeit beliebten App

]]>
https://www.datensicherheit.de/faceapp-spitch-warnt-vor-gesichtserkennung/feed 0
HmbBfDI kritisiert automatisierte Gesichtserkennung der Hamburger Polizei https://www.datensicherheit.de/hmbbfdi-kritik-automatisierte-gesichtserkennung-hamburger-polizei https://www.datensicherheit.de/hmbbfdi-kritik-automatisierte-gesichtserkennung-hamburger-polizei#respond Sat, 01 Sep 2018 12:39:59 +0000 https://www.datensicherheit.de/?p=28628 Löschung der ohne Rechtsgrundlage erhobenen biometrischen Daten gefordert

[datensicherheit.de, 01.09.2018] Der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit (HmbBfDI) hat am 31. August 2018 eine Stellungnahme zur Einführung der automatisierten Gesichtserkennung abgegeben, welche er entschieden beanstandet – denn es sei ist keine Rechtsgrundlage für die Erstellung von biometrischen Gesichtsabdrücken durch die Polizei Hamburg ersichtlich.

Umfangreiche biometrische Erfassung im Umfeld des „G20-Gipfels“

Der HmbBfDI hat „nach umfassender Prüfung“ den Einsatz eines Verfahrens der automatisierten Gesichtserkennung durch die Polizei Hamburg als „datenschutzwidrig“ beanstandet.
Dieser Beanstandung liege der Sachverhalt zugrunde, dass anlässlich des sogenannten G20-Gipfels in Hamburg die dortige Polizei Bild- und Videomaterial von insgesamt 100 Terabyte zur Verfolgung begangener Straftaten erhoben und davon zunächst 17 TB in einer Datenbank zusammengeführt haben soll.
Das Material stamme aus gänzlich unterschiedlichen Quellen: Über die Dauer von z.T. mehr als vier Tagen seien im Verlauf des „G20-Gipfels“ die Videoaufnahmen aus verschiedenen S-Bahnhöfen entnommen worden; es seien gar Privatpersonen aufgefordert worden, über ein Portal eigene Bild- und Videodateien hochzuladen. Ferner seien eigene Aufnahmen der Polizei sowie Bilder aus der Berichterstattung in den Medien hinzugezogen worden.
Durch den Einsatz der dafür eigens angeschafften Software „Videmo 360“ seien ausnahmslos alle Gesichter von Menschen, die sich auf dem umfangreichen Video- und Bildmaterial befanden, biometrisch verarbeitet worden. Dabei seien markante Punkte des menschlichen Gesichts durch die Software ausgelesen und als abrufbare und abgleichbare mathematische Modelle (sog. Gesichtstemplates) abgespeichert worden.

Massiver Eingriff in die Privatsphäre der Bürger

Bei Vorliegen von tatsächlichen Anhaltspunkten, die auf die Begehung einer Straftat von bestimmten Personen schließen ließen, nutze die Polizei den Datenbestand, um nach Bildern von Personen zu suchen. Das Verfahren ermögliche dabei die Suche in zweierlei Richtung: nach unbekannten Personen, von denen lediglich Video- oder Bildaufnahmen aus den verschiedenen Quellen vorhanden sind, wie auch die Invers-Recherche nach namentlich bekannten Personen, von denen die Polizei bereits anderweitig über Bilder, jedoch keine von den damaligen Gipfel-Ereignissen verfügt.
Der HmbBfDI kritisiert: „Mit der automatisierten Gesichtserkennung wird in Hamburg damit eine neue Technologie im Echtbetrieb eingeführt, deren Einsatz die gesetzlich austarierte Balance zwischen informationeller Selbstbestimmung und staatlichen Eingriffsbefugnissen zur Strafverfolgung massiv zu Lasten der Privatsphäre von Bürgerinnen und Bürgern verschiebt.“

Eine neue Dimension staatlicher Ermittlungs- und Kontrolloptionen

Die Technologie eröffne Wege zur Fahndung und Überwachung von Personen, die das menschliche Auge bei Weitem nicht leisten könne. Dabei gehe es vorliegend nicht um die ursprüngliche Erhebung von Videos oder Bildern durch die Polizei oder andere verantwortliche Stellen, sondern um die biometrische Vermessung aller auf dem umfassenden Bildmaterial enthaltenen Gesichter, ohne dass der weitaus größte Teil der Betroffenen durch eigenes Verhalten dazu Anlass gegeben hätte, und um die Speicherung dieser Daten für einen längeren Zeitraum als Referenzdatenbestand zum Abgleich mit bestimmten Personen.
Kriminaltechnisch erschließe sich den Strafverfolgungsbehörden damit eine „neue Dimension staatlicher Ermittlungs- und Kontrolloptionen“. Überall dort, wo Bildmaterial des Öffentlichen Raumes zur Verfügung steht, könne es künftig zu einer umfassenden Profilbildung von Menschen kommen: Standorte von einzelnen Personen könnten über länger zurückliegende Zeiträume rekonstruiert, Bewegungsprofile erstellt und Beziehungen zu anderen Menschen dokumentiert werden. Diese Informationen, etwa die Teilnahme an einer Versammlung, ermöglichten Schlüsse auf Verhaltensmuster und Präferenzen des Einzelnen. Die Verknüpfungsmöglichkeiten eröffneten vielfältige Nutzungsmöglichkeiten, die sowohl die grundrechtlich geschützten Geheimhaltungsinteressen des Betroffenen beeinträchtigten, als auch anschließende Eingriffe in seine Verhaltensfreiheit nach sich ziehen könnten.

Biometrische Massendatenverarbeitung derzeit gesetzlich nicht bestimmt

Nach intensiver rechtlicher Prüfung und Auswertung des Verfahrens ist der HmbBfDI nach eigenen Angaben zu dem Ergebnis gelangt, dass die Erzeugung von mathematischen Gesichtsmodellen einer unbegrenzten Anzahl von in der Masse verdachtslos erfassten Bürgern im Stadtgebiet über den Zeitraum von zumindest mehreren Tagen und deren Speicherung für eine unbestimmte Zeit einer besonderen gesetzlichen Befugnis bedarf, die den Eingriff in das informationelle Selbstbestimmungsrecht rechtfertigt.
Weder Voraussetzungen und Umfang derartiger Verfahren biometrischer Massendatenverarbeitung seien derzeit gesetzlich bestimmt, noch gebe es Verfahrensregelungen, die den Schutz von Rechten und Freiheiten Betroffener gegenüber einer Erzeugung von Gesichts-IDs in verhältnismäßiger Weise näher festlegen.

Im Rechtsstaat steht der Gesetzgeber in der Pflicht

„Wenn bereits die Häufung von Straftaten ausreicht, um den Ermittlungsbehörden nicht nur den Zugriff auf zahllose Bilddateien, sondern auch die zeitlich und örtliche nahezu unbegrenzte Auswertung biometrischer Identitäten von Tausender Unbeteiligter zu ermöglichen, vermittelt die Herrschaft über Bilder eine neue Intensität staatlicher Überwachungs- und Eingriffsbefugnisse, die hoch missbrauchsgefährdet sind“, warnt Johannes Caspar, der HmbBfDI.
Im Rechtsstaat sei es Sache des Gesetzgebers, für derartige grundrechtssensible Eingriffe durch eingriffsintensive Instrumente klare inhaltliche Vorgaben wie auch Verfahrensgarantien für Betroffene zu formulieren. Es dürfe nicht allein der Einschätzung von Strafverfolgungsbehörden auf der Basis allgemeiner Grundsätze überlassen bleiben, biometrische Massendatenerhebungen zur Ermittlung von Straftätern durchzuführen.
Das Bundesverfassungsgericht habe die Einhaltung derartiger rechtsstaatlicher Grundsätze etwa bei der Rasterfahndung und sogar bereits für das automatische Scannen von Kfz-Kennzeichen eingefordert. Caspar: „Solange der Gesetzgeber davon absieht, klare Vorgaben für den Einsatz dieser Technologie zu formulieren, können entsprechende Maßnahmen nicht auf eine unspezifische Auffangkompetenz von Generalklauseln gestützt werden. Ich gehe davon aus, dass die Beanstandung dazu führt, dass der Einsatz dieses Verfahrens gestoppt wird und eine Löschung der ohne Rechtsgrundlage erhobenen biometrischen Daten erfolgt.“

Weitere Informationen zum Thema:

Der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit
Datenschutzrechtliche Prüfung des Einsatzes einer Gesichtserkennungssoftware zur Aufklärung von Straftaten im Zusammenhang mit dem G20-Gipfel durch die Polizei Hamburg

datensicherheit.de, 26.06.2018
Öffentlicher Raum: Überwachung nur auf höchstem Schutzniveau

datensicherheit.de, 06.12.2017
Digitalcourage kritisiert Videoüberwachung auf Bahnhöfen und Toiletten

datensicherheit.de, 02.03.2017
Videoüberwachung: Grenzen der Zulässigkeit und Beaufsichtigung

datensicherheit.de, 11.12.2014
Stärkung des Datenschutzes: HmbBfDI begrüßt EuGH-Urteil zur Videoüberwachung

]]>
https://www.datensicherheit.de/hmbbfdi-kritik-automatisierte-gesichtserkennung-hamburger-polizei/feed 0
Pilotprojekt Gesichtserkennung am Bahnhof Südkreuz: Kritik vom Deutschen Anwaltverein https://www.datensicherheit.de/pilotprojekt-gesichtserkennung-am-bahnhof-suedkreuz-kritik-vom-deutschen-anwaltverein https://www.datensicherheit.de/pilotprojekt-gesichtserkennung-am-bahnhof-suedkreuz-kritik-vom-deutschen-anwaltverein#respond Fri, 15 Dec 2017 21:07:26 +0000 https://www.datensicherheit.de/?p=27128 Das massenhafte Scannen von unbescholtenen Personen greift massiv in Grundrechte ein

[datensicherheit.de, 15.12.2017] Der Deutsche Anwaltverein (DAV) hat in einer aktuellen Stellungnahme betont, weiterhin „einen flächendeckenden Einsatz von Gesichtserkennungssystemen an öffentlichen Plätzen, wie Bahnhöfen“ abzulehnen. Das massenhafte Scannen von unbescholtenen Personen greife massiv in deren Grundrechte, wie der informationellen Selbstbestimmung, ein.

Gesichtserkennung nicht mit Vorgaben des Bundesverfassungsgerichts vereinbar

Für eine Ausweitung der Überwachung über den Testbetrieb am Berliner Bahnhof Südkreuz hinaus, fehle es an einer Rechtsgrundlage. Ein solches System der Gesichtserkennung mit Hilfe der Datenerfassung und deren Speicherung sei auch nicht mit den Vorgaben des Bundesverfassungsgerichts vereinbar.

Warnung vor dem „Gefühl des ständigen Überwachtwerdens“

DAV-Präsident Ulrich Schellenberg: „Fakt bleibt, dass in jedem Fall – auch bei einer Fahndung – der Scan aller Nutzer erfasst und geprüft werden muss. Dabei stellt sich die Frage, wie lange die Daten unbescholtener Bürgerinnen und Bürger gespeichert werden.“
Das Bundesverfassungsgericht habe in mehreren Entscheidungen ausdrücklich davor gewarnt, dass eine anlasslose Überwachung einen Grad der Überwachung erreichen kann, bei dem das „Gefühl des ständigen Überwachtwerdens“ entsteht. So beispielsweise in der Entscheidung zur Vorratsdatenspeicherung oder im Urteil zum automatisierten Erfassen von Kfz-Kennzeichen.

Den Bogen deutlich überspannt

Der Bürger werde heute bei so vielen Gelegenheiten überwacht, „dass wir eine Gesamtbetrachtung aller einzelnen Maßnahmen vornehmen müssen“, unterstreicht Schellenberg. Hier werde „der Bogen deutlich überspannt“. Dies etwa im Hinblick auf bereits eingeführte Möglichkeiten, etwa dem automatisierten Abrufen biometrischer Passbilder nach dem Pass- und Personalausweisgesetz durch Polizeibehörden, das Bundesamt für Verfassungsschutz, die Landesämter für Verfassungsschutz, der Militärische Abschirmdienst und den Bundesnachrichtendienst sowie der Quellen-TKÜ.

Weitere Informationen zum Thema:

datensicherheit.de, 01.08.2017
Gesichtserkennung in Bahnhöfen: Deutscher Anwaltverein kritisiert massiven Eingriff in Grundrechte

]]>
https://www.datensicherheit.de/pilotprojekt-gesichtserkennung-am-bahnhof-suedkreuz-kritik-vom-deutschen-anwaltverein/feed 0
Digitalcourage kritisiert Videoüberwachung auf Bahnhöfen und Toiletten https://www.datensicherheit.de/digitalcourage-kritisiert-videoueberwachung-auf-bahnhoefen-und-toiletten https://www.datensicherheit.de/digitalcourage-kritisiert-videoueberwachung-auf-bahnhoefen-und-toiletten#respond Wed, 06 Dec 2017 20:32:14 +0000 https://www.datensicherheit.de/?p=27112 Gesichtserkennung auf dem Berliner Bahnhof Südkreuz nur der Anfang

[datensicherheit.de, 06.12.2017] Der Digitalcourage e.V. hat am 4. Dezember 2017 zusammen mit dem „Aktionsbündnis Endstation“ gegen die Gesichtserkennung am Berliner Bahnhof Südkreuz protestiert.

Automatische Gesichtserkennung im gesamten Berliner S-Bahn-Netz geplant

Digitalcourage-Vorstand padeluun habe vor Ort deutlich gemacht, dass dieses Projekt nur der Anfang sei:
Geplant sei eine automatische Gesichtserkennung im gesamten Berliner S-Bahn-Netz. Unabgetastet komme dann kein Mensch mehr vom Zuhause zur Arbeit oder in die Schule.

Viedeoüberwachung auch auf Schultoiletten

Selbst Schultoiletten würden mittlerweile videoüberwacht – dies sei „kein Witz“:
Aktuell stehe eine Schule in Großbritannien in der Kritik, weil sie Kameras in den Toiletten angebracht habe, und dies sei nicht der erste Fall. Videoüberwachung sei der „Versuch, gesellschaftliche Probleme mit Kontrolltechnologie zu lösen“, was für eine Demokratie „definitiv der falsche Weg“ sei.

Weitere Informationen zum Thema:

digitalcourage, 30.11.2017
Endstation – Bilder vom Protest am Bahnhof Berlin Südkreuz

digitalcourage, 30.11.2017
Kameras auf der Schultoilette? Leider kein Witz

digitalcourage
Kommentar: Sicherheit durch Überwachung! Ein gefährliches Versprechen

datensicherheit.de, 06.10.2017
Verbraucher wollen keine Supermärkte mit Gesichtserkennung

]]>
https://www.datensicherheit.de/digitalcourage-kritisiert-videoueberwachung-auf-bahnhoefen-und-toiletten/feed 0
Verbraucher wollen keine Supermärkte mit Gesichtserkennung https://www.datensicherheit.de/verbraucher-wollen-keine-supermaerkte-mit-gesichtserkennung https://www.datensicherheit.de/verbraucher-wollen-keine-supermaerkte-mit-gesichtserkennung#respond Fri, 06 Oct 2017 14:43:38 +0000 https://www.datensicherheit.de/?p=26945 Marketing mit Gesichtsaufzeichnungen – ohne Zustimmung der Verbraucher – löst starke Bedenken und Unsicherheiten aus

[datensicherheit.de, 06.10.2017] Während beim Online-Shoppen viele Anbieter die Verbraucher-Daten für Werbezwecke analysieren, würde ein realer Supermarkt, welcher Gesichter von Kunden für ähnliche Zwecke scannt, die Mehrheit der Verbraucher abschrecken, so dass diese dort seltener oder gar nicht mehr einkaufen würden. Dies zeige eine repräsentative Online-Befragung des „Marktwächter-Teams Digitale Welt“ der Verbraucherzentrale NRW zum Einsatz von Gesichtserkennung in Supermärkten, Sozialen Netzwerken und zu Sicherheitszwecken im Privaten.

Umstritten: Personenmerkmale erkennen und Gesichtsmuster analysieren

Vier von fünf (78 Prozent) Befragten hätten schon einmal davon gehört, dass Gesichtserkennung im Verbraucheralltag zum Einsatz kommt. Dabei sei es der Software möglich, anhand von Foto- oder Kameraaufzeichnungen Personenmerkmale zu erkennen und Gesichtsmuster zu analysieren.
Den Einsatz dieser Technologie lehne allerdings die Mehrheit der Befragten ab: Die Verbraucher hätten sich vorstellen sollen, dass ihr Gesicht beim Einkauf von einer Kamera automatisch erkannt und für verschiedene Zwecke analysiert wird. Dabei stoße beispielsweise die Auswertung von Gesichtsaufzeichnungen für zielgruppenspezifische Werbung bei drei Viertel der Befragten auf große Ablehnung (76 Prozent „überhaupt nicht“ / „eher nicht in Ordnung“).

Stärkste Ablehnung bei den über 60-Jährigen

„Marketing mit Gesichtsaufzeichnungen – ohne Zustimmung der Verbraucher – löst starke Bedenken und Unsicherheiten bei ihnen aus. Schließlich ist das Gesicht ein unveränderliches biometrisches Merkmal mit dem Verbraucher eindeutig identifiziert werden können“, erläutert Ricarda Moll, Referentin im „Marktwächter Digitale Welt“ in der Verbraucherzentrale NRW.
71 Prozent lehnten auch Auswertung für zielgruppengerechte Rabatte ab. Vor allem die Analyse des Gesichtsausdrucks zur Verbesserung von Werbespots werde von den Teilnehmern überwiegend kritisch gesehen (83 Prozent). Alle drei Einsatzmöglichkeiten würden von den über 60-Jährigen am stärksten abgelehnt.

Private Daten: Kontrollverlust befürchtet

Die mehrheitliche Ablehnung spiegele sich auch in den Datenschutzbedenken wider: Beim Einsatz von automatisierter Gesichtserkennung im Supermarkt wäre die Mehrheit besorgt, dass unbemerkt Informationen über sie gesammelt werden könnten (84 Prozent). Sie störten sich daran, in diesem Fall keine Kontrolle über die gesammelten Informationen zu haben (82 Prozent). Nur knapp ein Viertel (24 Prozent) vertraue darauf, dass die gesammelten Informationen nicht ohne Erlaubnis mit anderen Unternehmen geteilt und die Datenschutzinteressen im Auge behalten würden. Über zwei Drittel (69 Prozent) hätten angegeben an, seltener oder überhaupt nicht mehr in einem Supermarkt einkaufen zu wollen, wenn dieser Gesichtserkennungstechnologie einsetzen würde.
„Verbraucher sind also grundsätzlich auch dazu bereit, Konsequenzen zu ziehen, wenn sie eine Gefahr für ihre Privatsphäre sehen“, betont Moll.

Nutzer Sozialer Netzwerke lehnen Gesichtserkennung mit großer Mehrheit ab

In anderen Kontexten sehen Verbraucher den Einsatz demnach ebenfalls kritisch: Fast alle Nutzer Sozialer Netzwerkseiten (90 Prozent) lehnten Gesichtserkennung – um etwa Freunde vorgeschlagen zu bekommen – durch den Netzwerk-Anbieter ab.
Am geringsten ausgeprägt sei die Ablehnung der Befragten, wenn es um den Einsatz von Gesichtserkennungstechnologie durch Privatpersonen geht: Hierbei fände es die Mehrheit von ihnen in Ordnung, wenn etwa eine Überwachungskamera (z.B. an der Haustür eines Privathaushalts) das Gesicht zu Sicherheitszwecken analysieren würde (56 Prozent).

„ePrivacy-Verordnung“ muss nachgebessert werden!

„Die bestehenden datenschutzrechtlichen Regelungen und die ab Mai 2018 geltende Datenschutz-Grundverordnung müssen beim Einsatz von Gesichtserkennungstechnologien konsequent umgesetzt und durchgesetzt werden“, fordert Lina Ehrig, Leiterin „Team Digitales und Medien“ beim Verbraucherzentrale Bundesverband (vzbv).
Neben Gesichtserkennung wiesen die Verbraucherschützer auf Überwachung durch andere Methoden des Offline-Trackings hin: So biete beispielsweise auch die WLAN-Verbindung des Smartphones die Möglichkeit, Verbraucher in der Offline-Welt zu identifizieren und gezielte Werbung anzuzeigen. „Dies darf aus Verbrauchersicht nur mit Einwilligung möglich sein“, fordert Ehrig – die aktuell in Europa verhandelte „ePrivacy-Verordnung“ müsse entsprechend nachgebessert werden.

Weitere Informationen zum Thema:

verbraucherzentrale Bundesverband, 21.06.2017
Beim Shoppen auf Schritt und Tritt überwacht

datensicherheit.de, 01.08.2017
Gesichtserkennung in Bahnhöfen: Deutscher Anwaltverein kritisiert massiven Eingriff in Grundrechte

]]>
https://www.datensicherheit.de/verbraucher-wollen-keine-supermaerkte-mit-gesichtserkennung/feed 0