Aktuelles, Experten - geschrieben von am Mittwoch, Februar 8, 2023 11:41 - noch keine Kommentare

Zum SAFER INTERNET DAY 2023: LfDI Rheinland-Pfalz nimmt Stellung zu KI und ChatGPT

ChatGPT nur ein Beispiel, wie KI-Systeme sich mehr und mehr in digitalen Anwendungen unseres Alltags finden

[datensicherheit.de, 08.02.2023] „Chat-Roboter, Bildgeneratoren und andere KI-Systeme werden seit einigen Wochen aus den IT-Forschungslaboren auf die Internetnutzer losgelassen“, so der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Rheinland-Pfalz (LfDI RLP) in seiner aktuellen Stellungnahme. Aus diesem gegebenen Anlass wirft er „einen genaueren Blick auf Datenschutz“ bei Künstlicher Intelligenz (KI).

Datenschützer begleiteten KI-Entwicklungen seit einigen Jahren und weisen insbesondere auch auf die Gefahren hin

„Den Aufsatz über Vincent van Gogh mit ein paar Klicks schreiben lassen, statt mühsam verschiedene Quellen zusammenzutragen und schöne Sätze zu konstruieren, das verspricht eine Software, die sich derzeit bei Schülern und Studenten großer Beliebtheit erfreut“, berichtet der LfDI RLP anlässlich des diesjährigen „Safer Internet Day“ (SID) am 7. Februar 2023. Seit einigen Wochen sei in Schulen der Sprach-Roboter „ChatGPT“ angekommen, welcher demnach in Sekunden scheinbar von Schülerhand geschriebene Texte über alle möglichen Unterrichtsthemen erstellen kann.

Dies sei nur ein Beispiel, „wie KI-Systeme sich mehr und mehr in digitalen Anwendungen unseres Alltags finden“. Datenschützer begleiteten die Entwicklungen im Bereich KI seit einigen Jahren und wiesen insbesondere auch auf die Gefahren hin, welche diese Systeme bergen könnten: „KI-Systeme, sei es im Sprachassistenten, der Forschung oder bei Sicherheitsbehörden, können menschliche Aufgaben in einem Bruchteil der Zeit erledigen und werden daher als Unterstützung immer verbreiteter. Problematisch ist, dass bei vielen der Systeme der Algorithmus, der die Entscheidungen trifft, eine Black-Box ist“, sagt der Landesdatenschutzbeauftragte Prof. Dr. Dieter Kugelmann und führt weiter aus: „Wer den Algorithmus entwickelt und kontrolliert, der bestimmt die Ergebnisse. Hier kann es schnell zu tendenziösen oder falschen Ergebnissen, politischen Beeinflussungen oder rassistischen Diskriminierungen kommen. Transparenz der Algorithmen und die Möglichkeit, die Systeme durch unabhängige Dritte überprüfen zu lassen, sind daher das A und O, bevor man entsprechende KI-Systeme beispielsweise im Bereich des staatlichen Handelns einführt.“

Die „Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder“ (DSK) habe bereits 2019 in der „Hambacher Erklärung“ zur Künstlichen Intelligenz sieben Anforderungen an KI-Systeme definiert, welche helfen sollten, missbräuchlichen Einsatz zu verhindern.

Datensammlung: Seit Herbst 2022 bei einigen KI-Systemen Login für alle möglich

Dass die „Intelligenz“ der Systeme noch Grenzen habe, zeige sich bei genauerer Betrachtung der Ergebnisse dieser Chat-Roboter oder Bildgeneratoren. Oftmals seien die Texte zwar sprachlich perfekt geschrieben, „inhaltlich gehen sie aber nicht zu sehr in die Detailtiefe oder sind schlichtweg falsch“.

Auch die Bildgeneratoren versagten beim Erstellen der – ansonsten fotorealistischen – Bilder noch bei Details wie Augen, Fingern oder Gegenständen wie Brillen. Um hierfür wirkliche Perfektion zu liefern, fehlten den Systemen schlicht noch mehr menschliche Daten. Das ist eine Triebfeder, warum seit Herbst 2022 bei einigen Systemen der „Login für Jederfrau und Jedermann“ geöffnet worden sei. Millionen Nutzer seien in den ersten Wochen auf diese Plattformen geströmt, welche sich zum Teil nur angemeldet mit einem Account nutzen ließen, und fütterten den Algorithmus mit jeder ihrer Eingaben mit Daten, einschließlich ihrer Mobilfunknummer. Eine immense, valide Testgruppe, welche die Betreiberfirmen und Geldgeber hinter den Programmen mit eigenen Mitteln nie hätten einkaufen können. „Und das trotz beispielsweise angekündigten Investitionen von 10 Milliarden US-Dollar des US-Konzerns Microsoft in ,ChatGPT’. Erst die vermeintlich spielerische Chat-Tätigkeit vieler Millionen Nutzerinnen und Nutzer mit dem Roboter schafft den rasant wachsender Datenbestand, der sich zur Verbesserung der Systeme ausschlachten lässt.“

Professor Kugelmann betont abschließend: „Die Diskussion um KI nimmt zu Beginn des Jahres somit gerade an Fahrt auf. Für Lehrkräfte ist es jetzt eine gute Gelegenheit, in das Thema einzusteigen und sich mit den Schülerinnen und Schülern konstruktiv-kritisch mit den Programmen auseinanderzusetzen.“ Er möchte mit dem neuen Themenbereich zu KI daher gerade Schulen ansprechen und der LfDI RLP werde hierzu in den kommenden Monaten weitere Informationen bereitstellen, „die Schülerinnen und Schülern den Einblick in die Welt der KI und den Schutz ihrer persönlichen Daten erfahrbarer machen sollen“.

Weitere Informationen zum Thema:

YOUNG DATA
Künstliche Intelligenz

SID23, 07.02.2023
SAFER INTERNET DAY

heise online, Stefan Krempl, 05.02.2023
„Virtueller Freund“: Datenschützer stoppen Chatbot Replika in Italien / Die italienische Datenschutzbehörde hat es dem Replika-Entwickler untersagt, Informationen von Nutzern des Landes zu verarbeiten. Die Risiken seien zu hoch.

datensicherheit.de, 04.10.2022
KI: Bitkom kommentiert EU-Haftungsrichtlinie / EU-Kommission hat Entwurf zur Haftungsrichtlinie zu Künstlicher Intelligenz (AI Liability Directive) veröffentlicht

DSK DATENSCHUTZKONFERENZ, 03.04.2019
Hambacher Erklärung zur Künstlichen Intelligenz / Sieben datenschutzrechtliche Anforderungen



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung