Aktuelles, Branche, Gastbeiträge - geschrieben von am Donnerstag, November 17, 2022 15:15 - noch keine Kommentare

Fünf Schritte für eine verantwortungsbewusstere Künstliche Intelligenz

Ethisches Machine Learning zur Vermeidung von Schäden

Von unserem Gastautor Eric Winston, EVP, General Counsel and Chief Ethics & Compliance Officer, Mphasis

[datensicherheit.de, 16.11.2022] Künstliche Intelligenz (KI) unterstützt bereits heute viele Unternehmen bei ihren alltäglichen Aufgaben. Der Einsatz kann jedoch auch kritisch betrachtet werden, denn mit neuen Technologien kommen unweigerlich nicht beabsichtigte Folgen, sobald die Möglichkeiten dieser Technologie erforscht und getestet werden. Vorurteile der Hersteller bzw. Programmierer können dabei in die KI mit einfließen. Dem können die Unternehmen entgegenwirken, indem sie auch in Bezug auf KI ethisch handeln und transparent mit Kunden und Partnern kommunizieren.

Eric Winston, EVP, General Counsel and Chief Ethics & Compliance Officer, Mphasis

Eric Winston, Mphasis | Bild: Mphasis

Verständnis für potenzielle Schäden durch KI nötig

Machine Learning (ML) Modelle erkennen Muster und Datenbestände. Das befähigt sie dazu, zu lernen und eigenständig Lösungen zu finden. Die Bandbreite reicht von Nachfragevorhersagen bis hin zu Betrugserkennung. Wichtig ist, dass vor der Einführung eine Einschätzung der Risiken des KI-Einsatzes durchgeführt wird. Sie beginnt mit dem Verständnis der potenziellen Schäden, die KI verursachen kann.

Beispielsweise könnte dies die Diskriminierung von Geschlechtern betreffen, wie es etwa 2019 bei Apple passiert ist. Bei der Prüfung auf Kreditwürdigkeit wurden deutlich mehr Frauen bei ähnlichen Anträgen auf die Kreditkarte abgelehnt als Männer – teilweise war der Unterschied zehnfach so groß. Ebenfalls wurden Frauen beim Bewerbungsverfahren des Online-Händlers Amazon als weniger geeignet von der KI bewertet als Männer, sodass deren Lebensläufe der HR-Abteilung nicht angezeigt wurden. Kein Einzelfall: Viele Beispiele für negative, ethische Folgen finden sich in den letzten Jahren in einer Vielzahl aufsehenerregender Zeitungsartikel – von rassistischer Voreingenommenheit in Algorithmen im Gesundheitswesen über Rechenmaschinen zur Rückfallkriminalität bis hin zu hasserfüllten Chatbots.

Problemkind KI-Bias

Das Problem des KI-Bias, also der Voreingenommenheit, liegt darin, dass die Gründe für die KI-Modell-Ergebnisse nicht recherchiert und die richtigen Fragen nicht gestellt werden: Wie funktioniert das Modell, was sind die wichtigsten Daten-Inputs, welche Eingaben haben zu diesem Ergebnis geführt oder auch wie würde das Modell reagieren, wenn eine bestimmte Eingabe verändert wird? Diese Fragen müssen geklärt und transparent sowohl Mitarbeitern als auch Kunden gegenüber kommuniziert werden, um zuverlässige Ergebnisse zu erhalten und glaubwürdig zu bleiben. Da bei der Weiterverarbeitung der Analyse-Ergebnisse oft kein Mensch mehr eingreift, wirkt sich jede Unregelmäßigkeit im Ergebnis direkt auf öffentliches Erscheinungsbild, als auch auf die daraus resultierenden Handlungen im Geschäft aus.

Vorhersagen, Fragen zur Vertrauenswürdigkeit, Verzerrungen und Wahrhaftigkeit können nicht beantwortet werden, ohne zu verstehen, wie ein ML-Modell funktioniert. Ohne dieses Verständnis ist es schwer, ein System richtig zu bewerten und zu diagnostizieren. Grundsätzlich gilt: Wenn das KI-System für den menschlichen Konsum oder die menschliche Interaktion konzipiert ist oder sich auf Daten stützt, die von oder über Menschen gesammelt wurden, dann ist eine ethische Analyse wahrscheinlich gerechtfertigt. Über folgende fünf Best Practices lässt sich das Vertrauen zwischen Verbraucher und Unternehmen festigen

  1. Bedeutung von ethischer KI definieren: Im ersten Schritt müssen Unternehmen für sich definieren, was ethische KI für sie bedeutet und diese ihren Stakeholdern kommunizieren. Diese Definition sollte Kernwerte wie Kundenzufriedenheit und Mitarbeiterengagement widerspiegeln.
  2. KI-Ethikbeauftragten engagieren: KI-Ethikbeauftragte (Chief AI Ethics Officer) sorgen im nächsten Schritt dafür, dass die Anwendung nach den zuvor festgelegten Vorgaben erfolgt. Sie überwachen und bewerten die Einbindung von KI in ein System und schränken die Rechte gegebenenfalls ein, sodass KI nicht für umstrittene Funktionen wie beispielsweise die Gesichtserkennung eingesetzt wird. Dazu führten das MIT und die Stanford University mit den Variablen Hauttyp und Geschlecht Studien durch. So weisen Anwendungen für die Gesichtserkennung bei dunkelhäutigen Frauen eine Fehlerquote von mehr als 34 Prozent auf.
  3. KI-Ethik- und Qualitätssicherungsprüfung: Es braucht eine KI-Ethik- und Qualitätssicherungsprüfung als integralen Bestandteil der Produktentwicklung sowie bei Freigabezyklen. Dabei sollten sich Unternehmen auf verschiedene Anwendungsszenarien und daraus resultierende Ergebnisse konzentrieren – und sicherstellen, dass die verwendeten Datensätze angemessen repräsentativ und vorurteilsfrei sind.
  4. Kunden adressieren: Indem sich Unternehmen direkt an den Kunden wenden, lässt sich der ethische Einsatz von KI ebenfalls sicherstellen. Hier gilt es, zu erklären und zu beschreiben, welche Daten zu welchem Zweck gesammelt und genutzt werden. Darüber hinaus kann das Unternehmen einen sachverständigen Aufsichtsausschuss als Experten einsetzen, um neu entwickelte, KI-gestützte Tools zu testen. Diese Offenheit kann die möglichen Bedenken hinsichtlich des ethischen Einsatzes von KI zur Bereitstellung von Produkten oder Dienstleistungen bei den Kunden erfolgreich zerstreuen.
  5. Daten transparent machen: Da komplexe Algorithmen undurchsichtig erscheinen können, ist es wichtig, die Datenverwendung transparent zu machen. Auch wenn Unternehmen ihr geistiges Eigentum beschützen wollen, sollten sie sich überlegen, ihren Kunden zu erklären, welche Daten zu welchem Zweck gesammelt und genutzt werden. Dabei sollte die Erklärbarkeit nicht nur bei den Modellvorhersagen, sondern auch bei den technischen Prozessen und Designentscheidungen im Vordergrund stehen.

Wie KI die Cyber-Security unterstützt

Gerade mit Blick auf die rasant ansteigende Zahl an Cyberattacken sollten Unternehmen sich der Relevanz des ethischen Umgangs mit KI bewusst sein. Denn es braucht diese Art von Lösungen in der Cyber-Security, um mit der schnellen Entwicklung von neuen Hacking-Methoden mithalten zu können. Datensicherheitsrelevante Vorgänge – etwa Entdecken, Klassifizieren und Wiederherstellen – lassen sich automatisieren. Data Loss Prevention (DLP), Tokenisierung oder Verschlüsselung sind hier mögliche Einsatzgebiete.

Transparente Kommunikation baut Vertrauen auf

Wichtig ist, dass sich Unternehmen ihrer Verantwortung gegenüber ihren Kunden und Partnern bewusst sind. Nur über transparente Kommunikation zu den verwendeten KI-Lösungen sowie zu den definierten Kernwerten baut sich Vertrauen auf. Dazu gehört unter anderem zu erklären, was die KI vertrauenswürdig und vorurteilsfrei macht. Dies ermöglicht allen Beteiligten zu verstehen, wie sich die Modellvorhersagen mit unterschiedlichen Eingaben ändern.

Bei der Datentransparenz gilt es, die Rückverfolgbarkeit von der Datenerfassung und -kennzeichnung bis hin zu den eingesetzten Algorithmen zu gewährleisten. Entscheidungsträger können so das volle Potenzial von KI nutzen und gleichzeitig die Risiken für das Geschäft minimieren. Hier können sich Unternehmen auch an dem Bericht „Ethics Guidelines for Trustworthy AI“ der von der Europäischen Kommission eingesetzten Expertengruppe für Künstliche Intelligenz orientieren.

Weitere Informationen zum Thema:

datensicherheit.de, 15.08.2020
KI-Training: Künstliche Intelligenz benötigt Daten



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung