Aktuelles, Branche - geschrieben von am Dienstag, Mai 28, 2024 13:51 - noch keine Kommentare

Schatten-KI und EU AI Act: Unternehmen müssen sich den Herausforderungen zeitnah stellen

Philipp Adamidis nimmt Stellung zu Aspekten der erfolgreichen KI-Transformation

[datensicherheit.de, 28.05.2024] Die Fortentwicklung Künstlicher Intelligenz (KI) schreitet offensichtlich mit großen Schritten voran. Ein Beispiel dafür ist nach Ansicht von Philipp Adamidis, „CEO“ und Mitgründer von QuantPi, die in diesen Tagen erschienene neueste Version von „ChatGPT“, welche auch kostenlos zur Verfügung stehe. In seiner aktuellen Stellungnahme geht er aber auch darauf ein, dass gleichzeitig die Skepsis gegenüber dieser neuen Technologie nach wie vor groß sei. Adamidis versteht sich als Pionier auf dem Gebiet vertrauensvoller KI und erörtert die Chancen und Risiken:

Schatten-KI als ernsthaftes Sicherheitsproblem für Unternehmen

Adamidis betont: „KI wird nun endgültig Teil des Arbeitsalltags vieler Menschen. Ich bin sicher, dass der Produktivitätsboost in ganz unterschiedlichen Arbeitsbereichen enorm sein wird.“ Zugleich nähmen allerdings auch die Risiken zu: Der Einsatz sogenannter Schatten-KI, d.h. unautorisierter KI-Tools, werde sich zu einem ernsthaften Sicherheitsproblem für Unternehmen entwickeln. Er warnt ferner: „Doch auch wenn Unternehmen KI einkaufen oder selbst entwickeln, werden die Tools in den meisten Fällen nicht gründlich genug getestet und sind somit ein erhebliches Sicherheits- und Compliance-Risiko.“

Zudem stelle der „EU AI Act“ Organisationen in der kommenden Zeit vor große Herausforderungen. Die alles beherrschende Frage lautet demnach: „Wie gelangen wir zu einer sicheren und verantwortungsbewussten Nutzung von KI?“ man dürfe sich hierbei nicht allein auf die Hersteller und Anbieter von KI-Tools verlassen. „Für Transparenz, Erklärbarkeit und Kontrolle werden wir alle gemeinsam sorgen müssen“, so Adamidis.

Richtlinien für den KI-Umgang unerlässlich

Er hebt hervor, dass klare Richtlinien für den KI-Umgang unerlässlich seien. Ferner sollten Unternehmen dazu in der Lage sein, die eingesetzten KI-Tools selbst zu überprüfen. Nur dann könnten die notwendigen Schutzmaßnahmen ergriffen werden, um die rechtlichen und ethischen Standards des eigenen Unternehmens sicherzustellen. Dies klinge für viele Unternehmen natürlich erst einmal utopisch.

Gerade kleine und mittlere Unternehmen (KMU) verfügten in der Regel nicht über die personellen und finanziellen Ressourcen, um komplexe KI-Systeme zu benchmarken – von sogenannten Start-ups ganz zu schweigen. Die gute Nachricht sei jedoch: Mithilfe innovativer Software-Lösungen ließen sich selbst höchst komplexe „Large Language Models“ inzwischen einfach und ressourcenschonend überprüfen. Auf diese Weise hätten Unternehmen die sichere und verantwortungsbewusste KI-Transformation selbst in der Hand.

Überblick über alle eingesetzten KI-Systeme nebst Risikoklasse

Zum Thema „AI Act“ der EU kommentiert Adamidis: „Der Faktor Zeit ist ganz entscheidend: Unternehmen sollten möglichst rasch einen detaillierten Maßnahmenplan erarbeiten und umsetzen, ansonsten drohen empfindliche Geldbußen!“ Die Bußgelder könnten sich auf bis zu sieben Prozent des erzielten Umsatzes belaufen.

Eine der größten Aufgaben sei es zweifellos, sich einen Überblick über alle eingesetzten KI-Systeme zu verschaffen und die jeweilige Risikoklasse zu ermitteln. Dabei seien diverse Sonderbestimmungen und Ausnahmeregelungen zu beachten. Aber auch die umfangreichen Dokumentations- und Transparenzpflichten sollten nicht unterschätzt werden. „Spezialisierte Risikomanagement-Plattformen erleichtern es glücklicherweise, im Dickicht der Vorschriften und Regelungen den Überblick zu behalten und die technischen und administrativen Herausforderungen zu meistern.“ Das viel gefürchtete Compliance-Chaos lasse sich also mit relativ geringem Aufwand vermeiden.

Verantwortungsvoller KI-Umgang erfolgsentscheidend

Adamidis beobachtet seit geraumer Zeit mit Sorge, dass viele Akteure im KI-Bereich das Thema Vertrauenswürdigkeit zwar werbewirksam auf die Fahnen schrieben, es jedoch in der Praxis nicht immer mit der nötigen Sorgfalt behandelten: „Dadurch ist gerade in jüngster Zeit viel Vertrauen verspielt worden!“

Abschließend stellt er klar: „Dass OpenAI das gesamte Sicherheits-Team aufgelöst hat, halte ich für ein fatales Signal. Denn eines muss uns doch klar sein: Wenn es uns nicht gelingt, zu einem verantwortungsvollen Umgang mit der neuen Technologie zu gelangen und dadurch das Vertrauen der Menschen zu gewinnen, wird die größte technologische Revolution seit der Einführung des Internets unweigerlich scheitern.“

Weitere Informationen zum Thema:

datensicherheit.de, 24.05.2024
KI im Gesundheitswesen: it’s.BB e.V. lädt zur nächsten Awareness-Veranstaltung ein / Rechtliche und technische Herausforderungen des KI-Einsatzes im Fokus

datensicherheit.de, 09.05.2024
Nationale Zuständigkeiten für die KI-Verordnung: Datenschutzkonferenz fordert Aufsicht aus einer Hand / Die DSK empfiehlt, als Marktüberwachungsbehörden nach der KI-VO den Bundesbeauftragten für den Datenschutz und die Informationsfreiheit sowie die Landesdatenschutzbehörden zu benennen

datensicherheit.de, 06.05.2024
DSK-Orientierungshilfe für Unternehmen und Behörden zum datenschutzkonformen KI-Einsatz / Die Orientierungshilfe „Künstliche Intelligenz und Datenschutz“ richtet sich an Unternehmen, Behörden und andere Organisationen



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung