Gastbeiträge – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Tue, 03 Mar 2026 14:04:35 +0000 de hourly 1 Vier Säulen der Cyber-Resilienz https://www.datensicherheit.de/vier-saeulen-der-cyber-resilienz https://www.datensicherheit.de/vier-saeulen-der-cyber-resilienz#respond Tue, 03 Mar 2026 14:04:34 +0000 https://www.datensicherheit.de/?p=52965 In einer Erhebung von Absolute Security gaben 83 Prozent der befragten CISOs an, dass Cyber-Resilienz wichtiger sei als traditionelle Cybersicherheitsmaßnahmen, und 90 Prozent hätten bereits eine Resilienzstrategie in ihrem Unternehmen umgesetzt.

Von unserem Gastautor Harold Rivas, Chief Information Security Officer (CISO), Absolute Security

[datensicherheit.de, 03.03.2026] Trotz langjähriger Investitionen in Abwehrmaßnahmen nehmen Cyberangriffe und kostspielige Ausfallzeiten weiter zu. Traditionelle Sicherheitsmethoden zur Bedrohungsprävention und -erkennung bleiben zwar nach wie vor relevant, doch unter CISOs zeigt sich eine Veränderung in der Herangehensweise. Viele erweitern ihr Aufgabengebiet, um zusätzlich die Leitung von Wiederherstellungsmaßnahmen nach Sicherheitsvorfällen zu übernehmen, damit ihr Unternehmen rasch wieder betriebsbereit ist. Dieser Trend spiegelt sich in einer aktuellen Erhebung von Absolute Security wider: 83 Prozent der befragten CISOs gaben an, dass Cyber-Resilienz wichtiger sei als traditionelle Cybersicherheitsmaßnahmen, und 90 Prozent haben bereits eine Resilienzstrategie in ihrem Unternehmen umgesetzt.

Harold Rivas, Chief Information Security Officer (CISO), Absolute Security

Harold Rivas, Chief Information Security Officer (CISO), Absolute Security, Bild: Absolute Security

Der Begriff der Cyber-Resilienz ist in der Security-Branche heute allgegenwärtig. Damit das Konzept echte Wirkung entfalten kann, muss es als strategische Notwendigkeit begriffen werden, bei denen Unternehmen nicht nur die Fähigkeit erwerben, Angriffen standzuhalten, sondern auch besser auf sie vorbereitet zu sein und gestärkt aus ihnen hervorzugehen.

Definition von Cyber-Resilienz

Ein guter Ausgangspunkt ist die Definition des National Institute of Standards and Technology (NIST), das Cyber-Resilienz als die Fähigkeit beschreibt widrige Umstände, Belastungen, Angriffe oder Kompromittierungen zu antizipieren, ihnen standzuhalten, sich von ihnen zu erholen und sich an sie anzupassen. Für CISOs, die diesen Ansatz verfolgen, bedeutet dies eine Verlagerung des Fokus von rein defensiven Strategien hin zu einem integrierteren und proaktiveren Ansatz. Es reicht nicht mehr aus, nur zu versuchen, das Unvermeidliche zu verhindern. Sicherheitsverantwortliche müssen ihre Unternehmen darauf vorbereiten, Cyberangriffe und ihre Auswirkungen zu bewältigen sowie Geschäftsbetrieb und -kontinuität vollständig und so schnell wie möglich wiederherzustellen.

Von der Prävention zur Resilienz

Bei der Cyber-Resilienz geht es nicht darum, alle Risiken zu beseitigen, sondern vielmehr darum, Systeme und Prozesse zu schaffen, die Angriffen standhalten, ohne dass es zu massiven Störungen oder Ausfallzeiten kommt. Der Übergang von präventionsorientierten Strategien zu resilienzorientierten Frameworks ist für den langfristigen Schutz entscheidend. Um dies zu unterstützen, sind vier wichtige Säulen unerlässlich, damit Cyber-Resilienz als zentrale organisatorische Fähigkeit und nicht als eine reaktive Maßnahme verankert wird.

Säule 1: Maximale Sichtbarkeit und Kontrolle der Endpunkte

Cyber-Resilienz beginnt mit einer vollständigen Sichtbarkeit und Kontrolle über jeden Endpunkt. CISOs müssen sicherstellen, dass Geräte auch dann geschützt und verwaltbar bleiben, wenn der primäre Agent ausfällt. Bei der Transparenz geht es nicht nur darum zu wissen, was sich im Netzwerk befindet, sondern auch um das Verständnis, wie sich diese Ressourcen verhalten, wie sie konfiguriert sind und unter Druck reagieren.

Säule 2: Aufrechterhaltung der Kontrollhygiene

Die Zuverlässigkeit der bestehenden Sicherheitskontrollen ist ebenfalls unverzichtbar. Konfigurationsabweichungen sind eine ständige Herausforderung, da Sicherheitstools im Laufe der Zeit deaktiviert oder falsch konfiguriert werden. Untersuchungen von Absolute Security zeigen, dass bis zu 25 Prozent der Sicherheitskontrollen zu einem bestimmten Zeitpunkt eventuell nicht im gewünschten Zustand sind. Die Sicherstellung der vollen Funktionsfähigkeit kritischer Anwendungen trägt dazu bei, dass diese auch unter Druck effektiv arbeiten. Eine starke Kontrollhygiene erfordert eine kontinuierliche Validierung, und CISOs müssen automatisierte Prüfungen und Korrekturmaßnahmen implementieren, damit die Kontrollen über den gesamten Lebenszyklus jedes Geräts hinweg intakt bleiben.

Säule 3: Implementierung einer Zero-Trust-Architektur (ZTNA)

Hierbei spielt der Zero-Trust-Ansatz eine entscheidende Rolle, bei dem jede Geräte- und Benutzeranfrage überprüft wird. Zero Trust Network Access (ZTNA) ist kein einzelnes Tool, sondern ein strategischer Ansatz, der die Sicherheit von einem netzwerkzentrierten zu einem ressourcenorientierten Modell verlagert. ZTNA bietet eine granulare Kontrolle über Zugriffe und spezifische Aktionen und stellt sicher, dass nur autorisierte Benutzer und Geräte mit bestimmten Ressourcen interagieren können.

Säule 4: Schnelle Wiederherstellung und Anpassung

Zudem ist es wichtig, sich auf die Fähigkeit zu einer schnellen Wiederherstellung nach Sicherheitsvorfällen konzentrieren. Dies umfasst mehr als nur Technologie, es bedeutet auch eine enge Zusammenarbeit mit DevOps- und SRE-Teams, um zu verstehen, was den operativen Betrieb des Unternehmens aufrechterhält. Durch die proaktive Simulation von Ausfällen und Angriffen wird die erforderliche Routine für eine schnelle, effektive Wiederherstellung aufgebaut. Cyber-Resilienz geht über den Schutz hinaus und konzentriert sich auf eine rasche Recovery sowie die kontinuierliche Anpassung von Maßnahmen. Durch die Analyse nach einem Vorfall können bestehende Kontrollen optimiert und die zukünftige Verteidigung gestärkt werden. Diese Entwicklung von Systemen, die Ausfällen standhalten, verwandelt Vorfälle in Lernmöglichkeiten und ermöglicht es Unternehmen, sich nach jeder Störung schneller zu erholen und gestärkt daraus hervorzugehen.

Resilienz als Kernstrategie verankern

Cyber-Resilienz ist eine Teamleistung. Um erfolgreich zu sein, muss sie gemeinsames Ziel der gesamten Organisation sein und bei der Unternehmensleitung beginnen. Bei der Strategieentwicklung von CISOs mit der Führungsebene sollten im Gespräch der Schutz des Geschäftsbetriebs durch eine Minimierung der Ausfallzeiten im Fokus stehen. Zugleich versetzt die Abstimmung proaktiver Maßnahmen mit der Führungsebene Sicherheitsteams in die Lage, im Ernstfall zielgerichtet und rasch zu handeln. Durch die Vorbereitung auf Ausfälle und die Schaffung einer einheitlichen Linie vom Vorstand bis hinunter zu den Mitarbeitern können CISOs eine Kernstrategie verankern, durch die Cyberattacken beherrschbare Zwischenfälle statt massiver Krisen sind.

Weitere Informationen zum Thema:

datensicherheit.de, 09.04.2025
Cyber-Resilienz statt bloße Cyber-Resistenz: 5 Tipps für mehr Widerstandsfähigkeit gegenüber -angriffen

]]>
https://www.datensicherheit.de/vier-saeulen-der-cyber-resilienz/feed 0
ISO/IEC 42001: Verantwortungsvolle KI – ein neuer Standard für Cybersicherheit https://www.datensicherheit.de/iso-iec-42001-ki-standard-cybersicherheit https://www.datensicherheit.de/iso-iec-42001-ki-standard-cybersicherheit#respond Thu, 26 Feb 2026 13:33:09 +0000 https://www.datensicherheit.de/?p=52871 Bis zur Einführung der Norm existierte kein global einheitlicher Standard, der Governance, Risikomanagement und Verantwortlichkeiten für KI-Systeme systematisch definiert. Die Norm schließt diese Lücke und bietet Organisationen einen strukturierten Rahmen, um KI sicher, nachvollziehbar und regulatorisch konform zu betreiben.

Von unserem Gastautor Max Heinemeyer, Global Field CISO, Darktrace

[datensicherheit.de, 26.02.2026] Die Einführung der ISO/IEC 42001 markiert einen wichtigen Meilenstein für die sichere und verantwortungsvolle Nutzung von Künstlicher Intelligenz (KI). Als weltweit erste Managementsystem-Norm für KI schafft sie einen strukturierten Rahmen – insbesondere für sicherheitskritische Bereiche wie die Cybersicherheit.

Max Heinemeyer, Global Field CISO, Darktrace

Max Heinemeyer, Global Field CISO, Darktrace, Bild: Darktrace

In einer Zeit, in der KI nicht nur Prozesse automatisiert, sondern zunehmend eigenständig Entscheidungen vorbereitet oder trifft, ist ein klar definiertes Governance-Modell unerlässlich. Gerade in sensiblen Umfeldern wie der Datenverarbeitung und IT-Sicherheit bietet ISO/IEC 42001 eine dringend benötigte Orientierung.

Warum ein KI-Standard notwendig ist

KI-Systeme sind heute weit mehr als unterstützende Werkzeuge. Sie priorisieren Sicherheitsvorfälle, analysieren große Datenmengen in Echtzeit und reagieren automatisiert auf Bedrohungen. Diese Fähigkeiten erhöhen die Geschwindigkeit und Effektivität der Cyberabwehr erheblich. Gleichzeitig entstehen neue Risiken: mangelnde Transparenz, algorithmische Verzerrungen, unklare Entscheidungslogiken oder zusätzliche Angriffsflächen für Manipulation.

Bis zur Einführung der ISO/IEC 42001 existierte kein global einheitlicher Standard, der Governance, Risikomanagement und Verantwortlichkeiten für KI-Systeme systematisch definiert. Die Norm schließt diese Lücke und bietet Organisationen einen strukturierten Rahmen, um KI sicher, nachvollziehbar und regulatorisch konform zu betreiben.

Die Struktur der ISO/IEC 42001

Im Kern definiert die Norm Anforderungen an ein „Artificial Intelligence Management System“ (AIMS). Die Struktur orientiert sich an etablierten ISO-Managementsystemen wie ISO/IEC 27001 und umfasst sieben zentrale Elemente:

Kontext der Organisation: Unternehmen müssen interne und externe Faktoren identifizieren, die Einfluss auf ihr KI-Managementsystem haben.

  • Führung: Die Unternehmensleitung trägt Verantwortung für Governance-Strukturen und stellt sicher, dass KI-Strategien klar definiert und umgesetzt werden.
  • Planung: Risiken und Chancen im Zusammenhang mit KI-Systemen müssen systematisch identifiziert, bewertet und dokumentiert werden.
  • Unterstützung: Ressourcen, Kompetenzen, Schulungen und Kommunikationsstrukturen sind bereitzustellen, um eine wirksame Steuerung des KI-Managementsystems zu gewährleisten.
  • Betrieb: Organisationen müssen Prozesse etablieren, die Entwicklung, Einsatz und Nutzung von KI-Systemen gemäß den definierten Richtlinien sicherstellen.
    Leistungsbewertung: Regelmäßige Überprüfung und Bewertung der Wirksamkeit des KI-Managementsystems sind verpflichtend.
  • Verbesserung: Das System muss kontinuierlich weiterentwickelt und an neue Risiken oder regulatorische Anforderungen angepasst werden.

Darüber hinaus enthält Annex A konkrete Kontrollziele, unter anderem zur Datennutzung, zum Lebenszyklus von KI-Systemen, zur Bewertung gesellschaftlicher Auswirkungen sowie zum Management von Drittanbieterrisiken.

Ein zentraler Aspekt der Norm ist die Kompatibilität mit bestehenden Standards wie ISO/IEC 27001 (Informationssicherheit) und ISO/IEC 27018 (Schutz personenbezogener Daten in Cloud-Umgebungen). Dadurch lässt sich KI-Governance in bestehende Compliance-Strukturen integrieren.

ISO/IEC 42001-Zertifizierung in der Praxis

Nach rund elf Monaten Implementierungsphase und erfolgreichen Stage-1- und Stage-2-Audits durch das British Standards Institute (BSI) gehört Darktrace zu den ersten Cybersicherheitsunternehmen weltweit mit ISO/IEC 42001-Zertifizierung.

Im Rahmen der Auditierung wurden Menschen, Prozesse und Technologien umfassend geprüft. Die Zertifizierung umfasst ein breites Spektrum an KI-Technologien – von maschinellen Lernverfahren über Bayes’sche Modelle und neuronale Netze bis hin zu graphentheoretischen Analysen und spezialisierten Large-Language-Models.

Diese Technologien kommen unter anderem bei Anomalieerkennung, autonomer Reaktion, Bedrohungsanalyse und forensischen Untersuchungen zum Einsatz.

Ein wesentlicher Unterschied liegt dabei im Ansatz der selbstlernenden KI: Systeme lernen das individuelle Normalverhalten jeder Kundenumgebung – von der Cloud über das Netzwerk bis zum E-Mail-Verkehr – ohne auf statische Regeln oder bekannte Angriffssignaturen angewiesen zu sein. Dadurch lassen sich auch bislang unbekannte Angriffe in Echtzeit identifizieren.

Bedeutung für Verantwortliche in der Datensicherheit

Für Fachkräfte im Bereich Datenschutz und Informationssicherheit bietet ISO/IEC 42001 konkrete Vorteile:

  • Strukturierte Dokumentation und Auditfähigkeit: Die Norm stellt ein prüfbares Rahmenwerk zur Bewertung von KI-Systemen bereit.
  • Regulatorische Vorbereitung: Mit zunehmender Regulierung – etwa durch den EU AI Act – gewinnt nachweisbare Governance an strategischer Bedeutung.
  • Vertrauensbildung: Eine Zertifizierung signalisiert Kunden, Partnern und Aufsichtsbehörden, dass KI nicht nur leistungsfähig, sondern auch verantwortungsvoll eingesetzt wird.

Damit fungiert ISO/IEC 42001 als internes Steuerungsinstrument und externes Vertrauenssignal zugleich.

Fazit: Ein notwendiger Schritt in die Zukunft

KI wird in der Cybersicherheit künftig eine noch zentralere Rolle einnehmen. Doch technologische Leistungsfähigkeit allein reicht nicht aus. Entscheidend ist ein Governance-Rahmen, der Transparenz, Kontrolle und kontinuierliche Verbesserung sicherstellt.

ISO/IEC 42001 ist kein rein regulatorisches Konstrukt, sondern ein praxisnahes Instrument für Organisationen, die KI verantwortungsvoll einsetzen möchten. Für Unternehmen im Bereich Datenschutz und Informationssicherheit empfiehlt es sich, die Norm frühzeitig in bestehende Managementsysteme zu integrieren – als Grundlage für eine nachhaltige und vertrauenswürdige KI-Strategie.

Über den Autor:

Max Heinemeyer ist ein Cyber-Sicherheitsexperte mit mehr als zehn Jahren Erfahrung in diesem Bereich. Sein Fokus liegt auf einer Vielzahl von Bereichen wie Penetrationstests, Red-Teaming, SIEM- und SOC-Beratung und die Jagd auf Advanced Persistent Threat (APT)-Gruppen. Bei Darktrace ist Heinemeyer eng mit den strategischen Kunden und Interessenten verbunden. Er arbeitet mit dem F&E-Team von Darktrace zusammen und gestaltet die Forschung zu neuen KI-Innovationen sowie deren verschiedenen defensiven und offensiven Anwendungen. Seine Erkenntnisse werden regelmäßig in internationalen Medien wie der BBC, Forbes und WIRED veröffentlicht. Er hat seinen Master of Science an der Universität Duisburg-Essen und seinen Bachelor of Science an der Dualen Hochschule Stuttgart in internationaler Wirtschaftsinformatik absolviert.

Weitere Informationen zum Thema:

datensicherheit.de, 21.01.2026
DAX-40-Unternehmen: Cybersicherheit von einer Randnotiz zum strategischen Kernthema

datensicherheit.de, 05.07.2016
KRITIS: TÜV Rheinland beschreibt fünf Vorteile der ISO 27001 für Betreiber

]]>
https://www.datensicherheit.de/iso-iec-42001-ki-standard-cybersicherheit/feed 0
Cyberrisiko Vibe Coding https://www.datensicherheit.de/cyberrisiko-ki-vibe-coding https://www.datensicherheit.de/cyberrisiko-ki-vibe-coding#respond Wed, 25 Feb 2026 16:31:23 +0000 https://www.datensicherheit.de/?p=52864 Zunehmend generiert KI Programmcode und nimmt Entwicklern Arbeit ab. Doch bei Vibe Coding ist Vorsicht geboten: der Code ist oft fehlerhaft und für die OT-Sicherheit mit Risiken behaftet. Es ist aufwändig, Anlagen gegen Angriffe von außen und Störungen durch Coding-Fehler zu schützen. Doch der Aufwand lohnt sich.

Ein Kommentar von unserem Gastautor Eduardo Moreno, Executive Industry Consultant bei Hexagon

[datensicherheit.de, 25.02.2026] 2025 hat KI Schätzungen zufolge rund 40 Prozent des Codes auf der ganzen Welt geschrieben. Dieses sogenannte „Vibe Coding“, das viele Unternehmen als Produktivitätssprung feiern, kann auf Kosten der Cybersicherheit gehen.

Eduardo Moreno, Executive Industry Consultant bei Hexagon

Eduardo Moreno, Executive Industry Consultant bei Hexagon, Bild: Hexagon

So zeigt eine aktuelle Studie von Apiiro: Mit ChatGPT-5 oder Claude schreiben Entwickler drei- bis viermal mehr Code als Kollegen ohne KI-Unterstützung. Gleichzeitig schleusen sie die zehnfache Menge an Risiken ein: durch ungeprüfte Open-Source-Abhängigkeiten, falsch gesetzte Cloud-Berechtigungen oder versehentlich veröffentlichte Zugangsdaten.

Slopsquatting: Wenn die KI Pakete erfindet

Neuerdings machen sich Hacker DIE Achillesferse der KI zunutze: Halluzinationen. Beim sogenannten „Slopsquatting“ nutzen Angreifer aus, dass Chatbots in Codebeispielen manchmal Bibliotheken oder Pakete, also wiederverwendbare Code-Bausteine, empfehlen, die plausibel klingen, aber nicht existieren. Sie sammeln die Namen solcher erfundenen Pakete, registrieren sie in den üblichen Paket-Ökosystemen und füllen sie mit Schadcode. Wer den KI-Vorschlag unkritisch übernimmt, hat eine Hintertür für Hacker installiert.

Fast 20 Prozent der von Chatbots empfohlenen Pakete existierten nicht, zeigte eine Untersuchung von über 500.000 Code-Samples. Das testete der Sicherheitsforscher Bar Lanyado anhand des am häufigsten halluzinierten Paketnamens. Innerhalb von drei Monaten luden 30.000 User Lanyados „Trojaner“ herunter.

Fachkräftemangel als Brandbeschleuniger

Dass solche Kniffe funktionieren, liegt nicht nur an der KI. Viele Unternehmen können den Output schlicht nicht zuverlässig prüfen. Es fehlt an Routine im Security-Audit von Code und Abhängigkeiten, an sauberem Berechtigungsmanagement und an Prozessen, die Fehlkonfigurationen früh abfangen. Durch den Fachkräftemangel wird auch Grundwissen, etwa über Zugriffskontrollen, Malware-Erkennung und einem verlässlichen Patch-Management, zum raren Gut.

Neben Attacken von außen können auch schlechte Softwarequalität und alltägliche Codierungsfehler verheerend wirken: ein Update zur falschen Zeit, eine fehlerhafte Policy, eine Konfiguration, die im IT-Netz harmlos wirkt und in der Operational Technology (OT) alles kippt. Wie schnell aus einem Fehler ein Flächenbrand wird, zeigte sich im Juli 2024: Ein fehlerhaftes Update von Crowdstrike führte weltweit zu Ausfällen bei Fluggesellschaften, Banken und Krankenhäusern.

Gefahrenquelle OT

Am heikelsten wird es an der Schnittstelle zwischen der digitalen und physischen Welt: in der Operational Technology. Das Institute for Homeland Security an der Sam Houston State University dokumentierte Vorfälle wie einen Cybersecurity-Patch an einer Gasturbine, der das kontrollierte Herunterfahren über das Leitsystem verhinderte. In einem anderen Fall legte ein Netzwerk-Scan mehrere kritische Umspannwerke lahm, weil Steuergeräte den Scan als Denial-of-Service-Angriff interpretierten.

Neben knappen Ressourcen, zusätzlich verschärft durch den Fachkräftemangel, ist ein häufiger Auslöser für Angriffe auf OT-Umgebungen banal: Unternehmen exponieren industrielle Steuerungssysteme im Internet.

Resilienz ist die neue Prävention

Ressourcenknappheit, unsaubere Prozesse rund um den Betrieb von Anlagen, fehlende OT-Governance und schlicht Unachtsamkeit zählen zu den größten Quellen für Ausfälle, Fehlfunktionen und Angriffe von außen. Angesichts dieser komplexen Gemengelage muss Cybersicherheit weiter gedacht werden als „Hackerabwehr“.

Die Maßnahmen für Cyberresilienz sind in der Theorie bekannt, in der Praxis oft lückenhaft: saubere Backups, dokumentierte Konfigurationsstände, Change Detection, mehrere verlässliche Wiederherstellungspunkte.

Solche Prozesse aufzusetzen ist mühsam und zeitintensiv, weil sie eine hochkomplexe Welt abbilden, Unmengen an Daten benötigen und ständig aktualisiert werden müssen. Dafür entsteht am Ende ein digitaler Zwilling sämtlicher Assets im Unternehmen. Mit diesem lässt sich planen, was, wann, wo wie aktualisiert werden muss, es lassen sich Angriffsszenarien simulieren und auch ein KI-generierter Code kann in einer virtuellen Umgebung sicher getestet werden.

Fehler, Angriffe und Ausfälle lassen sich nicht zu 100 Prozent verhindern. Aber das Risiko für gravierende Schäden sinkt, wenn alle Assets über ihren Lebenszyklus digital abgebildet sind. Dann lassen sich potenzielle Einfallstore identifizieren, Systeme wieder herstellen und sicherheitsrelevante Policies überprüfen. Der initiale Aufwand lohnt sich immer.

Weitere Informationenzum Thema:

datensicherheit.de, 20.01.2026
OT-Sicherheit: Mittels KI Verunsicherung überwinden und Vertrauen begründen

]]>
https://www.datensicherheit.de/cyberrisiko-ki-vibe-coding/feed 0
Olympische Winterspiele – Angriffe auf digitale Identitäten als größtes Cyberrisiko https://www.datensicherheit.de/olympia-2026-winter-digitale-identitaeten https://www.datensicherheit.de/olympia-2026-winter-digitale-identitaeten#respond Fri, 20 Feb 2026 17:28:07 +0000 https://www.datensicherheit.de/?p=52758

Die größte Herausforderung für die Cybersicherheit der Olympischen Winterspiele 2026 sind nicht Schadprogramme oder fehlende Sicherheitspatches, sondern Angriffe auf digitale Identitäten.

Von unserem Gastautor Mohamed Ibbich, Senior Director Solutions Engineering bei BeyondTrust

[datensicherheit.de, 20.02.2026] Reibungslose Abläufe bei den Olympischen Winterspielen in Mailand und Cortina basieren auf einer zuverlässigen IT-Infrastruktur. Akkreditierungssysteme, Live-Übertragungen und die Zeitmessung an den Wettkampfstätten erfordern ein effizientes Zusammenspiel der eingesetzten Dienste und Technologien. Grundlage für den sicheren Datenaustausch zwischen Applikationen und Softwaresystemen ist, dass Personen, Maschinen und Services verifiziert werden — insbesondere bei automatisierten Kommunikationsprozessen.

Mohamed Ibbich, Senior Director Solutions Engineering bei BeyondTrust

Mohamed Ibbich, Senior Director Solutions Engineering bei BeyondTrust, Bild: BeyondTrust

Herausforderung Cybersicherheit – Komplexe IT-Infrastruktur

Eine besondere Herausforderung besteht darin, dass alle Sportstätten miteinander vernetzt sind und erstmals zwei Städte als offizielle Gastgeber fungieren. Insgesamt verteilen sich die Wettbewerbe auf sechs verschiedene Orte, die mit digitaler Infrastruktur verbunden und synchronisiert werden. Für die Veranstalter in Mailand und Cortina rückt das Thema Cybersicherheit mehr denn je in den Fokus. Allein die geografische Ausdehnung über den italienischen Teil der Ostalpen erweitert die Angriffsfläche durch unterschiedliche Netzwerke, Mobilfunknetze, Cloud- und Administrationsprozesse.

Servicekonten, APIs, IoT-Sensoren…

Ein besonderes Augenmerk muss auf digitaler Identitätssicherheit liegen. Die Zahl maschineller und menschlicher Zugangskonten wächst exponentiell. Jede maschinelle Identität und jedes Personenkonto erhöht die Gefahr, dass Unbefugte sie für Seitwärtsbewegungen im Netzwerk nutzen. Für die Olympischen Winterspiele werden Millionen menschlicher und nicht-menschlicher Identitäten für einen kurzen Zeitraum bereitgestellt, modifiziert und wieder außer Betrieb genommen.

IT-Administratoren benötigen beispielsweise privilegierte Nutzerrechte, um Infrastruktur, Betrieb, Echtzeitübertragung und mehr unterstützen zu können. Und natürlich sind die Athleten, Trainer, Offiziellen, Freiwilligen, Medienvertreter, Dienstleister, Sponsoren, Einsatzkräfte und Zeitarbeiter in irgendeiner Form auf digitale gesteuerte Zugangsmöglichkeiten angewiesen.

Mehr maschinelle als personenbezogene Indentitäten 

Der Bedarf an maschinellen Identitäten übertrifft sogar die Summe menschlicher Konten um ein Vielfaches. Maschinenkonten verteilen sich oft über mehrere Systeme, Standorte und nicht verwaltete Geräte hinweg. Servicekonten, APIs, IoT-Sensoren, OT-Systeme und KI-Agenten benötigen allesamt eigene Zugangsdaten und Privilegien.

Viele Passwörter, Secrets und Einwahldaten werden für den vergleichsweise kurzen Zeitraum nicht aktualisiert. Übermäßig dimensionierte Nutzerrechte bleiben dauerhaft und können womöglich nicht ausreichend nachverfolgt werden. Die größte Herausforderung für die Cybersicherheit der Olympischen Winterspiele 2026 sind daher nicht Schadprogramme oder fehlende Sicherheitspatches, sondern Angriffe auf digitale Identitäten.

Goldphantasien für Hacker

Bei sicherheitstechnisch lückenhaften IT-Vorkehrungen kommen Bedrohungsakteure in Rekordzeit über die Ziellinie. Gestohlene Zugangsdaten ermöglichen ihnen unbemerkten Zugriff und Passwortwechsel sowie Datendiebstahl. Ohne die technischen Möglichkeiten, unbefugte Zugriffe zu unterbinden und Zugangskonten selektiv zu widerrufen, könnte ein einfacher Datenschutzverstoß zu einem massiven Sicherheitsvorfall werden. Cybersicherheitsexperten warnen, dass privilegierte Identitäten digitale Raubzüge vereinfachen und nicht-menschlichen Identitäten eine dauerhafte und unbemerkte Präsenz verschaffen.

Kontrolle von Identitäten und Privilegien essentiell

Die Voraussetzung für sicherheitstechnisch erfolgreiche Winterspiele ist, dass sich digitale Identitäten und Privilegien in großem Maßstab bei allen Teilnehmern vor Ort sowie bei Drittanbietern kontrollieren lassen. Jede Zugriffsanfrage, ob menschlich oder maschinell, muss authentifiziert, autorisiert und kontinuierlich überprüft werden, um bösartige Aktivitäten zu verhindern. Das bedeutet, dass Best Practices für Multi-Faktor-Authentifizierung (MFA) und privilegierte Zugriffe implementiert, gemeinsame Zugangsdaten abgeschafft sowie Netzwerksegmentierung und Just-in-Time-Zugriff durchgesetzt werden. Bei nicht-menschlichen Identitäten muss anhand von „Secure by Design“-Identitätsprinzipien verfahren werden. Denn IT-Resilienz und IT-Prävention sind gleichermaßen wichtig.

Weitere Informationen zum Thema:

datensicherheit.de, 17.07.2025
EUDI-Wallet: Breites Bündnis fordert mehr Einsatz der Bundesregierung für Digitale Identitäten

]]>
https://www.datensicherheit.de/olympia-2026-winter-digitale-identitaeten/feed 0
Cybersicherheit – Wenn eine verzerrte Selbstwahrnehmung zum Sicherheitsrisiko wird https://www.datensicherheit.de/cybersicherheit-wahrnehmung-risiko-2026 https://www.datensicherheit.de/cybersicherheit-wahrnehmung-risiko-2026#respond Tue, 17 Feb 2026 16:47:51 +0000 https://www.datensicherheit.de/?p=52630 Ergebnisse einer aktuellen Studie zur Cybersicherheit zeigen: Zwischen der wahrgenommenen und der tatsächlichen Sicherheitslage klafft eine gefährliche Lücke. Und diese lässt sich nur mithilfe von Sichtbarkeit schließen.

Von unserem Gastautor Tiho Saric, Senior Sales Director bei Gigamon

[datensicherheit.de, 17.02.2026] Sind wir gegen Cyberangriffen bestmöglich aufgestellt? Eine Frage, die sich viele deutsche Sicherheits- und IT-Experten heute stellen – und mit Überzeugung mit „Ja!“ beantworten würden. Doch die Ergebnisse einer aktuellen Studie zeigen: Zwischen der wahrgenommenen und der tatsächlichen Sicherheitslage klafft eine gefährliche Lücke. Und diese lässt sich nur mithilfe von Sichtbarkeit schließen.

Tiho Saric, Senior Sales Director bei Gigamon

Tiho Saric, Senior Sales Director bei Gigamon, Bild: Gigamon

Wie kommt es, dass sich die meisten Sicherheits- und IT-Teams sicher sind, vor sämtlichen Cybergefahren gewappnet zu sein, während gleichzeitig knapp zwei Drittel der Unternehmen (63 Prozent) mindestens einmal Opfer eines erfolgreichen Angriffs wurden? Und warum ließ sich in 31 Prozent der Angriffsfälle die jeweilige Ursache nicht eindeutig identifizieren? Das deuten die Ergebnisse einer aktuellen Hybrid-Cloud-Security-Studie von Gigamon an. Demnach liegt die Antwort auf diese Fragen vermutlich weniger in der bewussten Selbstüberschätzung, sondern vielmehr in einem Mangel an Sichtbarkeit – also an der Fähigkeit, die eigene IT-Landschaft vollständig zu überblicken und bis ins kleinste Detail nachzuvollziehen, was tatsächlich im eigenen Netzwerk vor sich geht.

Cybersicherheit – Die Illusion der Kontrolle

Das Selbstvertrauen deutscher IT-Abteilungen reicht tief. So sind 85 Prozent der Sicherheits- und IT-Experten überzeugt, Malware auch in verschlüsseltem Datenverkehr erkennen zu können. 79 Prozent glauben, dass sie Datendiebstahl bemerken würden, selbst wenn er hinter einer Verschlüsselung stattfindet. Die Mehrheit der Experten (83 Prozent) hält ihre Tools für leistungsfähig genug, um mit der wachsenden Datenmenge und der sich weiterentwickelnden Bedrohungslage Schritt zu halten.

Doch diese Zuversicht steht auf wackeligen Beinen. Auch wenn Sicherheits- und IT-Experten von ihrem Team und ihrer technischen Ausstattung überzeugt sind, geben 56 Prozent zu, dass ihre Tools unter besseren Sichtbarkeitsbedingungen deutlich effektiver arbeiten könnten. Einer der Gründe für diese Einsicht liegt unter anderem in der Kompromissbereitschaft der Verantwortlichen. 95 Prozent sagen, dass sie sicherheitstechnisch Abstriche machen müssen, damit ihr Team überhaupt auf Sicherheitsvorfälle reagieren kann. So verzichtet ein Teil zum Beispiel auf vollständige Einsicht in die Infrastruktur oder auf hohe Datenqualität. Pragmatische Entscheidungen wie diese mögen kurzfristig helfen, schwächen aber langfristig die Verteidigungsfähigkeit.

Großes Selbstvertrauen trotz Blind Spots

Die größte Diskrepanz zwischen Anspruch, Einschätzung und Status quo zeigt sich vor allem beim Thema verschlüsselter Datenverkehr. 84 Prozent der Befragten geben an, Transparenz innerhalb dieses Traffics habe für sie höchste Priorität. Allerdings verzichten 37 Prozent aus Kostengründen auf dessen Entschlüsselung. Weitere 51 Prozent halten den Prozess für unpraktikabel, weil das Datenvolumen zu hoch sei. 73 Prozent vertrauen der Verschlüsselung bedingungslos.

Ein gefährlicher Widerspruch, denn genau in diesem vermeintlich sicheren Traffic verstecken Cyberangreifer immer häufiger gefährliche Malware. Laut einer Untersuchung von WatchGuard wird 94 Prozent solcher Schadsoftware über verschlüsselte Verbindungen eingeschleust. Darüber hinaus verschärfen neue Technologien wie KI den Wettlauf zwischen Angreifern und Unternehmen – zum Beispiel durch automatisierte Phishing-Kampagnen, geschickt getarnte Ransomware oder immer überzeugendere Deepfakes.

Eine weitere Herausforderung stellt die wachsende Komplexität moderner IT-Umgebungen dar. Mit jeder neuen Anwendung, jeder Cloud-Integration und jedem neuen Anwender – vor allem außerhalb des eigentlichen Netzwerks – wachsen Datenmenge und Angriffsfläche. Rund 30 Prozent der deutschen Sicherheits- und IT-Experten berichten, dass sich das Netzwerkvolumen nahezu verdoppelt hat. Trotzdem setzen viele Unternehmen auf eine Vielzahl spezialisierter Sicherheitslösungen. Anstatt Bedrohungen effektiv zu bekämpfen, erschweren sie sich dadurch allerdings nur ungewollt die Arbeit. Je mehr Tools im Einsatz sind, desto größer ist das Risiko, dass sicherheitsrelevante Informationen verloren gehen oder übersehen werden.

Zudem führt dieses Overtooling-Problem zu einem massiven Datenrauschen, in dem es Teams schwerfällt, echte Bedrohungen von harmlosen Ereignissen zu unterscheiden. Kurzum: Bei so viel Tech-Wildwuchs verwundert es kaum, dass immer mehr Sicherheits- und IT-Teams den Überblick verlieren. Folglich halten Teams und deren Sicherheitsarchitekturen häufig an statischen, reaktiven Ansätzen fest, statt zu einer proaktiven Strategie aufzusteigen.

Sehen heißt verstehen

Vor diesem Hintergrund lässt sich ohne ausreichende Transparenz kaum nachvollziehen, wo sich Schwachstellen bilden, wie sich Angreifer lateral im Netzwerk bewegen oder welche Aktivitäten tatsächlich legitim sind. Vollständige Sichtbarkeit, Datentiefe, Integration und verwertbare Insights sind hier mehr wert als die regelmäßige Einführung neuester Innovationen.

Um bestehende Lücken zu schließen, müssen IT-Teams ihr Augenmerk somit verstärkt auf Sichtbarkeit bis hinunter auf Netzwerkebene (Deep Observability) richten. Denn dort spielt sich ein Großteil der unentdeckten Aktivitäten ab. Sie müssen sämtliche Datenströme in Echtzeit beobachten, analysieren und verstehen können. Diese Fähigkeit umfasst ebenfalls verschlüsselten und auch lateralen Datenverkehr. Dafür werden alle relevanten Daten – sowohl klassische MELT- (Metrics, Events, Logs, Traces) als auch Netzwerk-Telemetriedaten – zentral gebündelt, kombiniert und ausgewertet.

Das Ergebnis: IT-Teams erhalten einen vollständigen Überblick über ihr Systemverhalten – von Anwendungen über Identitäten bis hin zu verdächtigen Aktivitäten und Verhaltensweisen.

Anomalien lassen sich schneller erkennen, Ursachen von Sicherheitsvorfällen präziser bestimmen, Schwachstellen schließen und Angriffe rechtzeitig stoppen. Diese Form der Echtzeit-Transparenz sorgt für Klarheit inmitten der Komplexität, unabhängig davon, wie viele Datenquellen, Identitäten oder Anwendungen sich im Netzwerk befinden. So bleiben Übersicht und Kontrolle bei den verantwortlichen Sicherheits- und IT-Teams, und Ressourcen lassen sich effizienter nutzen.

Fazit: Realismus ist die beste Verteidigung

Die deutsche IT-Sicherheitslandschaft leidet weniger an Inkompetenz als an Blind Spots. Viele Entscheider glauben, die Lage im Griff zu haben. Allerdings fehlt ihnen oft schlicht der Einblick in das, was tatsächlich passiert. Echte Cyberresilienz beginnt deshalb nicht mit weiteren Tools oder noch mehr Sicherheitsrichtlinien, sondern mit ehrlicher Selbsteinschätzung und vollständiger Transparenz. Wer seine Umgebung lückenlos versteht, kann Risiken realistisch bewerten, Angriffe frühzeitig erkennen und fundierte Entscheidungen treffen.

Denn am Ende gilt: Nur wer wirklich sieht, kann auch sicher handeln.

Weitere Informationen zum Thema:

datensicherheit.de, 20.01.2026
Vertrauen, Ethik und Resilienz im Fokus: Der CISO der Zukunft übernimmt Führungsrolle

]]>
https://www.datensicherheit.de/cybersicherheit-wahrnehmung-risiko-2026/feed 0
Datenschutz in Echtzeit: Wie Daten-Streaming die Kunden in einer KI-gesteuerten Welt schützt https://www.datensicherheit.de/datenschutz-ki-daten-streaming-echtzeit https://www.datensicherheit.de/datenschutz-ki-daten-streaming-echtzeit#respond Thu, 12 Feb 2026 12:27:30 +0000 https://www.datensicherheit.de/?p=52504 Die rasante Entwicklung der Künstlichen Intelligenz und die zunehmende Nutzung in Unternehmen wirft verstärkt auch Fragen zum Datenschutz auf. Weltweit beschäftigen sich Unternehmen in diesem Zusammenhang mit der Datensicherheit, der Transparenz und mit den Auswirkungen offener sowie geschlossener KI-Modelle.

Von unserem Gastautor Kai Waehner, Field CTO bei Confluent

[datensicherheit.de, 12.02.2026] Mit der rasanten Entwicklung der Künstlichen Intelligenz wächst auch die Sorge um den Datenschutz. Weltweit beschäftigen sich Unternehmen mit Fragen der Datensicherheit, der Transparenz und mit den Auswirkungen offener sowie geschlossener KI-Modelle. Gleichzeitig stellen sich immer mehr Verbraucher die Frage, ob der technologische Fortschritt auf Kosten ihrer persönlichen Daten erfolgt.

Kai Waehner, Field CTO bei Confluent

Kai Waehner, Field CTO bei Confluent, Bild: Confluent

Viele Technologien nicht auf den Schutz der Privatsphäre ausgelegt

Die eigentliche Herausforderung liegt nicht nur in der Art und Weise, wie Daten genutzt oder möglicherweise missbraucht werden. Vielmehr zeigt sich das Problem darin, dass viele Technologien von Grund auf nicht auf den Schutz der Privatsphäre ausgelegt sind. Veraltete Infrastrukturen, fragmentierte Sicherheitskonzepte und uneinheitliche Zugriffskontrollen erhöhen das Risiko für Datenmissbrauch und Angriffe.

Reduktion des Risikos durch Daten-Streaming

Eine wirksame Antwort auf diese Herausforderungen bietet der Einsatz von Daten-Streaming. Wenn Datenschutzmechanismen direkt in die Datenerfassung integriert und Informationen in Echtzeit verarbeitet werden, lassen sich Risiken gezielt reduzieren. Gleichzeitig können Unternehmen gesetzliche Vorgaben zuverlässig einhalten und eine vertrauenswürdige Datenbasis schaffen, die den verantwortungsvollen Umgang mit KI-Anwendungen unterstützt.

Die Risiken veralteter Infrastrukturen

Der rasante Aufstieg von KI-Technologien und die zunehmende öffentliche Debatte über ihre Auswirkungen auf die individuelle und gesellschaftliche Sicherheit haben in den vergangenen Monaten die Bedenken hinsichtlich des Datenschutzes deutlich verstärkt. Neue politische Initiativen verfolgen das Ziel, verbindliche Leitlinien für die Entwicklung von KI zu etablieren. Regierungen schlagen strengere Datenschutzgesetze, mehr Transparenzpflichten und ethische Prinzipien für den Umgang mit künstlicher Intelligenz vor.

Trotzdem kann Regulierung allein das Problem nicht vollständig lösen. Gesetzgebungsprozesse benötigen Zeit, reagieren häufig verzögert auf technologische Entwicklungen und konzentrieren sich meist auf die Einhaltung von Vorschriften anstatt auf proaktive Sicherheitsmechanismen. Das zentrale Problem liegt darin, dass selbst die strengsten Gesetze kaum Wirkung entfalten, wenn die zugrunde liegende Technologie nicht von vornherein so konzipiert ist, dass sie Datenschutz automatisch mitdenkt.

Viele Unternehmen verlassen sich weiterhin auf historisch gewachsene IT-Strukturen, die zwar grundsätzlich funktional sind, aber kein einheitliches Sicherheitsniveau über alle Systeme hinweg gewährleisten können. Diese Systeme bestehen aus einer Vielzahl einzelner Komponenten, die oft isoliert voneinander arbeiten. Eine der größten Schwächen ist dabei die Fragmentierung der Daten. Wenn verschiedene Abteilungen jeweils eigene Kopien sensibler Informationen in getrennten Datensilos speichern, führt das zu unnötiger Redundanz, mangelnder Konsistenz und erhöhtem Risiko.

Diese verteilte Datenhaltung erschwert die Umsetzung einheitlicher Sicherheitsrichtlinien sowie die Durchsetzung von Zugriffskontrollen und eine schnelle Reaktion auf Bedrohungen. Besonders problematisch wird es, wenn die Rechteverwaltung inkonsistent ist. Nicht mehr benötigte oder zu weit gefasste Zugriffsrechte erhöhen die Wahrscheinlichkeit unbeabsichtigter Datenpannen erheblich.

Auch die technologische Abhängigkeit von veralteten Systemen, die auf Batch-Verarbeitung basieren, wirkt sich negativ aus. Regulierungen wie die DSGVO oder HIPAA verlangen, dass Unternehmen bei Datenlöschanfragen oder Sicherheitsvorfällen unverzüglich reagieren. Infrastrukturen, die auf langsame Batch-Prozesse angewiesen sind, behindern jedoch schnelle Prüfungen und verlangsamen die Einhaltung dieser Vorgaben erheblich.

Stärkung des Datenschutzes durch Streaming

Datenschutz darf kein nachgelagerter Aspekt sein, sondern muss von Beginn an integraler Bestandteil der Datenerfassung, der Verarbeitung und der Zugriffskontrolle sein. Systeme sollten nahtlos miteinander kommunizieren, um einen sicheren Zugriff auf relevante Informationen zu ermöglichen und redundante Datenspeicherung zu vermeiden.

Daten-Streaming schafft eine datenschutzfreundliche Grundlage. Da die Daten sofort bei ihrem Eintreffen verarbeitet werden, entfällt die Notwendigkeit, große Datenmengen langfristig zu speichern. Dieser sogenannte „Privacy-by-Design“-Ansatz reduziert Risiken, stärkt die Sicherheit und erleichtert die Einhaltung internationaler Datenschutzvorgaben – und das ohne die Innovationsfähigkeit zu beeinträchtigen.

Mit einer Daten-Streaming-Plattform (DSP) lässt sich der Datenschutz noch gezielter verbessern, da viele erweiterte Sicherheitsfunktionen bereits systemseitig integriert sind. So schützt beispielsweise eine Ende-zu-Ende-Verschlüsselung die Daten während der gesamten Übertragung. Gleichzeitig sorgt Tokenisierung dafür, dass sensible Informationen schon vor der Systemverarbeitung durch bedeutungslose Platzhalter ersetzt werden. Darüber hinaus ermöglicht differenzieller Datenschutz die Anreicherung von Datensätzen mit mathematischem Rauschen, sodass Unternehmen wertvolle Erkenntnisse gewinnen können, ohne dabei Rückschlüsse auf einzelne Personen zuzulassen.

Die Vorteile eines DSP für den Datenschutz

Laut dem Data Streaming Report von Confluent geben 86 % der deutschen IT-Führungskräfte an, dass Daten-Streaming die Cybersicherheit und das digitale Risikomanagement in ihren Unternehmen verbessert hat. Der Grund dafür liegt in der zentralen Rolle, die Daten-Streaming-Plattformen einnehmen. Sie halten verschiedene Systeme im Unternehmen synchron und sorgen dafür, dass Mitarbeiter jederzeit in Echtzeit auf relevante Daten zugreifen können. Diese Fähigkeit ermöglicht es Unternehmen, schneller zu innovieren und gleichzeitig ein hohes Maß an Datensicherheit für ihre Kunden zu gewährleisten.

Auch wenn die Zukunft unvorhersehbar bleibt, steht eines fest: Wer im globalen Wettbewerb um die technologische Führungsrolle in der KI mitspielen will, muss dem Datenschutz bei jeder Entscheidung und in jedem Schritt höchste Priorität einräumen.

Über den Autor:

Kai Wähner ist Field CTO bei Confluent. Seine Schwerpunkte sind Daten-Streaming mit Kafka und Flink, Big Data Analytics, AI/Machine Learning, Messaging, Integration, Microservices, IoT, Stream Processing und Blockchain.

Weitere Informationen zum Thema:

datensicherheit.de, 05.02.2026
KI-basierte Disruption der Arbeitswelt: 80 Prozent der Menschen werden ihren Job verlieren

]]>
https://www.datensicherheit.de/datenschutz-ki-daten-streaming-echtzeit/feed 0
OpenClaw: Vom Tech-Experiment zum Enterprise-Albtraum https://www.datensicherheit.de/openclaw-experiment-enterprise-albtraum https://www.datensicherheit.de/openclaw-experiment-enterprise-albtraum#respond Wed, 11 Feb 2026 18:56:34 +0000 https://www.datensicherheit.de/?p=52483 Es handelt sich um einen kostenlosen KI-Agenten ohne jegliche Einschränkungen. Sicherheit war kein Teil des ursprünglichen Designs.

Ein Kommentar von Udo Schneider, Governance, Risk & Compliance Lead, Europe bei Trend Micro

[datensicherheit.de, 11.02.2026] Zunächst zu dem digitalen Assistenten OpenClaw selbst: Es handelt sich um einen kostenlosen KI-Agenten ohne jegliche Einschränkungen. Sicherheit war kein Teil des ursprünglichen Designs, also kein Sandboxing, voller Zugriff auf Computer, Dateien, E-Mail, Kalender, Messaging-Anwendungen und vieles mehr.

Udo Schneider, Governance, Risk and Compliance Lead, Europe bei Trend Micro

Udo Schneider, Governance, Risk and Compliance Lead, Europe bei Trend Micro, Bild: Trend Micro

Erstaunlicherweise scheint das die meisten Leute nicht zu stören. OpenClaw zeigt die Leistungsfähigkeit eines uneingeschränkten Agenten — technisch sehr bemerkenswert. Offen gestanden glaube ich, dass die Sicherheitsexperten geschwiegen hätten, wenn jeder verstanden hätte, wie experimentell diese Software wirklich ist. Trotz der klaren Dokumentation schien sich kaum jemand Gedanken zu machen. Die Leute waren zu fasziniert von dem, was OpenClaw kann. Trend Micro hat die Funktionalität (auch im Vergleich zum ChatBot Agent) bereits untersucht und auch die Risiken aufgezeigt.

Das wachsende Ökosystem

Nach und nach sind weitere Fähigkeiten („Skills“) hinzugekommen und auf ClawHub, der öffentlichen Skills Registry des Agenten geteilt. Und die Sicherheit? Das Cybersicherheitsunternehmen Snyk hat in einer umfassenden Untersuchung von 3.984 Skills festgestellt, dass die Agent Skills 13,4 Prozent kritische Sicherheitsprobleme aufwiesen, darunter Möglichkeiten zur Verbreitung von Malware, Diebstahl von Zugangsdaten und für Prompt Injection-Angriffe. Die Sicherheitsforscher identifizierten 76 bestätigte bösartige Payloads, von denen acht zum Zeitpunkt der Veröffentlichung noch auf ClawHub verfügbar waren. Trend Micro stellte in der oben erwähnten Untersuchung klar, dass diese Risiken mit dem Paradigma der KI-Agenten zusammenhängen. Token Security aber stellte fest, dass bereits 22 % seiner Unternehmenskunden Mitarbeiter haben, die OpenClaw ohne IT-Genehmigung verwenden.

Moltbook: Ein soziales Netzwerk für Bots

Seit Kurzem gibt es nun Moltbook, ein soziales Netzwerk für OpenClaw-Bots, in dem diese chatten, ihre Fähigkeiten teilen und auch austauschen können. Aus technischer Sicht ist der unbegrenzte Austausch beeindruckend. Die Tatsache, dass viele Skills bösartige Fähigkeiten enthalten? Niemand hat sich darum gekümmert.

Und es kommt noch schlimmer. Sicherheitsforscher von Wiz entdeckten eine schlecht konfigurierte Supabase-Datenbank, die 1,5 Millionen API-Schlüssel, 35.000 E-Mail-Adressen und private Nachrichten zwischen Agenten offenlegte, von denen einige OpenAI-API-Schlüssel im Klartext enthielten. Die „1,5 Millionen Agenten“ der Plattform wurden in Wirklichkeit von etwa 17.000 Personen betrieben, ein Verhältnis von 88:1. Das Ganze wurde ohne angemessene Sicherheitskontrollen „vibe-coded“.

Des Weiteren bedeutet die Tatsache, Cybersicherheits-Tools wie VirusTotal-Checks zu haben, nicht, dass damit Sicherheit gewährleistet ist. In dem Blog-Eintrag, wo die Partnerschaft mit VirusTotal angekündigt wird, gibt OpenClaw offen zu, dass „dies kein Allheilmittel ist“ und dass „eine Fähigkeit, die natürliche Sprache verwendet, um einen Agenten dazu zu bringen, bösartige Aktionen auszuführen, keine Virensignatur auslöst“.

Als es wirklich seltsam wurde …

Noch bizarrer: Jemand im Bot Social Network kam auf die Idee, „Crustafarianism“ (Church of Claw) zu gründen, komplett mit Propheten, Schriften und Ritualen. Lustig, aber angesichts der grenzenlosen Plattform nicht überraschend.

Der Wahnsinn erreicht mit RentAHuman.ai seinen Höhepunkt, wo Bots echte Menschen für physische Aufgaben und Interaktionen mieten. Hier schließt sich der Kreis: Agenten kontrollieren nun Menschen!

Größte Sorge: Die Nachfrage aus Unternehmen

Alles bislang ist technisch gesehen faszinierend und zeigt das Potenzial von Agenten und KI. Da es sich um eine experimentelle(!) Phase handelt, in der die Beteiligten Sicherheitsbedenken offen ignorieren, weil „es ein Experiment ist“, ist das ehrlich, aber unglaublich riskant.

Meine größte Sorge ist die Nachfrage von Unternehmen, OpenClaw in größerem Umfang einzusetzen. Berichte über seine Fähigkeiten erscheinen in den Mainstream-Medien wie New York Times, Forbes und NBC. Führungskräfte sehen darin einen Wettbewerbsvorteil und ignorieren die Sicherheitsrisiken, die den meisten nicht bewusst sind oder bewusst ausgeblendet werden.

Vielleicht geht es nur mir so, aber ein persönlicher OpenClaw-Agent, der Bitcoins löscht oder die digitale Identität zerstören kann, ist gefährlich. Das bleibt jedoch ein persönliches Risiko. Wenn ähnliche KI ohne Einschränkungen in Unternehmen mit vollem Zugriff auf Unternehmenssysteme eingesetzt wird, könnte es katastrophal werden.

Genau das hat Token Security demonstriert: Ein Mitarbeiter verbindet OpenClaw mit dem Slack des Unternehmens und plötzlich fließen vertrauliche Umsatzzahlen über einen nicht verwalteten KI-Agenten auf einem privaten Gerät zu WhatsApp, komplett an DLP-Kontrollen (Data Loss Prevention) und Audit-Trails vorbei.

Und die Meldungen überschlagen sich: Mehr als 135.000 OpenClaw-Instanzen sind im Internet exponiert – so das neueste Vibe-coded Desaster.

Fazit

Das Schlimmste? Diejenigen, die Enterprise-Versionen fordern, scheinen sich nicht darum zu kümmern. Sie stellen vermeintliche Wettbewerbsvorteile über die Sicherheit und glauben, dass Sicherheit nur ein Hindernis ist und Risiken ignoriert werden können, sobald sie die Konkurrenz geschlagen haben.

Um es klar zu sagen: Es gibt bereits gehostete OpenClaw-Dienste für Unternehmen! Aus Sicht der Sicherheit finde ich das alarmierend. Am erschreckendsten ist nicht nur das Muster, sondern das Ausmaß und die rasante Verbreitung. Ich habe noch nie erlebt, dass eine so unsichere Technologie so schnell so viel Aufmerksamkeit erlangt hat.

Aber die Zahlen lügen nicht:

  • 534 Skills mit kritischen Sicherheitsproblemen von 3.984 gescannten
  • 76 bestätigte bösartige Payloads, darunter Credential-Diebstahl und Backdoors
  • 91 % der bösartigen Skills kombinieren Prompt Injection mit traditioneller Malware
  • 22 % der Unternehmenskunden haben unautorisierte OpenClaw-Installationen
  • 1,5 Millionen API-Schlüssel durch Moltbooks Datenbank-Fehlkonfiguration offengelegt
  • Hunderte exponierte OpenClaw-Instanzen ohne Authentifizierung, mit undichten API-Schlüsseln, OAuth-Tokens und Gesprächsverläufen.

Weitere Informationen zum Thema:

datensicherheit.de, 10.02.202
KI entscheidet über Wettbewerbsfähigkeit bis 2030

datensicherheit.de, 04.02.2026
Digitale Souveränität als Standortvorteil: Europa im Spannungsfeld Ethik vs. Innovation

]]>
https://www.datensicherheit.de/openclaw-experiment-enterprise-albtraum/feed 0
Barrierefreie KI: Zehn praxisnahe Schritte für inklusive Innovation am Arbeitsplatz https://www.datensicherheit.de/barrierefreie-ki-inklusion-arbeitsplatz https://www.datensicherheit.de/barrierefreie-ki-inklusion-arbeitsplatz#respond Thu, 29 Jan 2026 11:42:13 +0000 https://www.datensicherheit.de/?p=52188 Generative KI verändert rasant die Arbeitswelt. Dabei bleibt  allzu oft ein zentraler Aspekt unbeachtet: Barrierefreiheit. Wer Inklusion ernst nimmt, muss sicherstellen, dass KI-Systeme für alle zugänglich sind – unabhängig von körperlichen oder kognitiven Fähigkeiten.

Von unserer Gastautorin Beatriz González Mellídez, Head of Accessibility & Digital Inclusion Central Europe, Atos

[datensicherheit.de, 29.01.2026] Generative KI verändert rasant die Art, wie wir arbeiten. Sie schreibt Texte, generiert Bilder und Videos, unterstützt Entscheidungen, automatisiert Prozesse. Doch allzu oft bleibt ein zentraler Aspekt unbeachtet: Barrierefreiheit. Wer Inklusion ernst nimmt, muss sicherstellen, dass KI-Systeme für alle zugänglich sind – unabhängig von körperlichen oder kognitiven Fähigkeiten.

Zehn Empfehlungen für eine barrierefreie KI

Diese zehn Schritte zeigen, wie Organisationen GenAI verantwortungsvoll und inklusiv gestalten können.

  1. Inklusive Daten trainieren
    Eine faire KI beginnt mit fairen Daten. Trainingsdatensätze sollten die Vielfalt menschlicher Perspektiven abbilden, insbesondere bei Sprache und Darstellung von Behinderung. Inklusive Sprachleitfäden, etwa der Vereinten Nationen, helfen, unbewusste Vorurteile zu vermeiden. So entstehen Modelle, die respektvolle und präzise Kommunikation fördern, statt Stereotype zu reproduzieren.
  2. Rechtliche Standards früh verankern
    Ab 2025 verpflichtet der European Accessibility Act (EAA) alle Anbieter digitaler Produkte zur Barrierefreiheit. Wer die EN 301 549 Vorgaben (die den WCAG-Richtlinien enthalten, und durch manche nationale Gesetze sogar erweitert sind) schon in der Entwicklungsphase berücksichtigt, spart Kosten und reduziert Compliance-Risiken. Barrierefreiheit von Anfang an schafft Rechtssicherheit und Vertrauen bei Nutzern und Partnern.
  3. Nicht nur Klick: auch Tasten
    Nicht jeder nutzt eine Maus, auch KI-Anwendungen nicht. Alle Interaktive Elemente der Anwendung müssen vollständig über Tastatur oder Braillezeilen bedienbar sein, damit auch Menschen die Screenreadern nutzen oder motorische Einschränkungen haben, uneingeschränkt arbeiten können. Mindestens zwei Interaktionsmodi – z. B. visuell und auditiv – machen KI-Systeme universell nutzbar und verbessern gleichzeitig die allgemeine User-Experience.
  4. Struktur und Orientierung schaffen
    Digitale Barrierefreiheit heißt, Inhalte logisch und konsistent aufzubauen. Überschriften, Absätze und Navigationspunkte sollten klar und programmatisch bezeichnet sein, damit Nutzer schnell verstehen, wo sie sich befinden, egal wie sie die Inhalte konsumieren. Eine klare Informationsarchitektur verringert Fehlbedienungen und macht komplexe KI-Tools für alle leichter zugänglich (auch für andere KI).
  5. Vielfalt authentisch darstellen
    KI-generierte Inhalte prägen, wie wir die Welt sehen. Dazu zählt auch das Thema Behinderung, egal ob dauerhaft, temporär oder situativ. Deshalb sollten Darstellungen realistisch, respektvoll und frei von Klischees sein. Weder Mitleid noch Überhöhung helfen; gezeigt werden sollte die tatsächliche Vielfalt menschlicher Erfahrungen. Authentische Repräsentation stärkt das Vertrauen und vermeidet unbewusste Diskriminierung.
  6. Interaktive Elemente korrekt kennzeichnen
    Buttons, Links und Formularfelder brauchen klare Beschriftungen statt vager Hinweise wie „Hier klicken“. Semantisch saubere Kennzeichnung erleichtert Screenreadern die Orientierung und sorgt insgesamt für eine bessere Bedienbarkeit. Was Barrierefreiheit erfordert, ist gleichzeitig ein Gewinn an Usability und Strukturqualität.
  7. Sprache vereinfachen und korrekt taggen
    Verständlichkeit ist Kern digitaler Inklusion. Texte sollten in klarer, einfacher Sprache formuliert sein und die richtigen Sprachattribute tragen, damit Screenreader sie korrekt ausgeben können. Das erleichtert nicht nur Menschen mit Behinderung den Zugang, sondern hilft auch internationalen Teams. Tipp: Nutzen Sie generative KI, um Texte verständlicher zu schreiben.
  8. Farbkontrast sichern
    Guter Kontrast ist eine der einfachsten, aber wichtigsten Accessibility-Maßnahmen. Hohe Lesbarkeit zwischen Vorder- und Hintergrundfarben ermöglicht barrierefreies Arbeiten – auch bei Sehschwäche oder Blendung. Farben sollten nie allein Information tragen; Symbole (mit Bildbeschreibung) oder Textlabels machen Inhalte für alle verständlich.
  9. Textalternativen für Medien anbieten
    Ob Bild, Video oder Audio, jedes Medium braucht ein textbasiertes Pendant: Alt-Text (Bildbeschreibung), Untertitel oder Transkript. Das erleichtert Menschen mit Seh- oder Hörbeeinträchtigungen den Zugang und steigert zugleich Reichweite und Auffindbarkeit digitaler Inhalte. Inklusion und Effizienz gehen hier Hand in Hand.
  10. Mit Menschen mit unterschiedlicher Behinderung testen
    Barrieren lassen sich nicht simulieren, man muss sie erleben. Der wichtigste Schritt ist daher das Testen mit Menschen, die selbst Erfahrung mit unterschiedlicher Behinderung und Einschränkungen haben. Ihr Feedback deckt Probleme auf, die automatisierte Prüfungen übersehen, und führt häufig zu Ideen, die Innovation fördern.

Fazit: Inklusion ist Zukunftsfähigkeit

Barrierefreiheit ist kein Extra, sondern Voraussetzung moderner Technologie. Unternehmen, die KI inklusiv gestalten, handeln nicht nur ethisch und gesetzeskonform, sondern steigern Produktivität, Nutzerzufriedenheit und Markenvertrauen. Eine inklusive GenAI ist nicht teurer, sie ist schlicht besser.

Beatriz González Mellídez, Head of Accessibility & Digital Inclusion Central Europe, Atos

Beatriz González Mellídez, Head of Accessibility & Digital Inclusion Central Europe, Atos, Bild: Atos

Über die Autorin

Beatriz González Mellídez ist Head of Accessibility & Digital Inclusion Central Europe bei Atos. Die Atos Group ist ein weltweit führender Anbieter digitaler Transformation mit rund 63.000 Mitarbeitern in 61 Ländern. Unter den Marken Atos (Services) und Eviden (Produkte) bietet das Unternehmen maßgeschneiderte, KI-gestützte End-to-End-Lösungen in Bereichen wie Cybersicherheit, Cloud und High Performance Computing. Ziel der Atos Group ist es, eine sichere, nachhaltige und dekarbonisierte digitale Zukunft zu gestalten und wissenschaftliche wie technologische Spitzenleistungen weltweit zu fördern.

 

]]>
https://www.datensicherheit.de/barrierefreie-ki-inklusion-arbeitsplatz/feed 0
Neue Rolle des CFO: Finanzchefs werden zu digitalen Architekten der Unternehmenszukunft https://www.datensicherheit.de/rolle-cfo-finanzchef-digital-architekt https://www.datensicherheit.de/rolle-cfo-finanzchef-digital-architekt#respond Wed, 28 Jan 2026 20:47:08 +0000 https://www.datensicherheit.de/?p=52182 Der CFO wirkt in seiner erweiterten Rolle auch als digitaler Katalysator und KI-Evangelist. Die Verantwortung moderner Finanzchefs reicht dabei heute weit über klassische Finanzsteuerung hinaus.

Ein Kommentar von Ralph Weiss, Geo VP Central Europe BlackLine

[datensicherheit.de, 28.01.2026] Künstliche Intelligenz (KI), ESG und die Talententwicklung prägen die neue Rolle des CFO: Im Jahr 2026 wird der CFO nicht mehr ausschließlich als Hüter der Zahlen agieren, sondern er wird zum zentralen Treiber der digitalen Transformation, strategischer Navigator in volatilen Märkten und Architekt zukunftsfähiger Finanzorganisationen.

Ralph Weiss, Geo VP Central Europe BlackLine

Ralph Weiss, Geo VP Central Europe BlackLine, Bild: BlackLine

CFO als digitaler Katalysator und KI-Evangelist

Im Zentrum dieser Entwicklung steht der CFO als digitaler Katalysator und KI-Evangelist, denn die Verantwortung moderner Finanzchefs reicht heute weit über klassische Finanzsteuerung hinaus. Gefordert ist die aktive Führung einer umfassenden digitalen Transformation der Finanzfunktion sowie die Mitgestaltung der Technologieagenda im gesamten Unternehmen.

Zunehmender Einsatz von KI

Dabei geht es nicht um punktuelle Automatisierung, sondern um die grundlegende Neugestaltung von Prozessen hin zu einer vollständig digitalen Finanzorganisation. Ein Haupteinflussfaktor dieser Entwicklung ist der zunehmende Einsatz von KI im Allgemeinen, von Machine Learning sowie generativer KI. Diese Technologien verändern Accounting, Controlling und die Finanzplanung nachhaltig, steigern die Effizienz und ermöglichen deutlich tiefere analytische Einblicke.

Für CFOs bedeutet dies, konkrete KI-Anwendungsfälle aktiv voranzutreiben – von intelligenten Prognosen über automatisierte Compliance bis hin zu datengetriebener Entscheidungsunterstützung. Gleichzeitig wächst die Verantwortung für Governance und Kontrolle: CFOs übernehmen zunehmend die Rolle eines „Decision Auditors“, der die Qualität, Integrität und Verlässlichkeit KI-generierter Entscheidungsgrundlagen sicherstellt.

In enger Zusammenarbeit mit den CIOs werden die CFOs zudem die technologische Basis der Finanzorganisation weiterentwickeln. Cloud-Plattformen, integrierte KI-Funktionen und moderne Datenanalytik bilden einen einheitlichen CFO-Technologie-Stack, der Geschwindigkeit, Transparenz und Steuerungsfähigkeit im Finanzbereich ermöglicht.

Strategische Rolle des CFO rückt stärker in den Fokus

Parallel dazu rückt die strategische Rolle des CFO stärker in den Fokus. Angesichts wirtschaftlicher Unsicherheiten, geopolitischer Spannungen und fragmentierter Märkte wandelt sich die Finanzfunktion von reaktiver Krisenbewältigung hin zu proaktiver Wertsteuerung. Datenbasierte Kapitalallokation, Szenarioplanung und professionelles Risikomanagement werden zu entscheidenden Wettbewerbsfaktoren.

Ein zentraler Bestandteil dieser strategischen Agenda ist die Berücksichtigung der ESG-Kriterien (Environmental, Social, Governance), die sich von einem Randthema zu einem wichtigen Faktor für den Unternehmenswert entwickeln. Investoren, Kapitalmärkte und Regulatoren erwarten transparente ESG-Kennzahlen, belastbare Klimaberichterstattung und nachhaltige Finanzierungsmodelle. Führende CFOs verankern diese Aspekte daher bereits heute konsequent in ihrer Unternehmensstrategie.

Neben Technologie und Strategie gewinnt auch das „Talent-Thema“ massiv an Bedeutung. CFOs entwickeln sich zunehmend zu „Chief Talent Officers“ der Finanzfunktion. Gefragt sind neue Rollenprofile wie beispielsweise der „Finance Technologist“, der finanzfachliche Expertise mit Datenkompetenz, Analytics und technologischem Verständnis verbindet und als Schnittstelle zwischen Finance und IT fungiert.

Erfolg durch gezielte Investitionen in Weiterbildung

Der Aufbau eines zukunftsfähigen Finanzteams erfordert jedoch mehr als Neueinstellungen. Erfolgreiche CFOs investieren gezielt in Weiterbildung, fördern eine Kultur des kontinuierlichen Lernens und bereiten ihre Mitarbeiter auf die Zusammenarbeit mit KI-gestützten Systemen vor. Ziel ist es, repetitive Tätigkeiten zu automatisieren und Freiräume für strategische, wertschöpfende Aufgaben zu schaffen.

Die CFO-Agenda für 2026 ist damit klar umrissen: Finanzchefs agieren als digitale Katalysatoren, strategische Navigatoren und Talentarchitekten. Wer diese erweiterte Rolle konsequent annimmt, entwickelt sich vom klassischen Finanzverantwortlichen zu einem zentralen Gestalter der Unternehmenszukunft – mit maßgeblichem Einfluss auf Resilienz, Innovationsfähigkeit und nachhaltigen Unternehmenserfolg.

Weitere Informationen zum Thema:

datensicherheit.de, 25.06.2025
Einführung von GenAI: Mangelnde Abstimmung im C-Level als Erfolgshemmnis

]]>
https://www.datensicherheit.de/rolle-cfo-finanzchef-digital-architekt/feed 0
KI-Agenten und IT-Sicherheit: Zwei Seiten einer Medaille https://www.datensicherheit.de/ki-agenten-it-sicherheit-vorbehalte-2026 https://www.datensicherheit.de/ki-agenten-it-sicherheit-vorbehalte-2026#respond Wed, 28 Jan 2026 14:31:30 +0000 https://www.datensicherheit.de/?p=52106 Für viele Unternehmen steht derzeit die Frage im Raum, ob KI-Agenten auch in sensiblen Bereichen wie der Cybersicherheit eingesetzt werden sollen. Während stetig wachsende Bedrohungen, Überlastung von Mitarbeitern und Fachkräftemangel dafür sprechen, gibt es auch große Vorbehalte. Um Entscheidungen von KI-Assistenten nachvollziehen zu können, sind Sichtbarkeit im Netzwerk und eine zuverlässige Datengrundlage oberste Priorität. Auf der anderen Seite könnten Unternehmen überdies von böswilligen Agenten angegriffen werden – auch hier hilft nur, genau hinzusehen.

Von unserem Gastautor Tiho Saric, Senior Sales Director bei Gigamon

[datensicherheit.de, 28.01.2026] Es gibt aktuell wohl kaum ein größeres Unternehmen, das sich nicht auf die ein oder andere Weise mit Agentic AI beschäftigt. Von der neuen autonomen und proaktiven Arbeitsweise von KI erwarten sie sich immense Produktivitätssteigerung und die Entlastung von Mitarbeitern. Doch wenn KI nun nicht mehr nur generiert, sondern auch entscheidet, wirft dies neue Fragen der Verantwortlichkeit und Nachvollziehbarkeit auf. Außerdem könnten sich durch Agentic-AI-Einsatz von Hackern neue Gefahrenquellen ergeben.

Tiho Saric, Senior Sales Director bei Gigamon

Tiho Saric, Senior Sales Director bei Gigamon, Bild: Gigamon

Chancen durch eigene KI-Agenten

Einer Studie zufolge bewerten 68 Prozent der befragten deutschen Unternehmen den Fachkräftemangel im Bereich IT-Sicherheit als zusätzliches Cyber-Risiko. Cloud Security (52 Prozent) und Cyber Threat Intelligence (40 Prozent) seien dabei die meistgesuchten Kompetenzen. Warum sich also nicht Hilfe in Form von KI suchen? Gerade bei den genannten Kompetenzen läge eine solche Unterstützung nahe. Es müssen enorme Datenmengen untersucht, Muster erkannt und Anomalien gefunden werden – ideal für Machine Learning.

KI-gestützte Systeme zur automatisierten Bedrohungserkennung können bereits heute Anomalien nahezu in Echtzeit identifizieren, aus vergangenen Sicherheitsvorfällen lernen und ihre Reaktionsstrategien eigenständig anpassen. Darüber hinaus könnten autonome KI-Agenten künftig auch die Incident Response aktiv unterstützen, etwa indem sie kompromittierte Endpunkte sofort isolieren, ohne dass ein menschliches Mitglied des Sicherheitsteams dies freigeben muss.

Auch bei der Alarmbewertung (Alert Triage) bieten KI-Agenten großes Potenzial. Herkömmliche Sicherheitslösungen erzeugen häufig zahlreiche Fehlalarme, die von Analysten manuell geprüft und priorisiert werden müssen. Diese zeitaufwändige Aufgabe könnte in Zukunft ein KI-basierter Assistent übernehmen. So ließe sich nicht nur die sogenannte „Alert Fatigue“ deutlich verringern, sondern das Sicherheitsteam hätte mehr Kapazitäten für strategische und präventive Aufgaben.

Gefahren durch böswillige Agenten

Neben ihrem Einsatz zur Vorbeugung von Sicherheitsbedrohungen werden die vielfältigen Möglichkeiten künstlicher Intelligenz auch für gewieftere Cyberangriffe genutzt. Offensive AI ist kein neues Schlagwort, und wir sehen seit einiger Zeit, dass beispielsweise Phishing-E-Mails immer professioneller werden und dank zusehends besserer KI-Übersetzung nicht mehr so leicht anhand schlechter Rechtschreibung erkannt werden können.

Generative KI unterstützt zwar klassische Angriffsvektoren, je gezielter aber eine Attacke ausfallen soll, desto mehr manueller Aufwand ist auf Seiten der Kriminellen notwendig – etwa, wenn es um die Informationsbeschaffung zum Spear-Phishing geht. Durch den Einsatz spezialisierter Agenten wäre es möglich, solche personalisierten Angriffe automatisiert und damit in viel größerer Zahl durchzuführen, wodurch natürlich das Risiko insgesamt steigt.

Auf einer technischeren Ebene könnten spezialisierte KI-Systeme beispielsweise unablässig nach Schwachstellen scannen und selbstständig Exploits erstellen. Dies würde die Zeit für Zero-Day-Angriffe erheblich verkürzen.

Optimierte Sichtbarkeit zur Unterstützung von guten und Abwehr von bösen KI-Agenten

Um die Ergebnisse von autonomen KI-Systemen besser nachvollziehen zu können, ist es wichtig, deren Arbeitsweise zu verstehen und Unsicherheiten so weit wie möglich zu beseitigen. Schließlich kommt ein nicht unerheblicher Teil der Skepsis gegenüber KI genau dadurch zustande. Zu Beginn des Erfolgs von KI-Chatbots galten die zugrunde liegenden Large Language Models (LLMs) als undurchsichtige Blackboxes: Aus ihren Antworten ließ sich kaum ableiten, wie und warum ein bestimmtes Ergebnis zustande kam. Ein wesentlicher Grund dafür ist und bleibt (zumindest bei proprietären Modellen) die Intransparenz der Trainingsdaten.

Open-Source-Modelle schaffen hier zumindest teilweise Abhilfe, da ihre Trainingsdaten offenliegen und nachvollzogen werden können. Darüber hinaus ermöglichen Verfahren wie Low-Rank Adaptation (LoRA) und Fine-Tuning, Modelle relativ einfach an spezialisierte Anwendungsfälle anzupassen.

Trotz dieser Fortschritte bleibt eine zentrale Unsicherheit bestehen: Die inneren Abläufe neuronaler Netze sind bis heute nicht vollständig erklärbar und enthalten immer ein stochastisches Element. Umso wichtiger ist es, dass sowohl die Trainingsdaten der KI-Agenten als auch die Daten, die sie im laufenden Betrieb verarbeiten, transparent und möglichst detailliert dokumentiert sind. Andernfalls könnten sich bestehende Unsicherheiten gegenseitig verstärken, was die Zuverlässigkeit und Vertrauenswürdigkeit der Agenten erheblich beeinträchtigen würde.

Bei drohenden KI-Angriffen im großen Stil ist ein umfassendes Monitoring der eigenen Systeme essenziell, um schon bei den ersten Anzeichen für einen Angriff sofort reagieren zu können. So können tiefgehende Analysen auf Netzwerkebene dabei unterstützen, ungewöhnlichen Traffic zu identifizieren, der auf eine Kompromittierung hindeuten könnte. Dafür sind allerdings spezialisierte Lösungen notwendig.

Das Konzept Deep Observability

In modernen IT-Umgebungen mit Cloud-, Hybrid- und Container-Infrastrukturen stößt klassische Observability zunehmend an ihre Grenzen. Zwar liefert sie wertvolle Einblicke über Metriken, Logs und Traces, doch viele sicherheitsrelevante oder netzwerkbezogene Vorgänge bleiben dabei unsichtbar. Deep Observability schließt genau diese Lücke: Die Technologie erweitert den Beobachtungshorizont, indem sie Daten direkt aus dem Netzwerkverkehr und tieferen Systemschichten erfasst. Durch die Verknüpfung von Netzwerk-Telemetrie, Anwendungsmetriken und Sicherheitsinformationen entsteht ein umfassendes, kontextbasiertes Verständnis des gesamten Systemverhaltens, das es auch erlaubt, Anomalien, die auf ausgefeilte KI-Angriffe hindeuten könnten, besser zu erkennen.

Technisch basiert Deep Observability auf spezialisierten Datenpipelines, die Rohdaten aus verschiedenen Quellen sammeln, anreichern, entschlüsseln und an Analyseplattformen weiterleiten. Zwar verarbeitet auch Deep Observability – wie herkömmliche Lösungen – Metriken, Events, Logs und Traces (MELT). Der entscheidende Unterschied liegt jedoch in der Tiefe: Entsprechende Systeme machen auch den kompletten Netzwerkverkehr sichtbar, einschließlich lateraler Kommunikation zwischen Instanzen – bis hinunter auf die Ebene einzelner Datenpakete. Im OSI-Modell deckt Deep Observability somit die Schichten 7 bis 3 ab – von der Anwendungsebene bis zur Netzwerkschicht.

Fazit

Sowohl zur Unterstützung eigener KI-Agenten, wie auch zur Abwehr von agentischen Angriffen, bietet Deep Observability eine zuverlässige Grundlage. Der tiefe Blick ins Unternehmensnetzwerk versorgt eigene Lösungen mit einer soliden, granularen Datengrundlage. Auf der anderen Seite lassen sich so aber auch Anomalien schnell und zuverlässig identifizieren, die Symptome eines Angriffs sein könnten.

Weitere Informationen zum Thema:

datensicherheit.de, 21.05.2025
Hybrid-Cloud: KI zwingt deutsche Unternehmen Abstriche bei der Sicherheit zu machen

]]>
https://www.datensicherheit.de/ki-agenten-it-sicherheit-vorbehalte-2026/feed 0