Gastbeiträge – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Thu, 30 Apr 2026 15:46:45 +0000 de hourly 1 Chaos Engineering für die Cyberresilienz: Wie KI kontrollierte Belastungsproben digitaler Systeme ermöglicht https://www.datensicherheit.de/chaos-engineering-cyberresilienz-ki https://www.datensicherheit.de/chaos-engineering-cyberresilienz-ki#respond Thu, 30 Apr 2026 15:46:44 +0000 https://www.datensicherheit.de/?p=54227 Systeme können untersucht werden, wie sie unter gezielt herbeigeführten Störungen reagieren. Im Mittelpunkt steht nicht das Erzeugen von Fehlern um ihrer selbst willen, sondern die kontrollierte Prüfung, wie belastbar eine digitale Architektur in kritischen Situationen tatsächlich ist.

Von unserem Gastautor Roman Spitzbart, VP EMEA Solutions Engineering, Dynatrace

[datensicherheit.de, 30.04.2026] Digitale Infrastrukturen bestehen heute aus eng verflochtenen Anwendungen, Plattformdiensten, APIs, Datenverarbeitung und Cloud-Ressourcen. In solchen Umgebungen entstehen kritische Probleme selten durch einen einzelnen Defekt. Häufig sind es mehrere Abweichungen gleichzeitig, die sich entlang bestehender Abhängigkeiten verstärken und lokale Störungen zu weitreichenden Ausfällen machen.

Roman Spitzbart, VP Solutions Engineering EMEA bei Dynatrace

Roman Spitzbart, VP Solutions Engineering EMEA bei Dynatrace, Bild: Dynatrace

Für die Informationssicherheit ist genau das entscheidend. Viele Schwächen bleiben im Regelbetrieb unsichtbar, weil Schutzmechanismen, Redundanzen und Ausweichpfade erst unter Belastung zeigen, ob sie tatsächlich funktionieren. Verfügbarkeit allein ist deshalb kein verlässlicher Beleg für Widerstandsfähigkeit. Ob eine Architektur robust ist, zeigt sich erst dann, wenn Komponenten ausfallen, Kommunikationspfade verzögert reagieren oder Lasten unerwartet ansteigen. An diesem Punkt wird Chaos Engineering relevant.

Widerstandsfähigkeit lässt sich nicht nur beobachten

Chaos Engineering untersucht, wie Systeme unter gezielt herbeigeführten Störungen reagieren. Im Mittelpunkt steht nicht das Erzeugen von Fehlern um ihrer selbst willen, sondern die kontrollierte Prüfung, wie belastbar eine digitale Architektur in kritischen Situationen tatsächlich ist.

Entscheidend ist dabei die Gesamtsicht. Es geht darum, welche Folgen ein Ausfall eines Dienstes für abhängige Komponenten hat. Bleibt ein Problem lokal begrenzt? Werden Anfragen sauber umgeleitet? Halten Redundanzmechanismen stand? Lassen sich kritische Funktionen aufrechterhalten? Genau diese Fragen sind für Cyberresilienz zentral. In der Praxis wird dieser Ansatz bislang dennoch nur punktuell genutzt. Der Grund liegt vor allem in seiner operativen Komplexität.

Warum Chaos Engineering bislang selten skaliert

Belastungsszenarien müssen vorbereitet, mögliche Auswirkungen abgeschätzt und Ergebnisse im Anschluss interpretiert werden. In verteilten Systemlandschaften ist das aufwendig. Hinzu kommt, dass das Wissen über reale Abhängigkeiten oft lückenhaft ist. Architekturen verändern sich schneller, als Dokumentation und Annahmen Schritt halten können.

Damit entsteht ein doppeltes Problem. Zum einen werden Experimente schnell zum manuellen Spezialprojekt. Zum anderen steigt das Risiko, Störungen an Stellen einzubringen, die zwar technisch erreichbar, aber analytisch wenig sinnvoll sind oder unbeabsichtigt produktive Auswirkungen nach sich ziehen. Solange Auswahl, Durchführung und Bewertung solcher Tests stark von manueller Vorarbeit abhängen, bleibt Chaos Engineering auf Einzelfälle begrenzt. Für einen regelmäßigen Einsatz in sicherheitskritischen Umgebungen reicht das nicht aus.

KI schafft die Voraussetzung für gezielte Belastungsszenarien

Genau hier kommt Künstliche Intelligenz (KI) zum Tragen. Die Grundlage dafür bildet eine fortlaufende Sicht auf Kommunikation, Lastverhalten und Abhängigkeiten innerhalb einer Infrastruktur. Moderne Observability-Lösungen liefern dazu kontinuierlich Daten aus Anwendungen, Plattformen und Netzwerken, etwa in Form von Logs, Metriken, Traces und Topologieinformationen.

Die KI wertet diese Informationen nicht isoliert aus, sondern im Zusammenhang. Dadurch wird erkennbar, welche Dienste regelmäßig miteinander interagieren, welche Muster im laufenden Betrieb üblich sind und an welchen Stellen sensible Verflechtungen bestehen. Besonders wertvoll ist die Fähigkeit, Ursache-Wirkungs-Zusammenhänge sichtbar zu machen. So lässt sich nachvollziehen, wo eine Veränderung lokal bleibt und wo daraus eine Kette weiterer Effekte entstehen kann.

Dieses Verständnis ist der eigentliche Fortschritt. Hypothesen über mögliche Auswirkungen beruhen damit nicht mehr nur auf Erfahrung oder Vermutung, sondern auf tatsächlichen Abhängigkeitsstrukturen im laufenden System.

Sicherheitsrelevante Belastungsproben werden präziser

Auf dieser Basis lassen sich Störungsszenarien gezielt auswählen. Dazu zählen beispielsweise erhöhte Latenzen in Kommunikationspfaden, der Ausfall einzelner Infrastruktur- oder Plattformkomponenten, Engpässe in zentralen Verarbeitungsdiensten oder Unterbrechungen entlang kritischer Service-Abhängigkeiten. Genau solche Situationen entsprechen oft den Bedingungen, unter denen sich reale Sicherheits- und Stabilitätsprobleme entfalten.

Während eines Tests analysiert die KI fortlaufend, wie sich die Störung innerhalb des Systems fortsetzt. Sichtbar wird, welche Dienste besonders empfindlich reagieren, ob vorhandene Redundanzen tatsächlich übernehmen und an welchen Punkten unerwartete Seiteneffekte entstehen. Damit wird aus einer isolierten Störungssimulation eine belastbare Prüfung digitaler Widerstandsfähigkeit.

Der Nutzen liegt nicht nur in der Beobachtung einzelner Reaktionen. Organisationen erkennen präziser, wo Ausfallketten drohen und welche Störungen besonders hohe Risiken nach sich ziehen. Gleichzeitig sinkt das operative Risiko, weil Experimente gezielter vorbereitet und ihre Wirkung genauer eingeordnet werden können.

Von der Vorfallanalyse zur vorausschauenden Cyberresilienz

In vielen Unternehmen beginnt die tiefergehende Bewertung technischer Schwächen erst nach einem Sicherheits- oder Verfügbarkeitsvorfall. Dann wird sichtbar, welche Systeme betroffen waren und an welchen Stellen Schutz- oder Failover-Mechanismen versagt haben. KI-gestütztes Chaos Engineering verschiebt diese Perspektive: Kritische Belastungssituationen lassen sich bereits vor einem realen Ausfall kontrolliert prüfen. So wird erkennbar, welche Abhängigkeiten Risiken verstärken, wo technische Schutzmaßnahmen an Grenzen stoßen und wie robust kritische Dienste gegenüber Störungen tatsächlich sind.

Damit wird Chaos Engineering zu einem Verfahren, mit dem sich Cyberresilienz systematisch vorbereiten lässt. Digitale Infrastrukturen werden unter kontrollierten Bedingungen auf ihre Belastbarkeit gegenüber Ausfällen, Verzögerungen und Kaskadeneffekten geprüft. Widerstandsfähigkeit wird damit nicht erst im Vorfall sichtbar, sondern bereits im Vorfeld überprüfbar.

Weitere Informationen zum Thema:

datensicherheit.de, 24.03.2026
OpenTelemetry als Fundament einer vertrauenswürdigen Observability-Infrastruktur

]]>
https://www.datensicherheit.de/chaos-engineering-cyberresilienz-ki/feed 0
KI in der Fertigung erhöht die Anforderungen an die Datensicherheit https://www.datensicherheit.de/ki-fertigung-anforderungen-datensicherheit https://www.datensicherheit.de/ki-fertigung-anforderungen-datensicherheit#respond Wed, 15 Apr 2026 05:27:06 +0000 https://www.datensicherheit.de/?p=53970 Intelligente Fabriken brauchen intelligente Sicherheit, um die Vorteile zu nutzen und die Risiken zu vermeiden

Von unseem Gastautor Serge Thibault, VP Information Security bei Poka

[datensicherheit.de, 15.04.2026] Die Integration von Künstlicher Intelligenz (KI) in der Fertigung stellt eine regelrechte Revolution dar. Sie ermöglicht Herstellern beeindruckende Vorteile in Bezug auf Effizienz, Produktivität, Wissensaustausch und Kostensenkungen. Zwar ist das Potenzial der KI in der Fertigung groß, doch ohne angemessene Sicherheitsmaßnahmen auf Unternehmensebene kann sie schnell zu einem Betriebs- und Reputationsrisiko werden. Die leistungsstarken KI-Tools bringen kritische Sicherheits- und Compliance-Probleme mit sich. Das stellt Fertigungsunternehmen vor die Frage, wie sie die Vorteile der KI nutzen können, ohne die Datensicherheit oder die operative Integrität zu gefährden. Plattformen für vernetzte Mitarbeiter kommt dabei eine entscheidende Rolle zu. Sie verringern das Risiko bei der Implementierung von KI – vom Umgang mit Kundendaten bis hin zu Transparenz und Schutzstrategien.

KI – Das Dilemma von Nutzen und Risiko

Sehen wir uns das Dilemma von Nutzen und Risiko näher an. Die Investitionen in Künstliche Intelligenz KI in der deutschen Fertigungsindustrie nehmen rasant zu. Es wird erwartet, dass die Branche im Jahr 2030 einen Umsatz von 2.765,8 Millionen US-Dollar erzielen wird. Der „KI-Aktionsplan“ der Bundesregierung und die Initiative „Innovationspark Künstliche Intelligenz“ spielen eine Schlüsselrolle bei der Förderung der Integration von KI in der Fertigung. Die Bundesregierung hat 1,75 Milliarden Euro für die Förderung von KI-bezogener Forschung, Entwicklung und Anwendung bereitgestellt.

Doch je mehr die Branche in KI-Technologie investiert, desto anfälliger wird sie auch.

Hohe Kosten durch Cyberangriffe

Cyberangriffe kosten die deutsche Wirtschaft die enorme Summe von 148 Milliarden Euro pro Jahr. 2025 verzeichnete die Fertigung einen Anstieg der Ransomware-Angriffe um 56 % und war damit die am stärksten betroffene Branche. Da die Fertigungsindustrie die Grundlage für eine Reihe anderer Sektoren bildet – vor allem für die Automobilindustrie, die Luft- und Raumfahrtindustrie und die Lebensmittel- und Getränkeindustrie –, haben Cybervorfälle in Fertigungsunternehmen weitreichende Auswirkungen auf andere Branchen, wodurch sich die Produktionsunterbrechungen und Lieferkettenprobleme verschärfen.

Cyberangriffe können Millionen kosten und beeinträchtigen fast immer die Reputation des Unternehmens, das Vertrauen von Investoren und Verbrauchern und die Lieferketten. Während Fertigungsunternehmen die Einführung von KI vorantreiben, müssen sie deshalb robuste Strategien für die Cybersicherheit entwickeln, um ihre Systeme zu schützen, die Betriebskontinuität zu gewährleisten und das Vertrauen ihrer Kunden und Geschäftspartner zu erhalten.

Intelligentere Fabriken bieten eine größere Angriffsfläche – Cybersecurity muss vor den Schwachstellen der KI schützen

Produktionsstätten sind heute komplexer und dezentraler organisiert denn je, und die alten Systeme sind nicht fortschrittlich genug, um moderne Hacker abzuwehren. Erschwerend kommt hinzu, dass die Einführung von KI-Tools eine ganze Reihe neuer Bedrohungen mit sich bringt. KI beeinflusst heute bereits viele Aspekte des Fertigungsprozesses. Ob bei der Mitarbeiterschulung, Sicherheitsüberwachung, Datenerfassung oder den KI-Robotern in der Fabrikhalle: Fertigungsunternehmen sind vernetzter und intelligenter geworden – und angreifbarer.

Da KI-gestützte Arbeitsabläufe auf Daten, Sensoren und Netzwerke angewiesen sind, hat sich die Angriffsfläche für Cyberangriffe vergrößert. Hunderte oder Tausende vernetzter Geräte sind potenzielle Einfallstore für Hacker und andere Bedrohungen. Oft werden die Pläne zur Einführung von KI-Tools schneller umgesetzt als die notwendigen Sicherheitsmaßnahmen. Dabei ist es heute wichtiger denn je, Governance, Compliance und die generelle Sicherheit in der Fertigung effektiv zu gewährleisten.

Betrachten wir beispielsweise den Einsatz von Technologien für vernetzte Mitarbeiter. KI-gesteuerte Anwendungen vereinfachen den Zugriff auf wichtige Informationen, verbessern die globale Kommunikation und beschleunigen die Wertschöpfung durch die automatische Konvertierung digitaler Inhalte. Es gibt jedoch auch wichtige Sicherheitsaspekte, die berücksichtigt werden müssen, um die Daten zu schützen, mit denen diese Systeme arbeiten.

Der Schutz proprietärer Produktionsdaten gewährleistet eine sichere, isolierte und regelkonforme KI-Verarbeitung

Produktionsdaten sind äußerst sensibel, da sie Geschäftsgeheimnisse, detaillierte Informationen über Fertigungsprozesse und eine Vielzahl von Kundendaten enthalten. Bei der Implementierung von KI-Technologien ist deshalb die Frage entscheidend, ob Fertigungsdaten jemals an externe KI-Anbieter weitergegeben werden.

Auch hier sprechen die Statistiken eine deutliche Sprache: 2024 waren mehr als 40 % der Hacking-Ansprüche auf externe Anbieter zurückzuführen.

Kundendaten sollten nicht zum Trainieren von KI-Modellen verwendet werden. Sie dürfen nur vom SaaS-Anbieter verarbeitet werden und niemals mit externen Anbietern von KI-Modellen geteilt werden. Alle Eingaben, Ausgaben und Einbettungen müssen innerhalb einer sicheren Infrastruktur geschehen, die vom SaaS-Anbieter betrieben, überwacht und kontrolliert wird. Nur so können Datenhoheit, Datenschutz und Compliance in vollem Umfang gewährleistet werden.

Moderne Plattformen für vernetzte Mitarbeiter lösen dieses Problem, indem sie alle Daten in sicheren Umgebungen wie AWS verarbeiten und die strengen Gesetze zur Datenresidenz einhalten. Da Prompts und Antworten ebenfalls vollständig in der AWS-Umgebung verarbeitet werden, können Hersteller leistungsstarke KI-Funktionen in der Fabrikhalle nutzen und gleichzeitig strenge Vorgaben bezüglich Datenschutz, Kontrolle und Compliance zuverlässig einhalten.

KI-Fehlerminimierung und Sicherheitsmaßnahmen für die Fertigung

In der Fertigung sind Sicherheit und Genauigkeit der KI-Outputs von größter Bedeutung, da Fehler hier schnell zu realen Gefährdungen führen können. Hersteller sollten daher sicherstellen, dass die KI-Antworten auf Sicherheit und Korrektheit geprüft, professionell formuliert und auf den spezifischen Kontext abgestimmt sind. Um das Risiko unsicherer oder falscher KI-Ausgaben in der Fertigung zu minimieren, sollten Unternehmen ein mehrstufiges System aus Leitplanken und Validierungskontrollen einführen:

  • Inhaltsfilterung bei der Eingabe: Einsatz von KI-Guardrails, um unsichere Inhalte zu blockieren, bevor sie in das Modell einfließen. Beispiele sind Filter, die Hassrede, Beleidigungen, Diskriminierungen, sexuelle Inhalte und gewaltverherrlichende Darstellungen erkennen und entfernen.
  • Prompt Injection und Erkennung böswilliger Eingaben: Eingaben werden vorab bewertet, um böswillige Absichten oder Lecks in den System-Prompts zu erkennen.
    Few-Shot-Prompting: Die Prompts enthalten Beispiele für akzeptable/unakzeptable Fragen, um sicheres Verhalten zu fördern.
  • Sichere Verarbeitung von Prompts und Antworten: Verarbeiten Sie alle KI-Interaktionen in einer sicheren, kundenspezifischen Umgebung. Verschlüsseln Sie Protokolle im Ruhezustand sowie bei der Übertragung. Setzen Sie strenge Zugriffskontrollen durch. Dadurch sind Prompts, Antworten und Telemetrie auditierbar, können aber niemals für das Trainieren der KI verwendet werden.
  • Retrieval-Augmented Generation (RAG) für Output-Grounding: Verankern Sie jede KI-Antwort in verifizierten, kundenspezifischen Quell-Inhalten. Ist kein relevanter Kontext vorhanden, konfigurieren Sie das Modell so, dass es „Keine Antwort“ zurückgibt, statt Halluzinationen zu riskieren.
  • Vermeidung von Verzerrungen, Obszönitäten und Scope-Drifts: Integrieren Sie Mechanismen zur Überprüfung der Ausgabe auf unangemessene oder voreingenommene Sprache. Stellen Sie sicher, dass die Antworten auf die Daten des Kunden beschränkt bleiben. Sorgen Sie für professionelle Formulierungen.
  • Human-in-the-Loop (HITL)-Überprüfung: Für sehr kritische Ausgaben, wie beispielsweise Sicherheitsprotokolle oder komplexe Arbeitsanweisungen, sollten Sie einen Arbeitsablauf implementieren, bei dem ein qualifizierter menschlicher Experte die von der KI generierten Inhalte überprüft und genehmigt, bevor sie fertiggestellt werden. So erhalten Sie ein Sicherheitsnetz, um kleinste Fehler oder kontextbezogene Nuancen zu erkennen, die automatisierten Systemen leicht entgehen.
  • Mehrsprachigkeit und kulturelle Sicherheit: Passen Sie die Antwortsprache automatisch an die Eingabe an. Nutzen Sie bei unterschiedlichen Kontexten eine Lokalisierung oder Übersetzung, um Klarheit und kulturelle Relevanz zu wahren.
  • Purple Teaming und interne Tests: Führen Sie regelmäßig spezielle Simulationen gegnerischer Angriffe durch, um den Schutz vor Prompt Injection zu bewerten und zu verbessern.

KI muss unternehmerische Verantwortung übernehmen – durch Transparenz, Fairness und richtlinienkonforme Antworten

Im Zeitalter der eingebetteten KI liegt die Verantwortung für die Grundsätze der Unternehmensführung eindeutig beim SaaS-Anbieter. Kunden in anspruchsvollen Umgebungen wie der Fertigung erwarten mehr als nur leistungsstarke Funktionen. Sie verlangen eine sichere, konforme und vertrauenswürdige KI. Diese Verantwortung umfasst eine nachprüfbare Grundlage für Sicherheit und Datenintegrität, die durch strenge, unabhängige Audits validiert wird, und die Einhaltung branchenüblicher Best Practices.

Echte KI-Governance reicht jedoch tief in das Produkt selbst hinein. Der Anbieter ist verpflichtet, technische Leitplanken („Guardrails“) einzubauen, die Transparenz, Fairness und die Einhaltung etablierter Betriebs- und Sicherheitsstandards gewährleisten. Systeme, die Retrieval-Augmented Generation (RAG) verwenden, um KI-Antworten ausschließlich auf die verifizierte Wissensbasis eines Kunden zu stützen, verhindern gefährliche „Halluzinationen“ und stellen sicher, dass alle Ausgaben kontextabhängig korrekt sind.

Für den Anbieter ist die Übernahme dieser Verantwortung ein strategischer Auftrag. Durch die proaktive Einbindung ethischer Kontrollen und einer soliden Governance wird aus einem einfachen Werkzeug ein vertrauenswürdiges, strategisches Gut. Auf diese Weise reduzieren SaaS-Anbieter nicht nur die Rechts- und Reputationsrisiken ihrer Kunden. Sie schaffen auch das Vertrauen, das für die sichere, nachhaltige Einführung und für langfristige operative Exzellenz unerlässlich ist.

Eine sicherere und intelligentere Zukunft für KI in der Fertigung

Die Integration von KI bietet der Fertigungsindustrie immense Vorteile – von optimierten Abläufen bis zur Befähigung ganzer Belegschaften. Doch mit diesem Versprechen gehen auch erhöhte Risiken einher.

Da Fabriken und Fertigungsprozesse zunehmend vernetzt und intelligenter werden, müssen Hersteller und ihre Lösungsanbieter dafür sorgen, dass die richtigen Prozesse vorhanden sind. Nur so können sie Cyberbedrohungen und Datenschutzrisiken abschwächen und effektiv auf ethische Herausforderungen reagieren.

Wenn Hersteller fortschrittliche Technologien für vernetzte Mitarbeiter einführen, die der Datensicherheit Priorität einräumen, robuste Cybersicherheitsprotokolle implementieren und KI-Antworten auf Sicherheit und Fairness prüfen, können sie die wachsenden Anwendungsfälle für KI in der Fertigung sicher nutzen. Dafür muss die KI die Anforderungen der Unternehmensverantwortung widerspiegeln.

Serge Thibault, VP Information Security bei Poka

Serge Thibault, VP Information Security bei Poka, Bild Poka

Serge Thibault leitet den Bereich Informationssicherheit und IT bei einer globalen B2B-SaaS-Plattform, die Unternehmen aus Industrie und Fertigung bedient. Bei Poka spielt er eine Schlüsselrolle bei der sicheren Einführung und Steuerung von KI-Funktionen innerhalb der Plattform. Dabei sorgt er für einen verantwortungsvollen Umgang, Datenschutz und Risikomanagement und fördert gleichzeitig Innovationen.

Weitere Informationen zum Thema:

datensicherheit.de, 15.04.2026
Januskopf KI: Förderer und Zerstörer der IT-Sicherheit

datensicherheit.de, 12.04.2026
KI-Verordnung: Konkretisierung der Transparenzpflichten für Unternehmen

]]>
https://www.datensicherheit.de/ki-fertigung-anforderungen-datensicherheit/feed 0
Warum Datenschutz zum entscheidenden Kriterium für Cloud-Speicher wird https://www.datensicherheit.de/datenschutz-kriterium-cloud-speicher https://www.datensicherheit.de/datenschutz-kriterium-cloud-speicher#respond Wed, 08 Apr 2026 15:17:04 +0000 https://www.datensicherheit.de/?p=53791 Trotz der weiten Verbreitung digitaler Dienste bleibt ein Teil der deutschen Bevölkerung zurückhaltend gegenüber Cloudspeicher-Lösungen. Die STRATO-Studie zeigt deutlich welche Gründe dahinterstehen. Besonders häufig wird der Wunsch nach lokaler Speicherung genannt.

Von unserer Gastautorin Katharina Oriefe-Briand, STRATO

[datensicherheit.de, 08.04.2026] Cloud-Speicher sind für viele Menschen zum festen Bestandteil des digitalen Alltags geworden. Fotos, Dokumente oder Backups werden selbstverständlich online gespeichert. Gleichzeitig wächst jedoch das Bewusstsein für Risiken rund um Datenschutz, Zugriffskontrolle und Vertragsbedingungen. Eine aktuelle Studie zum Thema Cloud-Nutzung von STRATO zeigt, dass sich die Erwartungen an Cloud-Anbieter in Deutschland deutlich verschärfen. Sicherheits- und Transparenzanforderungen spielen bei der Entscheidung für oder gegen einen Dienst eine immer wichtigere Rolle.

Cloud-Speicher: Vertrauen entsteht durch Transparenz

Lange Zeit galten Speicherorte in der Cloud als Synonym für Komfort und Flexibilität. Daten sind von überall erreichbar, Geräte lassen sich synchronisieren, Backups erfolgen automatisch. Mit zunehmender Nutzung ist jedoch auch das Bewusstsein für mögliche Risiken gewachsen. Die Studie zeigt, dass inzwischen 56 Prozent der Befragten besonderen Wert auf klare und transparente Vertragsbedingungen legen. Damit rückt ein Aspekt in den Mittelpunkt, der lange als Nebensache galt: Transparenz. Sie ist aus Nutzersicht nicht nur eine rechtliche Frage, sondern bestimmt, ob Menschen verstehen, wie ein Dienst mit ihren Daten umgeht. Wo werden Daten gespeichert? Wer kann darauf zugreifen? Welche Rechte behält der Anbieter? Solche Fragen waren früher vor allem im Unternehmensumfeld relevant. Heute setzen sich immer mehr private Nutzerinnen und Nutzer mit diesen Fragen auseinander.

Diese Entwicklung ist nicht überraschend. Datenschutzdebatten, Berichte über Datenlecks oder Diskussionen über internationale Datenübermittlungen haben das öffentliche Bewusstsein geschärft. Viele Menschen beschäftigen sich intensiver mit Nutzungsbedingungen und prüfen genauer, welchen Diensten sie ihre Daten anvertrauen.

Verschlüsselung als technische Vertrauensbasis

Neben der Transparenz von Verträgen spielt die technische Absicherung eine zentrale Rolle. Laut Studie nennen 52 Prozent der Befragten Verschlüsselung als entscheidendes Kriterium bei der Auswahl eines Cloudspeicher-Dienstes. Damit wird deutlich, dass Sicherheitsmechanismen nicht mehr nur als technisches Detail wahrgenommen werden.

Verschlüsselung erfüllt dabei mehrere Funktionen. Sie schützt Daten während der Übertragung ebenso wie bei der Speicherung. Selbst wenn unbefugte Personen Zugriff auf die Infrastruktur erhalten, bleiben die Inhalte ohne passende Schlüssel unlesbar. Für Nutzerinnen und Nutzer ist dies ein zentraler Faktor, um die Kontrolle über sensible Informationen zu behalten.

Gleichzeitig signalisiert eine konsequente Verschlüsselungsstrategie, dass Anbieter Sicherheitsfragen ernst nehmen. In einem Umfeld, in dem digitale Dienste immer stärker miteinander vernetzt sind, gewinnt dieser Aspekt zusätzlich an Bedeutung. Daten aus Cloud-Speichern werden häufig mit anderen Anwendungen synchronisiert, etwa mit Smartphones, Arbeitsgeräten oder Kollaborationstools. Jede dieser Schnittstellen erhöht potenziell die Angriffsfläche. Entsprechend wichtig ist eine durchgängige Absicherung entlang der gesamten Datenkette.

Skepsis gegenüber der Cloud bleibt verbreitet

Trotz der weiten Verbreitung digitaler Dienste bleibt ein Teil der deutschen Bevölkerung zurückhaltend gegenüber Cloudspeicher-Lösungen. Die Studie zeigt deutlich welche Gründe dahinterstehen. Besonders häufig wird der Wunsch nach lokaler Speicherung genannt. 88 Prozent der Nicht-Nutzer geben an, ihre Daten lieber auf eigenen Geräten zu behalten. Dahinter steht meist das Bedürfnis nach direkter Kontrolle.

Skepsis gegenüber der Cloud bleibt verbreitet

Skepsis gegenüber der Cloud bleibt verbreitet, Bild: STRATO

Hinzu kommt die Sorge vor unbefugtem Zugriff. 79 Prozent der Befragten, die Cloudspeicher-Dienste meiden, nennen dieses Risiko als entscheidenden Faktor. Auch diese Zahl zeigt, wie stark Sicherheitsfragen das Vertrauen in digitale Dienste prägen.

Technisch betrachtet ist der Cloudspeicher nicht unsicherer als lokale Speicherlösungen. Professionell betriebene Rechenzentren verfügen zudem in der Regel über deutlich umfangreichere Sicherheitsmechanismen als private Geräte. Dennoch bleibt das Gefühl bestehen, dass Daten außerhalb der eigenen Infrastruktur schwerer kontrollierbar sind. Dieses Spannungsfeld zwischen technischer Realität und subjektiver Wahrnehmung prägt die Debatte um Cloudspeicher-Dienste bis heute.

Neue Anforderungen an Anbieter

Die Ergebnisse der Studie deuten auf eine grundlegende Verschiebung der Erwartungen hin. Während Cloudspeicher-Dienste früher vor allem mit Komfort und Speicherplatz assoziiert wurden, rücken heute Fragen der Sicherheit, Kontrolle und Transparenz stärker in den Mittelpunkt.

Für Anbieter bedeutet das, dass technische Schutzmaßnahmen allein nicht ausreichen. Ebenso wichtig ist eine verständliche Kommunikation über Sicherheitskonzepte, Vertragsbedingungen und Datenverarbeitung. Nutzerinnen und Nutzer wollen nachvollziehen können, wie ihre Daten geschützt werden und welche Rechte sie behalten.

Diese Entwicklung kann als generelle Reifung digitaler Märkte interpretiert werden. Je stärker digitale Dienste in den Alltag integriert sind, desto höher sind die Anforderungen an ihre Zuverlässigkeit und Sicherheit. In gewisser Weise nähern sich private Nutzerinnen und Nutzer damit der Perspektive von IT-Abteilungen in Unternehmen an. Vertragsdetails, Serverstandorte und Sicherheitsmechanismen werden zunehmend kritisch hinterfragt und geprüft.

Datenschutz als Wettbewerbsfaktor

Die wachsende Sensibilität für Datenschutz und Sicherheit verändert auch den Wettbewerb zwischen Cloudspeicher-Anbietern. Dienste, die intransparent arbeiten oder Sicherheitsaspekte vernachlässigen, stoßen zunehmend auf Skepsis. Gleichzeitig steigt die Bedeutung von nachvollziehbaren Sicherheitskonzepten und klaren Vertragsstrukturen.

Kriterien für Cloud-Speicher

Kriterien für Cloud-Speicher, Bild: STRATO

Cloudspeicher bleiben ein zentraler Bestandteil digitaler Infrastruktur. Doch ihre Akzeptanz ist an klare Bedingungen geknüpft. Wer Vertrauen gewinnen will, muss zeigen, wie Daten geschützt werden und unter welchen Rahmenbedingungen sie verarbeitet werden. Für Nutzerinnen und Nutzer ist Datenschutz längst kein Randthema mehr, sondern ein entscheidender Faktor bei der Wahl digitaler Dienste.

Über die Studie

Im Rahmen der Cloudspeicher-Nutzungsstudie von STRATO wurden im August 2025 rund 1.000 Bürger zwischen 18 und 75 Jahren in Deutschland befragt. Die repräsentative Online-Erhebung erfolgte durch Forsa (Deutschland) sowie einen renommierten Studienpartner in den Niederlanden und Schweden. Die Ergebnisse sind repräsentativ mit einer statistischen Fehlertoleranz von +/- 3 Prozentpunkten. Download der Studie und weitere Informationen unter https://www.strato.de/cloud-speicher/studie/

Katharina Oriefe-Briand, Brand Marketing, STRATO

Katharina Oriefe-Briand, Brand Marketing, STRATO, Bild: STRATO

Über die Autorin

Katharina Oriefe-Briand verantwortet bei STRATO den Bereich Brand Marketing. Sie entwickelt dort Kommunikationsstrategien für die Brand- und Produktplatzierung in verschiedenen Kanälen.

Weitere Informationen zum Thema:

datensicherheit.de, 24.12.2025
Cloud-Nutzung: Auswege für KMU aus dem Dilemma der Datensouveränität

 

]]>
https://www.datensicherheit.de/datenschutz-kriterium-cloud-speicher/feed 0
NIS2 im Aufsichtsrat: Woran sich Gremien künftig messen lassen müssen https://www.datensicherheit.de/nis2-aufsichtsrat-gremien-compliance https://www.datensicherheit.de/nis2-aufsichtsrat-gremien-compliance#respond Mon, 30 Mar 2026 14:04:41 +0000 https://www.datensicherheit.de/?p=53613 Geschäftsleitungen und Aufsichtsgremien müssen künftig nicht nur Verantwortung tragen, sondern diese auch aktiv und nachvollziehbar

Von unserem Gastautor Thomas Kress, Geschäftsführer, Deutsche Cyberkom GmbH

[datensicherheit.de, 30.03.2026] NIS2 wird in vielen Unternehmen noch immer operativ interpretiert. Maßnahmen werden erweitert, Kontrollen verschärft, Compliance-Strukturen angepasst. Doch die eigentliche Veränderung liegt auf einer anderen Ebene. Geschäftsleitungen und Aufsichtsgremien müssen künftig nicht nur Verantwortung tragen, sondern diese auch aktiv und nachvollziehbar wahrnehmen.

Thomas Kress, Geschäftsführer, Deutsche Cyberkom GmbH

Thomas Kress, Geschäftsführer, Deutsche Cyberkom GmbH, © Deutsche Cyberkom

Damit verschiebt sich der Maßstab. Nicht die Anzahl der Maßnahmen ist entscheidend, sondern die Fähigkeit zur Steuerung. Genau hier zeigt sich in der Praxis eine deutliche Lücke.

Vom ISMS zur echten Steuerungslogik

Viele Unternehmen verfügen über etablierte Informationssicherheitsmanagementsysteme, häufig orientiert an ISO 27001. Diese schaffen Struktur, ersetzen aber keine Steuerung auf Vorstandsebene. NIS2 fordert genau diese Übersetzung.

Cyberrisiken müssen so aufbereitet werden, dass sie für die Geschäftsleitung verständlich und entscheidungsfähig sind. Technische Schwachstellen allein reichen nicht aus. Erst die Verknüpfung mit geschäftlichen Auswirkungen macht Risiken steuerbar.

In der Praxis fehlt häufig genau dieser Schritt. Informationen bleiben technisch, während die Führungsebene keine klare Entscheidungsbasis erhält.

Die fünf Kennzahlen für die Führungsebene

Für eine wirksame Steuerung haben sich fünf Kennzahlen bewährt, die auf Vorstandsebene belastbar sind:

  • Der aggregierte Risikostatus kritischer Geschäftsprozesse zeigt, wie stark das Kerngeschäft aktuell gefährdet ist und basiert auf Business Impact Analysen sowie aktuellen Bedrohungslagen.
  • Die Mean Time to Detect misst die Zeit bis zur Erkennung eines Vorfalls und gibt Aufschluss über die Effektivität von Monitoring und Detection.
  • Die Mean Time to Recover beschreibt die Wiederherstellungszeit kritischer Systeme und damit die operative Resilienz des Unternehmens.
  • Der Umsetzungsgrad priorisierter Maßnahmen zeigt, ob definierte Sicherheitsmaßnahmen tatsächlich umgesetzt werden und wo Verzögerungen bestehen.
  • Die Third-Party Risk Exposure bewertet die Risiken durch externe Dienstleister und Lieferketten, die zunehmend zum entscheidenden Angriffspunkt werden.

Diese Kennzahlen verdichten komplexe Sachverhalte auf ein Niveau, das fundierte Entscheidungen ermöglicht.

Reporting als Entscheidungsgrundlage

Ein entscheidender Erfolgsfaktor ist das Reporting. Umfangreiche technische Berichte sind auf Vorstandsebene nicht zielführend. Entscheidend ist eine klare und reduzierte Darstellung.

Ein einseitiges Management-Update hat sich in der Praxis bewährt. Es enthält eine eindeutige Gesamteinschätzung der Risikolage, die Entwicklung der zentralen Kennzahlen sowie die aktuell kritischsten Risiken.

Wesentlich ist die Übersetzung in geschäftliche Auswirkungen. Welche Prozesse sind betroffen, welche operativen oder finanziellen Konsequenzen entstehen können.

Abschließend müssen konkrete Entscheidungsbedarfe formuliert werden. Erst dadurch wird aus Reporting echte Steuerung.

Haftung als Frage der Nachvollziehbarkeit

Die persönliche Haftung wird häufig als abstraktes Risiko wahrgenommen. In der Praxis ist sie vor allem eine Frage der Nachvollziehbarkeit.

Geschäftsleitungen müssen zeigen können, dass Risiken bekannt sind, bewertet werden und auf dieser Grundlage Entscheidungen getroffen wurden. Die Existenz von Risiken ist dabei nicht ausschlaggebend.

Kritisch wird es, wenn Transparenz fehlt oder bekannte Risiken ignoriert werden. NIS2 erhöht hier die Anforderungen an strukturiertes und dokumentiertes Handeln.

Typische Schwächen in der Umsetzung

In vielen Organisationen liegt der Fokus weiterhin auf technischen Maßnahmen. Gleichzeitig fehlt die Integration in die Unternehmenssteuerung.

Cybersecurity wird operativ umgesetzt, aber nicht strategisch geführt. Risiken werden identifiziert, aber nicht priorisiert. Reporting ist vorhanden, aber nicht entscheidungsorientiert.

Diese Diskrepanz führt zu einer Scheinsicherheit, die durch NIS2 zunehmend hinterfragt wird.

Fazit

NIS2 verschiebt den Fokus von einzelnen Maßnahmen hin zur Fähigkeit, Risiken aktiv zu steuern. Geschäftsleitungen werden daran gemessen, ob sie Informationssicherheit nachvollziehbar führen.

Ein klar definiertes Set an Kennzahlen, ein reduziertes und entscheidungsorientiertes Reporting sowie die Integration in bestehende Governance-Strukturen bilden die Grundlage dafür. Unternehmen, die diese Übersetzung schaffen, erreichen nicht nur regulatorische Konformität, sondern echte Resilienz.

Über den Autor:

Thomas Kress ist ein erfahrener IT-Sicherheitsexperten im deutschsprachigen Raum und Geschäftsführer der Deutschen CyberKom. Nach über 25 Jahren in leitenden Rollen bei internationalen IT-Projekten gründete er sein eigenes Unternehmen, das heute unter dem Dach der Deutschen CyberKom IT-Security und Telekommunikation strategisch vereint. Darüber hinaus ist Kress gefragter Fachautor in IT- und Wirtschaftspublikationen. Als Berater betreut er führende Unternehmen sowie Systemhäuser in Sicherheitsfragen, Infrastruktur und digitaler Souveränität.

Weitere Informationen zum Thema:

datensicherheit.de, 28.03.2026
NIS2 wird nicht an der Technologie scheitern – sondern am Faktor Mensch

]]>
https://www.datensicherheit.de/nis2-aufsichtsrat-gremien-compliance/feed 0
Den Fortschritt im Blick, Cyberangreifer im Windschatten: Wie Unternehmen Governance, Risk & Compliance (GRC) mit KI harmonisieren https://www.datensicherheit.de/governance-risk-compliance-grc-ki https://www.datensicherheit.de/governance-risk-compliance-grc-ki#respond Wed, 25 Mar 2026 14:25:00 +0000 https://www.datensicherheit.de/?p=53497 Künstliche Intelligenz entwickelt sich zunehmend zu einem entscheidungsrelevanten Faktor mit unmittelbaren Auswirkungen auf Risikoexposition, Haftung und regulatorische Anforderungen. Systeme treffen automatisierte Entscheidungen, priorisieren Risiken, analysieren Anomalien oder steuern Prozesse in Echtzeit.

Von unserem Gastautor Fino Scholl, Managing Director, Swiss GRC Germany

[datensicherheit.de, 25.03.2026] Künstliche Intelligenz verändert den Cybersecuritymarkt stärker als viele andere Innovationen der letzten Jahre. Geprüfte Studien zeigen: Die Identifikation von Schwachstellen in Software sowie die Entwicklung potenziell schädlicher Codes gelingt durch KI schneller, präziser und skalierbarer als je zuvor.

Diese Entwicklung verändert die Regeln. Für Verteidiger und Angreifer gleichermaßen. Denn KI wird zum Beschleuniger für beide Seiten. Die entscheidende Frage lautet daher nicht mehr, ob KI eingesetzt wird, sondern wie sie gesteuert wird. Was bedeutet das konkret für CTOs, CISOs und CSOs 2026?

Cybersecurity bleibt Herausforderung im deutschen Mittelstand

In vielen Unternehmen wird KI noch immer primär als Technologieprojekt verstanden. Zuständig ist die IT-Abteilung, bewertet werden Effizienzgewinne oder Automatisierungspotenziale. Diese Sichtweise greift deutlich zu kurz.

KI entwickelt sich zunehmend zu einem entscheidungsrelevanten Faktor mit unmittelbaren Auswirkungen auf Risikoexposition, Haftung und regulatorische Anforderungen. Systeme treffen automatisierte Entscheidungen, priorisieren Risiken, analysieren Anomalien oder steuern Prozesse in Echtzeit. Damit berühren sie nicht nur technische, sondern auch organisatorische und strategische Fragestellungen.

Gerade im deutschen Mittelstand fehlt häufig eine klare Governance-Perspektive. Es fehlt branchenunabhängig an Awareness, Expertise, Ressourcen und Infrastrukturen in diesem Bereich. Langfristig entsteht daraus ein erhebliches Risiko. Aus technologischer Hinsicht. Aber auch aus wirtschaftlicher. Denn schon 2025 entstand in Deutschland ein wirtschaftlicher Schaden von 202,4 Milliarden Euro durch IT-Angriffe. 2024 waren es noch 178,6 Mrd. Euro

Wer KI ausschließlich als praktikables Tool für Routinemaßnahmen betrachtet, unterschätzt ihre strukturelle Wirkung. Denn mit jedem KI-gestützten Prozess entstehen neue Abhängigkeiten, neue Angriffsflächen und neue Verantwortlichkeiten.

Effizienzgewinn vs. Sicherheitsrisiko

Unbestritten ist: KI kann Cyberabwehr deutlich stärken. Automatisierte Log-Analysen, Anomalieerkennung, prädiktive Risikoanalysen oder intelligente Zugriffskontrollen erhöhen die Reaktionsgeschwindigkeit erheblich. Sicherheitsvorfälle lassen sich früher identifizieren und priorisieren.

Gleichzeitig steigt jedoch die Komplexität. KI-Systeme basieren häufig auf externen Modellen, Cloud-Infrastrukturen oder Drittanbieter-Services. Trainingsdaten stammen aus unterschiedlichen Quellen, Algorithmen sind nicht immer vollständig nachvollziehbar.

Damit entstehen neue Risikodimensionen:

  • Transparenzdefizite: Black-Box-Modelle erschweren Nachvollziehbarkeit und Auditierbarkeit.
  • Drittanbieter-Abhängigkeiten: Externe KI-Services erweitern die Lieferkette und erhöhen Third-Party-Risiken.
  • Neue Angriffsformen: Prompt Injection, Model Poisoning oder manipulierte Trainingsdaten eröffnen zusätzliche Angriffsszenarien.

KI wird so selbst zum Risikofaktor. Insbesondere dann, wenn sie unstrukturiert eingeführt wird.

Regulatorische Anforderungen erhöhen den Handlungsdruck

Parallel zur technologischen Dynamik steigt der regulatorische Druck. Mit NIS-2, DORA und dem Cyber Resilience Act rückt die Steuerung digitaler Risiken auf Management-Ebene. KI-Anwendungen fallen damit nicht mehr ausschließlich in den Verantwortungsbereich der IT, sondern werden Teil des unternehmensweiten Governance-, Risk- und Compliance-Frameworks.

Die regulatorische Logik ist eindeutig: Digitale Resilienz ist eine Führungsaufgabe. Risiken müssen identifiziert, bewertet, dokumentiert und kontinuierlich überwacht werden. Das gilt auch und insbesondere für KI-gestützte Prozesse.

Relevante EU-Maßnahmen im Zusammenhang mit KI und Cybersecurity

Relevante EU-Maßnahmen im Zusammenhang mit KI und Cybersecurity, Bild: Swiss GRC Germany

Unternehmen stehen somit vor einer doppelten Herausforderung: Sie müssen KI nutzen, um wettbewerbsfähig und resilient zu bleiben. Gleichzeitig müssen sie sicherstellen, dass deren Einsatz kontrollierbar, prüfbar und regelkonform erfolgt.

Unterschätzte Risiken im KI-Einsatz

In der Praxis zeigen sich immer wieder miteinander vergleichbare Schwachstellen. Häufig werden KI-Tools dezentral eingeführt, etwa durch Fachabteilungen, die Effizienzpotenziale heben wollen. Governance-Strukturen hinken hinterher.

Typische Problemfelder sind:

  1. Fehlende Risikoklassifizierung: Nicht jede KI-Anwendung ist gleich kritisch. Ohne strukturierte Bewertung fehlt die Priorisierung.
  2. Unklare Verantwortlichkeiten: Wer haftet bei Fehlentscheidungen eines Systems?
  3. Mangelnde Dokumentation: Ohne transparente Prozesse sind Prüfungen kaum möglich.
  4. Unzureichendes Monitoring: KI-Modelle können sich durch Updates, neue Trainingsdaten oder Modellanpassungen verändern. Ohne kontinuierliche Kontrolle entstehen blinde Flecken.

Gerade regulierte Branchen in Deutschland, zum Beispiel der Finanzsektor, Versicherungen oder kritische Infrastrukturen, können sich solche Lücken nicht leisten. Hier wirken technologische Defizite unmittelbar auf Haftung, Reputationsrisiken und Geschäftsmodellstabilität.

Governance, Risk & Compliance (GRC) als strukturierender Rahmen

Die zentrale Frage lautet daher: Wie lassen sich Chancen und Risiken von KI systematisch steuern? Hier kommt Governance, Risk & Compliance (GRC) ins Spiel. GRC ist kein bürokratisches Add-on, sondern der strukturierende Rahmen, um technologische Innovation kontrollierbar zu machen.

Ein wirksames GRC-Framework

Ein wirksames GRC-Framework, Bild: Swiss GRC Germany

Erst durch die Einbettung in diesen Rahmen wird KI somit zu einem steuerbaren Bestandteil der Unternehmensarchitektur.

KI verstärkt bestehende Stärken und Schwächen

Ein häufiger Irrtum besteht darin, KI als Ersatz für Sicherheitsstrategien zu betrachten. Tatsächlich wirkt sie wie ein Verstärker. In Organisationen mit klaren Prozessen, definierten Zuständigkeiten und etabliertem Risikomanagement erhöht sie Effizienz und Transparenz.

In Unternehmen mit fragmentierten Strukturen verstärkt sie hingegen Intransparenz und Kontrollverlust. Cybersecurity 2026 wird daher nicht allein durch Technologie entschieden, sondern durch Governance-Qualität. Wer KI ohne strukturiertes Risikomanagement implementiert, verschiebt Probleme lediglich. Oft in Bereiche, die erst bei einem Audit oder Sicherheitsvorfall sichtbar werden.

Digitale Resilienz braucht Steuerbarkeit

  • Die Ambivalenz von KI ist Realität: Sie ermöglicht präzisere Angriffe und gleichzeitig effektivere Verteidigung. Unternehmen können sich dieser Dynamik nicht entziehen.
    Entscheidend ist, KI nicht isoliert als IT-Instrument zu betrachten, sondern als strategischen Faktor innerhalb der Unternehmenssteuerung. Digitale Resilienz entsteht dort, wo Innovation und Kontrolle zusammengedacht werden.
  • Für Entscheider bedeutet das: KI gehört auf die Agenda von Vorstand, Geschäftsführung und Risikokomitees. Nicht als technisches Detail, sondern als integraler Bestandteil von Governance, Risk & Compliance.
    Denn ohne KI wird Cybersecurity 2026 nicht funktionieren. Aber ohne wirksames GRC wird KI zum unkalkulierbaren Risiko.
Fino Scholl, Managing Director, Swiss GRC Germany

Fino Scholl, Managing Director, Swiss GRC Germany, Bild: Swiss GRC Germany

Fino Scholl ist Managing Director der Swiss GRC Germany GmbH und verantwortet den Ausbau des Deutschlandgeschäfts sowie die Weiterentwicklung der Marktaktivitäten des Unternehmens. Zuvor war er in leitenden Funktionen bei der IAV im Risiko- und Kontrollumfeld sowie in der industriellen Forschung tätig. Scholl promovierte im Maschinenbau an der Universidad de Valladolid und hält einen Masterabschluss der Karlsruhe University of Applied Sciences.

Weitere Informationen zum Thema:

datensicherheit.de, 08.11.2025
Einsatz von KI-Agenten: Lückenlose Governance für Unternehmen mittlerweile unerlässlich

datensicherheit.de, 04.07.2025
Intensive KI-Nutzung in Unternehmen – Entwicklung von Richtlinien und Governance fällt zurück

]]>
https://www.datensicherheit.de/governance-risk-compliance-grc-ki/feed 0
OpenTelemetry als Fundament einer vertrauenswürdigen Observability-Infrastruktur https://www.datensicherheit.de/opentelemetry-vertrauen-observability https://www.datensicherheit.de/opentelemetry-vertrauen-observability#respond Tue, 24 Mar 2026 14:07:12 +0000 https://www.datensicherheit.de/?p=53470 Der offene Standard ermöglicht es, Metriken, Logs und Traces aus unterschiedlichsten Systemen konsistent zu erfassen, unabhängig von Sprache, Anbieter oder Infrastruktur.

Von unserem Gastautor Roman Spitzbart, VP Solutions Engineering EMEA bei Dynatrace

[datensicherheit.de, 24.03.2026] Cloud-Infrastrukturen sind heute das digitale Rückgrat von Behörden, Unternehmen und Organisationen – und damit auch ein attraktives Ziel für Angriffe und Missbrauch. Wer moderne Systeme betreibt, muss nicht nur für Leistung und Verfügbarkeit sorgen, sondern auch für Kontrolle, Nachvollziehbarkeit und Sicherheit. Dabei ist die Grundlage jeder Entscheidung eine verlässliche Datenbasis: präzise, vollständig und strukturiert erfassbar. Genau hier kommt OpenTelemetry ins Spiel – ein offener Standard, der sich zunehmend als technische Basis für Observability durchsetzt.

Roman Spitzbart, VP Solutions Engineering EMEA bei Dynatrace

Roman Spitzbart, VP Solutions Engineering EMEA bei Dynatrace, Bild: Dynatrace

OpenTelemetry – Transparenz ist Voraussetzung für sichere, auditierbare und steuerbare IT-Prozesse

OpenTelemetry ermöglicht es, Metriken, Logs und Traces aus unterschiedlichsten Systemen konsistent zu erfassen, unabhängig von Sprache, Anbieter oder Infrastruktur. Das schafft eine gemeinsame Sprache für Betriebsdaten, die besonders in hybriden oder stark regulierten Umgebungen essenziell ist. Denn Transparenz ist keine Option mehr, sondern Voraussetzung für sichere, auditierbare und steuerbare IT-Prozesse.

Insbesondere im Hinblick auf Sicherheitsanforderungen ist die Offenheit von OpenTelemetry ein zentraler Vorteil. Statt auf abgeschottete Monitoring-Tools mit proprietären Formaten angewiesen zu sein, lassen sich mit OTel standardisierte Datenpfade etablieren. Sie dienen als Grundlage für nachvollziehbares Security-Monitoring, sowohl im Tagesbetrieb als auch im Fall forensischer Analysen. So entsteht ein verlässliches Fundament für Transparenz, das technologische Offenheit mit operativer Sicherheit verbindet.

Vom Datenstrom zum Systemverständnis

Doch mit der bloßen Erfassung ist wenig gewonnen. Erst wenn Telemetriedaten intelligent analysiert und in Zusammenhang gestellt werden, entsteht ein vollständiges Lagebild. Das betrifft nicht nur Performance oder Verfügbarkeit, sondern erfassen vermehrt auch sicherheitsrelevante Zusammenhänge innerhalb der Systemarchitektur. Wo treten ungewöhnliche Zugriffsmuster auf? Welche Services interagieren unerwartet miteinander? Wurden in einer bestimmten Umgebung neue Konfigurationsdateien geladen?

Moderne Observability-Plattformen übernehmen hier die Aufgabe, Signale zu verknüpfen, Systemtopologien zu verstehen und Muster in Echtzeit zu erkennen. Dadurch werden Zusammenhänge sichtbar, die mit klassischen Monitoring-Lösungen oft verborgen bleiben. Ein einzelner Logeintrag oder ein auffälliger Metrikwert erhält erst dann Bedeutung, wenn er in Beziehung zu Traces, Deployments oder User-Verhalten gesetzt wird.

Gerade in sicherheitsrelevanten Systemlandschaften ist diese Fähigkeit zentral. Sie ermöglicht es, verdeckte Risiken zu erkennen, operative Unregelmäßigkeiten zu bewerten und technische Schwachstellen nicht nur zu vermuten, sondern nachzuweisen. Das reduziert die Reaktionszeit im Ernstfall und stärkt zugleich die strategische Fähigkeit, Systeme resilient und kontrollierbar zu betreiben.

Causal AI im Dienst der Ursachenanalyse

Mit wachsender Systemkomplexität steigen auch die Anforderungen an die Analyse. Die manuelle Rekonstruktion von Ursache-Wirkung-Zusammenhängen wird schnell zur Überforderung – vor allem im Kontext sicherheitsrelevanter Zwischenfälle, bei denen schnelle Ursachenklärung gefragt ist. Hier setzt Causal AI an: ein Analyseansatz, der nicht nur Muster erkennt, sondern gezielt nach den zugrunde liegenden Auslösern sucht.

Causal AI unterscheidet sich von herkömmlicher Künstlicher Intelligenz vor allem durch die Nachvollziehbarkeit ihrer Ergebnisse. Sie analysiert nicht nur Korrelationen, sondern rekonstruiert kausale Zusammenhänge. In einigen Szenarien ist das besonders entscheidend – etwa zur präzisen Rekonstruktion eines Datenlecks oder zur forensischen Aufarbeitung einer kompromittierenden Systemaktivität.

Die Bedeutung dieser Technologie zeigt sich auch in der Praxis: Statt pauschale Alarmmeldungen zu erzeugen, liefert Causal AI konkrete, priorisierte Ursachenketten. So lässt sich etwa nachvollziehen, dass ein Konfigurationsfehler in einer spezifischen Build-Umgebung zu einer Eskalation im Zugriffssystem geführt hat, verbunden mit klaren Zeitstempeln, Systempfaden und Benutzerinteraktionen. Für Sicherheitsteams bedeutet das: weniger Aufwand bei der Ursachenanalyse, höhere Verlässlichkeit in der Bewertung und eine bessere Grundlage für Berichte, Audits und Reaktionen.

Von reaktiv zu präventiv

Sicherheitsarbeit beginnt heute nicht mehr mit dem Alarm, sondern mit der systematischen Vermeidung von Risiken. Wer erst reagiert, wenn der Schaden bereits entstanden ist, handelt zu spät. Präventive Sicherheit erfordert die Fähigkeit, Anomalien frühzeitig zu erkennen, Risiken automatisch zu bewerten und proaktiv gegenzusteuern. AI-gestützte Observability-Plattformen liefern dafür die technische Grundlage.

Wenn Telemetriedaten nicht nur gesammelt, sondern kontinuierlich analysiert und bewertet werden, entsteht ein Frühwarnsystem, das sowohl technische als auch sicherheitsbezogene Abweichungen zuverlässig erkennt. Beispielsweise kann eine Plattform registrieren, dass ein bestimmter Authentifizierungsmechanismus in mehreren Regionen ungewöhnlich oft scheitert – ein potenzieller Hinweis auf ein Brute-Force-Szenario. Oder sie stellt fest, dass sich die Latenz eines internen Services in Verbindung mit einer neuen Container-Version signifikant verändert, mit möglichen Auswirkungen auf die Zugriffssteuerung.

Der entscheidende Fortschritt liegt jedoch nicht nur in der Erkennung, sondern in der Handlungsfähigkeit: moderne Systeme liefern konkrete Empfehlungen für Gegenmaßnahmen, basierend auf bekannten Mustern und kontextuellen Bewertungen. Diese Vorschläge lassen sich in automatisierte Reaktionspfade integrieren – von der Priorisierung über das Alert-Routing bis hin zur Umsetzung durch integrierte Workflows. Damit wird Sicherheit nicht zur Reaktion, sondern zum kontinuierlich lernenden System.

Offenheit trifft Automatisierung – auch in der Security

Der zentrale Gewinn liegt in der Verbindung von Offenheit und Automatisierung. OpenTelemetry liefert die Grundlage für eine einheitliche Datenerhebung, moderne DevOps-Prozesse schaffen die Flexibilität für dynamische Infrastrukturen – und intelligente Plattformen übersetzen diese Daten in belastbare Entscheidungen. Für Sicherheitsverantwortliche entsteht daraus eine Infrastruktur, die Transparenz, Kontrolle und Reaktion in einem integrierten Prozess vereint.

Gerade in verteilten oder regulierten Umgebungen zeigt sich der Vorteil eines solchen Ansatzes: Statt mühsam Informationen aus Einzelsystemen zusammenzutragen, liegt ein vollständiges, strukturiertes und jederzeit nachvollziehbares Bild vor – für Audits ebenso wie für den operativen Alltag. Das reduziert die Fehleranfälligkeit, entlastet Personalressourcen und erhöht die Fähigkeit, auch unter Druck sicherheitsrelevante Entscheidungen zu treffen.

Die klassische Trennung zwischen Security, Operations und Development wird dadurch zunehmend obsolet. Statt in isolierten Fachdisziplinen zu arbeiten, greifen Prozesse, Daten und Verantwortlichkeiten ineinander. Und genau darin liegt der eigentliche Fortschritt: Observability wird zum Bindeglied zwischen Technologie und Sicherheit, zwischen Erkennen und Handeln, zwischen operativer Realität und strategischer Steuerung.

Weitere Informationen zum Thema:

datensicherheit.de, 01.03.2026
Software mit bekannten Sicherheitslücken bei 87 Prozent der Unternehmen in Betrieb

datensicherheit.de, 17.02.2026
Cybersicherheit – Wenn eine verzerrte Selbstwahrnehmung zum Sicherheitsrisiko wird

]]>
https://www.datensicherheit.de/opentelemetry-vertrauen-observability/feed 0
Stabilität von Stromnetzen: Deutsche Unternehmen müssen sich vorbereiten  https://www.datensicherheit.de/stabilitaet-stromnetze-unternehmen-vorbereitung https://www.datensicherheit.de/stabilitaet-stromnetze-unternehmen-vorbereitung#respond Thu, 19 Mar 2026 18:11:30 +0000 https://www.datensicherheit.de/?p=53332 Die Sicherheit der Energieversorgung ist kein stabiler Zustand mehr, sondern ein permanenter Abwehrkampf.

Ein Kommentar von Gerald Eid, Regional Managing Director EMEA bei Getronics

[datensicherheit.de, 19.03.2026] Jüngste Medienberichte über den Energiekonzern E.ON zeichnen ein alarmierendes Bild: Dass täglich hunderte Cyberangriffe abgewehrt werden müssen und sich die Zahl der Attacken binnen fünf Jahren verzehnfacht hat, markiert einen kritischen Wendepunkt für den Wirtschaftsstandort Deutschland. Die Sicherheit unserer Energieversorgung ist kein stabiler Zustand mehr, sondern ein permanenter Abwehrkampf.

Gerald Eid, Regional Managing Director EMEA bei Getronics

Gerald Eid, Regional Managing Director EMEA bei Getronics, Bild: Getronics

Geopolitische Spannung erzeugen Handlungsbedarf

Die aktuellen geopolitischen Spannungen verpflichten die deutsche Wirtschaft zum Handeln. Die Gefahr für die eigene Produktion kommt heute über die Steckdose: Ein erfolgreicher Angriff auf den Netzbetreiber führt unmittelbar zum Stillstand der physischen Abläufe. Jeder muss heute auf den Ernstfall einer Katastrophe wie einen langanhaltenden Stromausfall vorbereitet sein. Unternehmen, die diese Risiken nicht sehen oder gar verdrängen, handeln nicht nur fahrlässig, sondern schlichtweg nicht mehr wirtschaftlich.

Das Risiko-Duo: Instabile Stromnetze und digitale Einfallstore

Wir erleben gerade eine gefährliche Zuspitzung, bei der physische Instabilität auf digitale Verwundbarkeit trifft. Während die Belastbarkeit der Stromnetze durch extreme Wetterereignisse und schwankende Lasten ohnehin an ihre Grenzen stößt, vergrößert die rasant fortschreitende Vernetzung von Industrie und Gesundheitswesen die Angriffsfläche massiv. In diesem überreizten System wird jeder neue digitale Zugangspunkt zu einem kritischen Risiko, da schon minimale Störungen ausreichen, um eine systemweite Kettenreaktion auszulösen.

Ein systemischer Kollaps beginnt dabei fast nie im Kraftwerk selbst. Er startet an den digitalen Schnittstellen. Ein kompromittierter Zugang am Arbeitsplatz kann die Brücke schlagen, über die sich ein Angreifer bis in die sensiblen Steuerungssysteme der Netze vorarbeitet. Damit wird die Büroumgebung zum potenziellen Auslöser für einen großflächigen Blackout.

Strategien für eine krisenfeste Energieversorgung:

  • Eigenständige Stromversorgung durch Insel-Lösungen: Unternehmen müssen in der Lage sein, ihre Standorte autark zu betreiben. Dezentrale Anlagen mit lokaler Energieerzeugung und intelligenter Steuerung ermöglichen es, sich bei Instabilitäten sofort vom Hauptnetz abzukoppeln und kritische Prozesse unterbrechungsfrei weiterzuführen.
  • Aktive Laststeuerung als Schutzschild: Durch die enge Verknüpfung von IT und Gebäudetechnik lassen sich Stromflüsse in Echtzeit steuern. Wer seinen Bedarf über digitale Kontrollinstrumente überwacht und bei Bedarf senkt, entlastet nicht nur die eigenen Kosten, sondern stabilisiert aktiv das Gesamtsystem und verhindert so eine provozierte Überlastung der Netze.
  • Gesetzliche Vorgaben als strategischer Anker: Die neuen EU-Richtlinien sind weit mehr als eine reine Pflichtübung. NIS2 und die CER-Richtlinie fordern zu Recht, dass Maßnahmen zur Katastrophenhilfe und zum Schutz kritischer Anlagen fester Bestandteil der Unternehmensführung werden. Es geht darum, das Risikomanagement über die eigenen Werkstore hinaus auf die gesamte Versorgungskette auszuweiten.
  • Vorsorge für extreme Ausfallszenarien: Da absolute Sicherheit nicht existiert, entscheidet die Reaktionsfähigkeit im Ernstfall. Ausgearbeitete Notfallpläne für einen langanhaltenden Stromausfall sind heute das einzige Mittel, um die massiven Kosten eines kompletten Produktionsstopps abzufedern.

Die aktuelle Bedrohungslage beweist, dass Cybersicherheit und die physische Verfügbarkeit von Energie untrennbar zusammengehören. Echte Vorsorge beginnt beim Schutz des einzelnen Nutzers und endet erst bei einer Architektur, die auch ohne externe Stromzufuhr handlungsfähig bleibt.

Weitere Informationen zum Thema:

datensicherheit.de, 09.01.2026
TÜV-Verband zum Stromausfall in Berlin: Deutschlands Infrastruktur braucht mehr Resilienz

datensicherheit.de, 14.08.2023
Drohender Totalausfall: Sicherheitslücken in Rechenzentren könnten Energieversorgung lahmlegen

]]>
https://www.datensicherheit.de/stabilitaet-stromnetze-unternehmen-vorbereitung/feed 0
Zero Trust: Absicherung mobiler IoT- und OT-Systeme https://www.datensicherheit.de/zero-trust-absicherung-mobil-iot-ot-systeme https://www.datensicherheit.de/zero-trust-absicherung-mobil-iot-ot-systeme#respond Thu, 12 Mar 2026 07:03:02 +0000 https://www.datensicherheit.de/?p=53226 Gerade in diesen Bereichen ist der Datenverkehr bislang nur schwer oder nur mit großem Aufwand zu kontrollieren. Zudem spielt die Mobilität in vielen Einsatzbereichen eine Rolle.

Von unserem Gastautor Christoph Schuhwerk, CISO in Residence bei Zscaler

[datensicherheit.de, 12.03.2026] Zero Trust hat sich als Prinzip einer Sicherheitsarchitektur in vielen Unternehmen etabliert: Vertrauen wird nicht vorausgesetzt, sondern fortlaufend überprüft mit dem Ziel, Zugriffe und Datenflüsse konsequent nach dem „Least-Privilege“-Prinzip abzusichern. In klassischen IT-Umgebungen ist dieser Sicherheitsansatz angekommen, aber in Produktionsumgebungen oder Systemen mit mobilem IoT-Datenverkehr besteht noch Nachholbedarf.

In diesen Bereichen ist der Datenverkehr bislang nur schwer oder mit großem Aufwand zu kontrollieren. Dazu zählen insbesondere OT- und IoT-Systeme, bei denen Mobilität in vielen Einsatzbereichen eine Rolle spielt. Gerade hier wächst die Anzahl der Anwendungsfälle rasant und mit ihr die Notwendigkeit, Zero Trust so zu erweitern, dass auch diese Umgebungen zuverlässig und praktikabel abgedeckt werden.

Christoph Schuhwerk, CISO in Residence bei Zscaler

Christoph Schuhwerk, CISO in Residence bei Zscaler, Foto: Zscaler

Achillesferse der Datensicherheit

Im Zuge der Digitalisierung von großen Teilen der Industrie wird Flexibilität für Systeme und Mitarbeiter zunehmend zur Grundanforderung. Ein Beispiel sind Scanner im Warehouse-Management: Oft laufen diese Geräte nicht mit einem vollständigen Android-System, sondern mit einem stark reduzierten, geschlossenen System. Häufig kommen SIM-Karten zum Einsatz, über die das Gerät mit einem Gateway kommuniziert.

In der Praxis entstehen dadurch komplexe Kommunikationswege: Der Datenverkehr läuft beispielsweise beim Drucken von Labels über das Mobilfunknetz zu den Gateways der Mobilfunkbetreiber, von dort weiter zum Firmennetzwerk, dann zu einem Druckserver an einem anderen Standort und anschließend zum Drucker. Genau die Kommunikationskette kann zur Angriffsfläche werden. Nicht unbedingt weil einzelne Komponenten per se unsicher sind, sondern weil die Kette nur so stark ist wie ihr schwächstes Glied.

Ein weiteres typisches Szenario betrifft Maschinen, die nach der Inbetriebnahme weiterhin vom Hersteller überwacht und gewartet werden. Dafür werden beispielsweise Telemetriedaten oder Firmware-Updates übertragen. In der Vergangenheit wurden Zugriffsanforderungen oft mit eher improvisierten Methoden gelöst wie beispielsweise mit separaten Wartungs-Ports, die physisch verplombt wurden, oder über Fernwartungs-Zugänge, die zwar nur temporär geöffnet wurden, aber nicht durchgehend Ende-zu-Ende abgesichert waren. Denn irgendwo muss es immer eine Instanz geben, die den Traffic passieren lässt. Und genau dort ist die Achillesferse: eine kleine, aber entscheidende Schwachstelle, die immer wieder aufs Neue gefunden und geschlossen werden muss, wenn sichere Kommunikation gewährleistet sein soll.

Die SIM-Karte als Ausgangspunkt für Sicherheit

Viele der beschriebenen Use Cases entstehen dort, wo Geräte oder Dinge beweglich eingesetzt werden und über Mobilfunk kommunizieren müssen. In solchen Szenarien rückt die SIM-Karte als technischer Ankerpunkt in den Fokus: Genau hier findet der relevante und potenziell angreifbare Datenverkehr statt, den Angreifer als Einfallstor in weitere Netzbereiche nutzen könnten. Der Ansatz von Zero Trust Everywhere setzt deshalb möglichst nah am Gerät an und verschiebt den Beginn der Absicherung bis an den Kommunikationsursprung.

Konkret bedeutet das: Die SIM-Karte wird Bestandteil des Sicherheitskonzepts und der Datenverkehr wird direkt dort zu einem Microtunnel gebündelt und anschließend verschlüsselt Ende-zu-Ende übertragen. Auch der Mobilfunkanbieter kann den Traffic in diesem Modell nur verschlüsselt sehen, nicht jedoch die Inhalte. Geht ein Gerät verloren oder wird ein Gerät entwendet, kann es einzeln gesperrt werden. Dank Überprüfung des Gerätekontexts wird auch der Zugriff durch unautorisierte Parteien unterbunden. Umgekehrt fällt auch der Versuch der Manipulation der SIM-Karte auf und kann zur Sperrung des Geräts führen. Über einen Zero Trust-Ansatz z.B. mit Zscaler Cellular wird die Absicherung der Identität und des Datenflusses auch für mobile Endgeräte oder mobile und fahrbare Gegenstände einfach möglich.

Policies bleiben zentral, Netze werden austauschbar

Ein zentrales Ziel moderner Produktion ist eine weitgehend automatisierte Fertigung (Stichwort: „Dark Factory“). Teil- oder voll-autonome Roboter, Komponenten und Geräte müssen dabei kontinuierlich überwacht und kontrolliert werden, ohne die betriebliche Flexibilität zu verlieren. Genau hier stoßen klassische Netzwerkmodelle häufig an ihre Grenzen: Wenn ein Gerät den Standort wechselt, ist es oft zu aufwändig, Netzwerk-Policies immer wieder neu anzupassen und am alten Ort sauber zurück zu bauen.

Das Zero Trust Everywhere-Prinzip eliminiert diesen Aufwand, indem es die Security vom darunterliegenden Transportnetz entkoppelt: Die Policy wird Cloud-basiert vorgehalten und überwacht, während das Netzwerk selbst nur als Transportmedium fungiert. Damit spielt es für die Durchsetzung der Sicherheitsregeln keine entscheidende Rolle, ob ein Gerät über WLAN, 5G oder eine andere Technologie kommuniziert, wo es sich befindet oder wie schnell die Anbindung ist – solange eine Internetverbindung besteht.

Entscheidend dabei ist es, die starke Sicherheitskette möglichst früh zu beginnen und möglichst spät – also so nah wie möglich am anfragenden Gerät und am Datensatz – zu beenden und zwischen den Punkten eine durchgehende Verschlüsselung aufrechtzuerhalten. Auf diese Weise wird Zero Trust auf Teile des Ökosystems ausgedehnt, die bisher nur eingeschränkt erreichbar waren.

In solchen Anwendungsbereichen erkennen Unternehmen, dass Cybersicherheit nicht bei klassischen IT-Endpunkten enden darf. Eine stärker automatisierte und mobilere Industrie muss den Schutz konsequent auf Geräte ausweiten, die in OT-/IoT-Umgebungen betrieben werden und über SIM-Karten kommunizieren. Wird die SIM-Karte als Beginn der Verschlüsselung und Policy-Durchsetzung verstanden, lassen sich auch bislang schwer greifbare Datenflüsse kontrolliert gestalten. Ein solches Umdenken geht mit einem weiteren Schritt in Richtung allumfassender Cyber-Resilienz einher.

Zero Trust – Executive Overview

  • Zero Trust muss über klassische IT hinaus gedacht werden, weil mobile OT- und IoT-Systeme zunehmend kritische Datenflüsse erzeugen.
  • In verteilten Kommunikationsketten entsteht ein Risiko dort, wo Datenverkehr durchgelassen oder nur teilweise abgesichert wird.
  • Zero Trust Everywhere setzt möglichst nahe am Gerät an und nutzt die SIM-Karte als technischen Anker, damit Verschlüsselung frühestmöglich beginnt.
  • Der gesamte Traffic wird über einen Microtunnel Ende-zu-Ende verschlüsselt übertragen, sodass auch Netzbetreiber nur verschlüsselte Daten sehen.
  • Cloud-basiert werden Policies über einen Sicherheitsbroker umgesetzt, während das Transportnetz austauschbar wird.

Weitere Informationen zum Thema:

datensicherheit.de, 27.01.2026
Post-Quantum-Readiness: Akuter Anspruch für die Datensicherheit der Zukunft

datensicherheit.de, 11.02.2025
OT-Sicherheit: Klassischer AirGap-Ansatz ist Illusion

]]>
https://www.datensicherheit.de/zero-trust-absicherung-mobil-iot-ot-systeme/feed 0
Angriff auf die digitale Lebensader: Telekommunikation ist die Königsklasse für die Cyberkriminalität https://www.datensicherheit.de/angriff-digital-lebensader-telekommunikation https://www.datensicherheit.de/angriff-digital-lebensader-telekommunikation#respond Wed, 11 Mar 2026 16:15:30 +0000 https://www.datensicherheit.de/?p=53216 Telekommunikationsunternehmen sind für Cyberkriminelle und staatlich gesteuerte Angreifer besonders attraktiv, da diese nicht nur große Mengen an sensiblen Kundendaten speichern, sondern auch als Einfallstor für weiterführende Angriffe auf andere kritische Infrastrukturen und Organisationen dienen.

Ein Kommentar von unserem Gastautor Michael Veit, Cybersicherheitsexperte bei Sophos

[datensicherheit.de, 11.03.2026] Cyberattacken auf Telekommunikationsinfrastrukturen treffen nicht nur einzelne Anbieter, sondern eine wichtige Lebensader für Wirtschaft, Gesellschaft und Politik. Die dramatischen Auswirkungen wurden kürzlich wieder deutlich, als Cyberkriminelle im Februar 2026 in die Systeme von Odido, dem größten Mobilfunkanbieter der Niederlande, eindrangen und Daten von 6,2 Millionen Kunden stahlen. Die Angreifer erbeuteten Namen, Adressen, Bankverbindungen sowie teilweise sogar Passinformationen, drohten mit der Veröffentlichung der Daten und forderten ein Lösegeld. Odido lehnte die Erpressung ab, informierte umgehend die niederländische Datenschutzbehörde (AP) und startete die Kommunikation mit ihren Kunden. Der Vorfall zeigt die Verwundbarkeit kritischer Infrastrukturen trotz Vorgaben wie NIS2, und welche systemischen Risiken von solchen Angriffen ausgehen.

Michael Veit, Cybersicherheitsexperte bei Sophos

Michael Veit, Cybersicherheitsexperte bei Sophos, Bild: Sophos

Die Experten des Sophos X-Ops Research-Teams warnen: Gestohlene Daten dieser Art sind eine Goldgrube für Kriminelle und können für Identitätsdiebstahl, Betrug, gezielte Spionage oder gesellschaftliche Einflussnahme genutzt werden. Der Odido-Fall zeigt deutlich, dass derartige Cyberangriffe nicht nur auf Daten und Erpressung abzielen, sondern auch auf die Destabilisierung kritischer Infrastrukturen und Gesellschaften.

Sprungbrett Telekommunikation

Telekommunikationsunternehmen sind für Cyberkriminelle und staatlich gesteuerte Angreifer besonders attraktiv, da diese nicht nur große Mengen an sensiblen Kundendaten speichern, sondern auch als Einfallstor für weiterführende Angriffe auf andere kritische Infrastrukturen und Organisationen dienen. Der Zugriff auf Kommunikationsdaten ermöglicht es Angreifern, persönliche Netzwerke zu analysieren, etwa von Politikern, Militärs oder Geschäftsleuten, und gezielt Spionage oder Erpressung zu betreiben. Ein kompromittierter Telekommunikationsanbieter ist zudem der Türöffner für Angriffe auf Banken, Krankenhäuser oder Regierungsnetzwerke, was sie zu einem „Single Point of Failure“ mit systemischen Risiken für alle Industriesektoren macht. Fällt ein solches Netzwerk aus, sind die Adern der Wirtschaft und Gesellschaft betroffen – von Finanztransaktionen bis zu Notfalldiensten.

Gezielte Angriffe auf Telekommunikation

In Krisenzeiten können Angreifer Telekommunikationsnetzwerke gezielt lahmlegen oder manipulieren, um Chaos zu stiften. Beispiele wie der Angriff auf Viasat KA-SAT (Februar 2022), der während der russischen Invasion die Satellitenkommunikation in der Ukraine und Europa unterbrach und sogar die Fernwartung von 5.800 deutschen Windkraftanlagen lahmlegte. Diese Vorfälle verdeutlichen die Kaskadeneffekte, die von Angriffen auf Telekommunikationsnetzwerke ausgehen können. Doch längst nicht alle Angriffe zielen auf sofortige Zerstörung oder Erpressung ab. Gruppen wie Bronze Tiger (China) infiltrieren Telekommunikationsinfrastrukturen, um langfristig Daten zu sammeln – etwa für politische oder wirtschaftliche Spionage. Solche Angriffe bleiben oft jahrelang unentdeckt, untergraben aber das Vertrauen in digitale Kommunikation und können strategische Vorteile für die Angreifer schaffen. Die Bedrohung ist dabei nicht nur technischer Natur, sondern betrifft auch die Glaubwürdigkeit ganzer Gesellschaftssysteme, etwa wenn Bankdaten oder Regierungsinformationen kompromittiert werden.

Überwachung, Erkennung und frühe Reaktion

Angesichts dieser Bedrohungen müssen Telekommunikationsunternehmen und andere Betreiber Kritischer Infrastrukturen proaktiv handeln. Ein zentraler Schritt ist eine risikobasierte Sicherheitsstrategie, die mit einer vollständigen Bestandsaufnahme aller IT-Assets beginnt. Nur wer weiß, welche Daten und Systeme geschützt werden müssen, kann gezielt handeln. Entscheidend aber ist eine umfassende Überwachung, um Angriffe mit Hilfe von KI und menschlichen Security-Experten frühzeitig zu erkennen. Wer mit kontinuierlicher Überwachung eine Bedrohung im Anfangsstadium erkennt, ist in der Lage, einen Angriff und gravierende Schäden für den KRITIS-Anbieter und die gesamte Kommunikationskette abzuwenden.

Weitere Informationen zum Thema:

datensicherheit.de, 18.02.2026
Dragos’ Cybersecurity Report 2026 zur OT-Bedrohung: Ransomware-Angreifer erhöhen operativen Druck auf industrielle Infrastrukturen und KRITIS

datensicherheit.de, 20.04.2025
Kritische Infrastrukturen: Jede zweite Organisation unzureichend vor Cyber-Attacken in der Lieferkette geschützt

]]>
https://www.datensicherheit.de/angriff-digital-lebensader-telekommunikation/feed 0
OpenClaw: Abwägen zwischen Produktivität und Sicherheitsrisiko   https://www.datensicherheit.de/openclaw-produktivitaet-sicherheitsrisiko https://www.datensicherheit.de/openclaw-produktivitaet-sicherheitsrisiko#respond Mon, 09 Mar 2026 14:57:57 +0000 https://www.datensicherheit.de/?p=53131 Die Installation eines solchen KI-Tools auf einem persönlichen Gerät bedeutet die Übergabe von Administratorrechten für Unix-ähnliche Systeme oder vollständige Administratorberechtigungen unter Windows.

Ein Kommentar von unserem Gastautor Sam Curry, VP und CISO in Residence bei Zscaler

[datensicherheit.de, 09.03.2026] OpenClaw ist eines dieser Tools, das wie ein Produktivitäts-Hack aussieht und sich wie ein Betriebsmodell verhält. Sobald es installiert ist, klinkt es sich übergreifend in Anwendungen und Kernfunktionen des Betriebssystems ein, sodass es im Namen eines Users agieren kann. Es ermöglicht dem Benutzer ein Umdenken von der Bedienung von Menüs und einer Abfolge von Arbeitsschritten hin zu gewünschten Absichten. Ein Sprachbefehl, eine Abstraktionsschicht, und plötzlich fühlt sich der Computer weniger wie eine Maschine an, sondern eher wie eine Erweiterung des Menschen. Alle Macht wird an einem Ort gebündelt und die Komplexität verschwindet. Der User erhält eine neue Dimension für die Umsetzung seiner Ziele und Absichten, die zuvor nicht denkbar war. Der Funktionsumfang und die versprochene Produktivitätssteigerung durch OpenClaw haben etwas Magisches an bisher nicht denkbarer Automatisierung an sich.

Sam Curry, VP und CISO in Residence bei Zscaler

Sam Curry, VP und CISO in Residence bei Zscaler, Bild: Zscaler

Openclaw – Die Sicherheit bleibt auf der Strecke

Das Problem dabei: die gleiche Konsolidierung der Fähigkeiten konsolidiert auch die Risiken. Die Installation eines solchen Tools auf einem persönlichen Gerät bedeutet die Übergabe von Administratorrechten für Unix-ähnliche Systeme oder vollständige Administratorberechtigungen unter Windows. Ausgestattet mit diesen Rechten kann OpenClaw umsetzen, was normalerweise Aufwand beim User verursacht: Prompts, Passwörter, Genehmigungen.

Einfach ausgedrückt: Die Sicherheitsvorkehrungen, die den Menschen zum Innehalten zwingen, werden damit unterlaufen. Das Tool ist so konzipiert, dass es für den User entscheiden und in seinem Namen handeln kann.

Dieses Ausmaß an gewährten Berechtigungen auf einem System kann jedoch katastrophale Folgen haben, wenn ein Malware-Akteur sich Zugang zum Tool verschaffen kann. Cyberkriminelle profitieren auf diese Weise von den gleichen Berechtigungen. Sie müssen sich nicht mehr durch verschiedene Kontrollen und Tools kämpfen, ihnen fällt der unbegrenzte Zugriff auf die Abstraktionsebenen gewissermaßen in den Schoß.

Für Unternehmen läuten Alarmglocken

Es wundert nicht, dass die erste Reaktion von Unternehmen zu einem Verbot eines solch leistungsfähigen, aber gefährlichen Tool führt. OpenClaw macht das User-Gerät  zum ultimativen Perimeter. Und die meisten Unternehmen haben bereits Schwierigkeiten, den eigentlichen Perimeter um das Unternehmensnetzwerk sicher zu gestalten. OpenClaw führt zum genauen Gegenteil der Kontrollfunktion auf Basis der geringstmöglichen Zugriffsberechtigungen innerhalb des Computers: maximales Vertrauen, maximaler Zugriff, verpackt auf einer userfreundlichen Oberfläche.

Ein erfahrener Angreifer könnte sich zwar auf herkömmliche Weise Zugang zu einem System verschaffen. Ein solcher Prozess geht in aller Regel jedoch mit einem zeitaufwändigen Durchforsten des Systems voller Hindernisse und potenzieller Fehlerquellen einher, die zur Entdeckung führen können. Ein Toolkit wie OpenClaw verwandelt jedes User-Gerät in eine Tür – durchschreitet sie ein Angreifer, ist die Privatsphäre dahin. Das Tool hat die Macht eines Tors zur  IT-Umgebung, und genau das ist es, was Unternehmen zu Recht fürchten.

Die agentenbasierte KI-Zukunft geht mit Gefahren einher

Darüber hinaus gibt es ein weiteres potenzielles Risiko bei der Verwendung des Tools. Heutzutage führen KI-Agenten nicht nur Aktionen aus, sondern erwerben auch Fähigkeiten. Wenn das Tool dazu gebracht werden kann, Pakete herunterzuladen, auf Repositories zuzugreifen und Abhängigkeiten zu installieren, könnte auf der Ebene jeder einzelnen Maschine eine Lieferketten-Angriffsfläche entstehen. Laut der aktuellen Zscaler Resilienz-Umfrage rechnen fast zwei Drittel (62 Prozent) der deutschen IT-Führungskräfte damit, dass es innerhalb der nächsten zwölf Monate zu einer größeren Störung durch einen Lieferanten oder Drittanbieter kommen wird. OpenClaw hat das Potenzial, diese Störung innerhalb eines Lieferanten-Ökosystems in großem Maßstab zu beschleunigen und damit die Widerstandsfähigkeit eines Unternehmens zu untergraben. Es hat die Fähigkeiten, mehr als nur den einzelnen User zu phishen. Es versetzt den KI-Agenten in die Lage, die Arbeit des Angreifers von der Installation eines Trojaners im Gebäude bis hin zu Administratorrechten zu erledigen und dies über eine userfreundliche Oberfläche.

Unternehmen sollten nicht in Panik geraten, sondern Maßnahmen ergreifen. Diese Tools versprechen ein beispielloses Produktivitätsniveau und IT-Teams müssen sich langfristig betrachtet damit arrangieren. Für die Unternehmens-IT gilt es, der Bedrohung einen Schritt voraus zu sein und Agenten als neue Arbeitskräfte mit eigener Identität zu behandeln, die gegen unberechtigten Zugang abgesichert werden. Dazu ist eine Verschärfung der Installations- und Berechtigungsgrenzen notwendig. Mit einer Zero Trust-basierten Sicherheitsplattform können IT-Teams Verteidigungsmaßnahmen ergreifen, die nicht zu Produktivitätsverlusten für die User führen. Auf diese Weise erhält die IT die Möglichkeit, die Authentifizierung zu modernisieren und nachzuweisen, wer Aktionen durchführt – selbst wenn es sich um KI-Agenten handelt, die anstelle von Menschen agieren.

Weitere Informationen zum Thema:

datensicherheit.de, 25.11.2019
Zero Trust: Warum die Zeit gerade jetzt dafür reif ist

]]>
https://www.datensicherheit.de/openclaw-produktivitaet-sicherheitsrisiko/feed 0