IT – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Mon, 04 May 2026 10:12:06 +0000 de hourly 1 Cyberresilienz: Echtzeiteinblick in das Netzwerk für zentralisierte IT-Teams https://www.datensicherheit.de/cyberresilienz-echtzeiteinblick-netzwerk-zentrale-it-teams Mon, 04 May 2026 22:45:00 +0000 https://www.datensicherheit.de/?p=54288 Thomas Lo Coco warnt anlässlich des „Welt-Passwort-Tages“ am 7. Mai 2026 vor einer eindimensionale IT-Sicherheitsstrategie

[datensicherheit.de, 05.05.2026] Thomas Lo Coco, „Sales Manager Central Europe“ bei Absolute Security, nimmt den „Welt-Passwort-Tag“ am 7. Mai 2026 zum Anlass, für zentralisierte IT-Teams Echtzeiteinblick in das Netzwerk zu empfehlen. „Gute Passwörter sind lang, bestehen aus Groß- und Kleinbuchstaben, Zahlen und Sonderzeichen. So weit, so gut. Aber wie sieht es aus, wenn ein Mitarbeiter das Unternehmen verlässt und die Passwörter – etwa die BitLocker-Keys oder die BIOS-Zugangsdaten – auch gleich mitgehen lässt, wenn Cyberkriminelle diese umgehen oder durch einen erfolgreichen Brute-Force-Angriff die richtige Kombination ermitteln?“ Auch wenn Passwörter eine notwendige erste Verteidigungslinie darstellten, seien dies nur einige Beispiele dafür, wie eine eindimensionale IT-Sicherheitsstrategie leicht scheitern könne – „eine einzige Schutzebene reicht nicht aus, um den Risiken in der heutigen feindlichen digitalen Umgebung zu begegnen“.

absolute-security-thomas-lo-coco

Foto: Absolute Security

Thomas Lo Coco: Endpoint-Sicherheitssoftware funktioniert in 20 Prozent der Fälle nicht effektiv!

Herkömmliche IT-Sicherheitsmaßnahmen reichen nicht mehr aus

Deshalb brauchten Unternehmen eine robuste Strategie zur Cyberresilienz, welche die Endpunktsicherheit stärkt und es ihnen ermöglicht, zeitnah zu reagieren. Herkömmliche, auf geschützten Büroverbindungen basierende IT-Sicherheitsmaßnahmen reichten nicht mehr aus.

  • Lo Coco warnt: „Endpoint-Sicherheitssoftware funktioniert in 20 Prozent der Fälle nicht effektiv, so dass Geräte an 76 Tagen im Jahr nicht vollständig geschützt sind und die Sicherheitsrichtlinien nicht einhalten.“

Angesichts der zahlreichen von Remote-Mitarbeitern genutzten Geräte sei die Gewährleistung der Cyberresilienz entscheidend, um Schäden und Ausfallzeiten zu minimieren. Störungen könnten den Betrieb empfindlich treffen, die Produktivität beeinträchtigen und zu erheblichen finanziellen Verlusten führen.

Zentralisierte IT-Teams müssen bei verdächtigen Aktivitäten entschlossen handeln

Eine umfassende Verteidigungsstrategie müsse Maßnahmen für eine sofortige Reaktion definieren, präventiv Schwachstellen schließen und Protokolle zur schnellen Wiederherstellung der IT-Funktionalität umfassen. „Eine aktualisierte Software, die Überwachung aller Geräte und eine gewährleistete Netzwerktransparenz sind zentrale Maßnahmen, um Risiken zu mindern“, so Lo Coco.

  • Der Schutz des Netzwerks allein reiche nicht aus, „wenn Endgeräte aufgrund veralteter Sicherheitsmaßnahmen anfällig bleiben oder Passwörter wirkungslos geworden sind“. Zentralisierte IT-Teams benötigten einen Echtzeiteinblick in das Netzwerk und müssten bei verdächtigen Aktivitäten entschlossen handeln.

Lo Coco erläutert: „Wird ein ungewöhnliches Verhalten festgestellt, sollten sie kompromittierte Geräte sperren oder herunterfahren, um den Vorfall einzudämmen, bevor er sich ausbreitet. Darüber hinaus bietet die Isolation von Geräten, die von unbekannten Standorten aus genutzt werden, eine zusätzliche Schutzebene und ermöglicht ein schnelles und effizientes Vorfallmanagement.“

Proaktiver Ansatz zur schnellen Wiederherstellung nach IT-Sicherheitsvorfällen

Durch einen proaktiven Ansatz zur Cyberresilienz könnten Unternehmen Ausfallzeiten reduzieren und eine schnelle Wiederherstellung nach IT-Sicherheitsvorfällen gewährleisten, „wodurch sensible Daten geschützt sind und der Betrieb aufrechterhalten bleibt“.

  • Ein sicherer und reibungsloser Betriebsablauf hänge – neben einer funktionierenden „Passworthygiene“ – von einer starken Endpunktsicherheit, Echtzeitüberwachung und der Konzentration auf einen aktuellen Status der Systeme ab.

Abschließend gibt Lo Coco zu bedenken: „Die sichersten Passwörter schützen nicht, wenn Sie in die falschen Hände geraten oder Insider sie missbrauchen. Diese Tatsache sollte man sich im Sinne einer gut funktionierenden Cyberresilienz bewusst machen! Denn es ist egal, wie hoch die Mauer ist, sobald jemand den Schlüssel zur Hintertür hat.“

Weitere Informationen zum Thema:

ABSOLUTE
We’re on a mission to help organizations strengthen cyber resiliency

LinkedIn
Thomas Lo Coco – Country Manager DACH & ROE / Absolute Security

datensicherheit.de, 01.02.2026
Ändere Dein Passwort Tag 2026: Least Privilege und Zugangskontrolle gilt es flankierend zu beachten / Darren Guccione warnt, dass ein einziges kompromittiertes Passwort Cyberkriminellen Zugang und Zugriff verschaffen kann

datensicherheit.de, 14.12.2025
Passwort-Manager: BSI-Untersuchung identifiziert Verbesserungsbedarf / Aufgrund der Sensibilität der in Passwort-Managern gespeicherten Daten bestehen hohe Anforderungen an deren IT-Sicherheit – das BSI hat diese Produktkategorie gemeinsam mit dem FZI Forschungszentrum Informatik untersucht

datensicherheit.de, 07.11.2025
Schwache Passwortregeln für Websites prägen Unsicherheitskultur / Eine neue Studie von NordPass zeigt warnend auf, dass selbst bei den am meisten besuchten Websites der Welt viel zu nachlässig mit schwachen Passwörtern umgegangen wird

datensicherheit.de, 04.05.2025
Chester Wisniewski: Weltpassworttag sollte überflüssig werden / Als nächster Schritt werden phishing-resistente MFA wie „FIDO2“ und Passkeys empfohlen

datensicherheit.de, 02.05.2025
World Password Day sollte überflüssig werden – in einer von Passwörtern befreiten Zukunft / Menschliches Verhalten bei der Auswahl der Passwörter kann mit Hilfe von KI und Rechenleistung ausgenutzt werden

]]>
Sicherheitsmanagement der Digitalen Angriffsfläche: Ganzheitliche Transparenz und kontinuierliche Kontrolle https://www.datensicherheit.de/sicherheitsmanagement-digital-angriffsflaeche-transparenz-kontrolle Wed, 29 Apr 2026 22:15:00 +0000 https://www.datensicherheit.de/?p=54186 Die Digitale Angriffsfläche von Unternehmen wächst ständig  – befeuert durch „Cloud“-Transformation, Remote-Arbeit, vernetzte Lieferketten und die zunehmende Nutzung externer Dienste

[datensicherheit.de, 30.04.2026] Die digitale Bedrohungslage entwickelt sich offenbar mit hoher Dynamik – Cyberangriffe erfolgen zunehmend automatisiert und datengetrieben. Manchmal genügt genüge ein einziges System wie eine vergessene Subdomain oder ein falsch konfigurierter „Cloud“-Speicher, Cyberangreifern ein Einfallstor in die IT-Infrastruktur zu öffnen. Automatisierte Scans, auf Künstliche Intelligenz (KI) gestützte Auswertung und organisierte Angriffskampagnen sorgten dafür, dass potenzielle Schwachstellen schneller identifiziert und ausgenutzt werden, warnt Harald Röder, „Senior Solutions Engineer“ bei Censys, in seiner aktuellen Stellungnahme. Gleichzeitig wachse die Digitale Angriffsfläche von Unternehmen stetig – befeuert durch „Cloud“-Transformation, Remote-Arbeit, vernetzte Lieferketten und die zunehmende Nutzung externer Dienste.

censys-harad-roeder

Foto: Censys

Harald Röder: Wer Anomalien, Bedrohungen und Schwachstellen frühzeitig aufdeckt, kann Sicherheitslücken schließen und die Zeitspanne verkürzen, in der sich Angreifer unbemerkt im Netzwerk aufhalten

Extern erreichbare Online-Assets sind auch Teil der Digitalen Angriffsfläche

Ein rein reaktiver Cybersecurity-Ansatz reiche daher schlicht nicht mehr aus. Vielmehr sei präventive Cybersecurity eine wichtige Strategie, um Risiken frühzeitig zu erkennen und zu reduzieren.

  • Röder führt aus: „Im Kern geht es darum, Transparenz über die eigene Angriffsfläche herzustellen und diese kontinuierlich zu überwachen. Viele Unternehmen unterschätzen, wie fragmentiert ihre IT-Landschaft wirklich ist.“

Neben bekannten, intern verwalteten Systemen existierten häufig zahlreiche extern erreichbare Online-Assets wie vergessene Subdomains, nicht dokumentierte „Cloud“-Instanzen oder sogenannte Schatten-IT. Genau diese Blinden Flecken seien oft unzureichend abgesichert und würden für Cyberangriffe somit gezielt ausgenutzt.

Ganzheitliche Transparenz, um in dynamischen IT-Umgebungen Veränderungen zeitnah zu erkennen

Ein zentraler Bestandteil präventiver Cybersecurity sei daher die vollständige Sicht auf alle digitalen „Assets“ – sowohl intern als auch extern. „Attack Surface Management“ (ASM) setze genau hier an und identifiziere kontinuierlich alle über das Internet erreichbaren Systeme, Dienste und Schnittstellen eines Unternehmens aus der Perspektive eines externen Angreifers. „Dabei werden neben bekannten auch bislang unentdeckte ,Assets’ erfasst.“

  • Ein weiterer besonders wichtiger Faktor sei eine fortlaufende Überwachung der Digitalen Angriffsfläche. „Neue Systeme werden bereitgestellt, Konfigurationen geändert, Dienste aktualisiert, und das alles oft in sehr kurzen Zyklen.“

In diesen dynamischen IT-Umgebungen sei es wichtig, Veränderungen zeitnah zu erkennen. Automatische Scans und eine kontextbasierte Auswertung ermöglichten es, neue Schwachstellen oder Fehlkonfigurationen frühzeitig zu identifizieren.

Belastbares Lagebild mittels Kombination aus „Asset-Discovery“ und Risikobewertung

Röder erläutert: „Durch die ganzheitliche Transparenz über die Angriffsfläche lassen sich Risiken systematisch priorisieren. Denn nicht jede Schwachstelle stellt auch automatisch ein kritisches Sicherheitsrisiko dar.“

  • Entscheidend sei der Kontext: „Ist ein System öffentlich erreichbar? Welche Daten werden verarbeitet? Gibt es bekannte Exploits?“

Durch die Kombination aus „Asset-Discovery“ und Risikobewertung entstehe ein belastbares Lagebild als Grundlage für fundierte Sicherheitsentscheidungen.

„Internet Intelligence“: Erweiterung des Blickfelds auf Digitale Angriffsfläche

Über die eigene Infrastruktur hinaus biete „Internet Intelligence“ eine entscheidende Rolle, indem frei zugänglichen Datenquellen aus dem Internet systematisch ausgewertet würden. Dies liefere wertvolle Hinweise auf potenzielle Bedrohungen und frühzeitige Indikatoren, ob und in welcher Form Unternehmen potenziell von aktuellen Bedrohungen betroffen sein könnten.

  • „Mehrwert entsteht hierbei durch Kontextualisierung. Denn durch die Verknüpfung mit der eigenen digitalen Angriffsfläche wird sichtbar, ob konkreter Handlungsbedarf besteht“, so Röder.

„Internet Intelligence“ erweitere den präventiven Sicherheitsansatz um eine externe Perspektive. „Unternehmen gewinnen ein besseres Verständnis dafür, wie sie von außen wahrgenommen werden und wo sich potenzielle Angriffspunkte entwickeln.“ In Kombination mit der kontinuierlichen Analyse der eigenen Angriffsfläche entstehe so ein umfassenderes Lagebild, welches eine frühzeitige und fundierte Risikobewertung ermögliche.

„Threat Hunting“ als proaktiver Ansatz zur Aufdeckung systematischer Schwächen in der IT-Sicherheit

Viele Sicherheitsmaßnahmen seien darauf ausgelegt, bekannte Bedrohungen zu identifizieren. „Threat Hunting“ gehe indes einen Schritt weiter und beschreibe die proaktive Suche nach bislang unentdeckten Angriffen oder Anomalien innerhalb der eigenen Umgebung. In großen Datenmengen ließen sich so auffällige Verhaltensmuster aufdecken. Gleichzeitig werde gezielt nach Hinweisen auf Angriffe gesucht – eben „bevor es dazu kommt“. „Threat Hunting“ helfe vor allem dabei, Anomalien zu identifizieren, welche auf den ersten Blick nicht erkannt werden könnten.

  • „Wer Anomalien, Bedrohungen und Schwachstellen frühzeitig aufdeckt, kann Sicherheitslücken schließen und die Zeitspanne verkürzen, in der sich Angreifer unbemerkt im Netzwerk aufhalten“, unterstreicht Röder. Außerdem ließen sich so nicht nur akute Angriffe, sondern auch systematische Schwächen in der IT-Sicherheit erkennen.

Erfolgreiches „Threat Hunting“ erfordere dabei eine Kombination aus geeigneten „Tools“ und erfahrenem Personal. Automatisierte Systeme könnten große Datenmengen effizient durchsuchen – die Interpretation aber der Muster und Kontexte bleibe eine Stärke der Menschen. Die Hinweise durch automatisierte Analysen sollten daher durch erfahrene Analysten mit Know-how und Expertise bewertet werden.

Fazit: Präventive Cybersecurity als fortlaufenden Prozess verstehen und umsetzen

Röder gibt abschließend zu bedenken: „Wer die eigenen Schwachstellen nicht kennt, kann sie auch nicht schützen. Präventive Cybersecurity als fortlaufender Prozess schließt genau diese Lücke.“

  • Mit der Kombination aus ganzheitlicher Transparenz, kontinuierlicher Analyse, externer Informationsgewinnung und aktivem „Threat Hunting“ könnten Unternehmen ihre Sicherheitslage nachhaltig verbessern.

Durch die zunehmende Komplexität und Dynamik der Bedrohungslandschaft sei dieser Ansatz sinnvoll und notwendig, um Risiken wirksam zu beherrschen und die eigene Resilienz zu stärken.

Weitere Informationen zum Thema:

censys
About Censys: Built for Practitioners and Researchers by Practitioners and Researchers

LinkedIn
Harald Röder – Censys, Senior Sales Engineer D-A-CH and Central Europe

datensicherheit.de, 23.04.2026
Mythos verändert alles: Gesamte Angriffsfläche der Unternehmen im Visier / „Mythos“ von Anthropic markiert laut Jay Kaplan einen „echten Wendepunkt in der Bedrohungslandschaft“

datensicherheit.de, 06.03.2026
Hybride Kriegsführung im Digitalzeitalter: KI-Systeme und Lieferketten als Teil der strategischen Angriffsfläche / Ismael Valenzuela kommentiert die zunehmende Bedeutung hybrider Kriegsführung, KI-gestützter Systeme und Lieferketten im Kontext geopolitischer Eskalationen

datensicherheit.de, 29.05.2025
Attack Surface Management unverzichtbar: ASM hilft, Online-Angriffsflächen zu erkennen, zu bewerten und zu minimieren / „Blinde Flecken“ in der eigenen IT-Infrastruktur geraten immer stärker ins Visier Cyberkrimineller – genau dort setzen ASM-Lösungen an

]]>
Studie von Red Hat: Deutsche Unternehmen abhängig von globalen KI-Anbietern​ https://www.datensicherheit.de/studie-red-hat-deutschland-unternehmen-abhaengigkeit-global-ki-anbieter Sun, 26 Apr 2026 22:59:00 +0000 https://www.datensicherheit.de/?p=54136 Nur 57% der deutschen Teilnehmer verfügen über eine definierte Exit-Strategie, falls ihr primärer KI-Anbieter den Zugang zu seinen Diensten plötzlich einschränkt

[datensicherheit.de, 27.04.2026] Red Hat hat am 17. April 2026 eine neue Studie, von Censuswide im Zeitraum vom 20. bis 25. März 2026 zum Thema „souveräne Künstliche Intelligenz (KI)“ durchgeführt, veröffentlicht. Befragt wurden demnach jeweils 100 IT-Entscheider aus Deutschland, Frankreich, Großbritannien, Italien und den Niederlanden. Deutlich werde dabei eine Lücke zwischen den vorhandenen Strategien und den tatsächlichen Fähigkeiten, den Geschäftsbetrieb im Ernstfall aufrechtzuerhalten: Nur 57 Prozent der deutschen Teilnehmer gäben an, über eine definierte Exit-Strategie zu verfügen, falls ihr primärer KI-Anbieter den Zugang zu seinen Diensten plötzlich einschränkt. Gleichzeitig erwarten 37 Prozent dieser Unternehmen, dass ein Wechsel moderate bis erhebliche Auswirkungen auf ihre Geschäftskontinuität hätte. Die Ergebnisse dieser Studie deuteten aber auch darauf hin, dass die meisten Unternehmen die Notwendigkeit echter KI-Souveränität erkannt hätten und sowohl die Kontrolle über Daten und Infrastruktur als auch die Verwaltung von externen Anbietern inzwischen als operative Priorität ansähen.

KI-„Governance“ hinkt noch hinterher​

Ein deutlicher Nachholbedarf bestehe in Deutschland auch im Bereich „Governance“: Nur 30 Prozent der deutschen Befragten gäben an, über entsprechend ausgereifte Strukturen für ihre „Agentic AI“-Lösungen zu verfügen.

  • 29 Prozent berichteten von vorhandenen, aber lückenhaften Regelwerken und weitere 27 Prozent gäben an, dass ihre „Governance“ lediglich die Grundlagen abdecke.

Länderübergreifend verfügten 64 Prozent der Unternehmen über zumindest teilweise oder umfassende Strukturen. Die Gesamtheit der Antworten aller Teilnehmer zeige indes deutlich, dass die „Governance“-Reife mit der schnellen Verbreitung von „Agentic AI“ noch nicht Schritt halten könne.

Im Fokus: KI-Souveränität und „Open Source“

Mit der zunehmenden Integration von KI in zentrale Geschäftsprozesse steige auch die Bedeutung der Transparenz weiter an. So gäben ganze 51 Prozent der deutschen Unternehmen an, vollständig nachvollziehen zu können, wo ihre Daten gespeichert, verarbeitet und potenziell zugänglich sind.

  • Gleichzeitig räumten damit aber auch 46 Prozent ein, keinen vollständigen Überblick zu haben, lediglich bei drei Prozent bestünden erhebliche Lücken. Die Zahl der deutschen Entscheider, die sich eine vollständige oder zumindest teilweise Transparenz zuschreiben, liege damit bei 97 Prozent.

Mit diesem starken Wert rangiere Deutschland im direkten Vergleich an erster Stelle vor anderen europäischen Ländern, etwa den Niederlanden oder Italien mit jeweils 90 Prozent.

Mehr Kontrolle darüber, wie KI entwickelt wird und wo sie läuft

Um die weiterhin vorhandenen Lücken in Sachen Transparenz und Kontrolle zu schließen, sähen 69 Prozent der IT-Entscheidungsträger in „Open Source“ den entscheidenden Hebel.

  • Dieser Ansatz bietet ihrer Meinung nach mehr Kontrolle darüber, wie KI entwickelt wird und wo sie läuft – wichtige Voraussetzungen dafür, Abhängigkeiten zu vermeiden und die Souveränität zu stärken.

Für die kommenden drei Jahre erwarteten die Befragten die größten Beiträge von „Open Source“ zu einem wachsenden Vertrauen in KI-Lösungen durch mehr Kontrolle über die Entwicklung und den Betrieb von KI (69%), eine größere Anpassbarkeit an geschäftliche und regulatorische Anforderungen (68%) sowie mehr Transparenz und eine bessere Prüfbarkeit (68%).

Deutsche Unternehmen offen für politisch gesetzte Standards für vertrauenswürdige, souveräne KI

Deutsche Unternehmen zeigten sich zudem offen für politisch gesetzte Standards für vertrauenswürdige, souveräne KI: 72 Prozent der Befragten sprächen sich dafür aus, dass der Gesetzgeber „Open Source“-Prinzipien wie Transparenz, Prüfbarkeit und entsprechende Lizenzmodelle vorgeben sollte, um Unternehmen beim Erreichen von KI-Souveränität zu unterstützen.

Zentrale Erkenntnisse aus der aktuellen KI-Umfrage von Red Hat auf einen Blick:

  • Nur 57 Prozent der deutschen Unternehmen hätten eine Exit-Strategie, falls ihr primärer KI-Anbieter den Zugang einschränkt. Gleichzeitig sagten 37 Prozent dieser Unternehmen, dass ein Wechsel moderate bis erhebliche Auswirkungen auf die Geschäftskontinuität hätte.
  • 46 Prozent hätten nur teilweise Einblick, wo ihre Daten gespeichert, verarbeitet und potenziell zugänglich sind.
  • Nur 30 Prozent verfügten über eine ausgeprägte „Governance“ im Bereich „Agentic AI“.
  • 72 Prozent sprächen sich dafür aus, dass die Politik „Open Source“-Prinzipien zur Unterstützung der KI-Souveränität verpflichtend verankert.
red-hat-gregor-von-jagow

Foto: Red Hat

Gregor von Jagow: KI ist in den Unternehmen angekommen, aber Kontrolle und Steuerbarkeit halten nicht im gleichen Tempo Schritt

KI-Souveränität: Fähigkeit, sie kontrolliert zu orchestrieren und auch zu wechseln

Gregor von Jagow, „Senior Director & Country Manager Deutschland“ bei Red Hat kommentiert: „Die Ergebnisse zeigen eine deutliche Kluft. KI ist in den Unternehmen angekommen, aber Kontrolle und Steuerbarkeit halten nicht im gleichen Tempo Schritt.“

  • Hier werde „Open Source“ entscheidend, weil offene Ansätze die Unternehmen dazu befähigten, Abhängigkeiten zu reduzieren und gleichzeitig die Flexibilität zu behalten, unterschiedliche KI-Modelle und Infrastrukturen zu kombinieren.

KI-Souveränität entsteht nicht durch den Einsatz einzelner Technologien, sondern durch die Fähigkeit, sie kontrolliert zu orchestrieren und im Zweifel auch zu wechseln!“, so von Jagow.

red-hat-hans-roth

Foto: Red Hat

Hans Roth unterstreicht die Bedeutung regulatorischer Rahmenbedingungen, welche Transparenz und Prüfbarkeit fest in KI-Systemen verankern

KI muss so einsetzbar sein, dass sie Anforderungen an Souveränität, Sicherheit und Regulierung erfüllt

Hans Roth, „Senior Vice President & General Manager EMEA“, bei Red Hat, ergänzt: „In der gesamten EMEA-Region haben sich die Diskussionen auf Vorstandsebene weiterentwickelt. Statt um erste Experimente geht es heute darum, wie sich KI so einsetzen lässt, dass sie Anforderungen an Souveränität, Sicherheit und Regulierung erfüllt.“

  • Die Ergebnisse ihrer Studie zeigten hierbei eine klare Unterstützung für „Open Source“-Prinzipien sowie für eindeutige regulatorische Rahmenbedingungen, welche Transparenz und Prüfbarkeit fest in KI-Systemen verankerten.

Roth gibt abschließend zu bedenken: „Diese Antworten machen auch deutlich, dass Unternehmen keine weiteren geschlossenen Einheitslösungen suchen, sondern die Freiheit, unterschiedliche Modelle, Beschleuniger und ,Cloud’-Umgebungen zu kombinieren – und dabei die Kontrolle zu behalten.“

Weitere Informationen zum Thema:

Red Hat
Unser Unternehmen: Entwicklung verbesserter Technologie – nach dem Open Source-Prinzip

Red Hat
Gregor von Jagow – Senior Director und Country Manager Germany bei Red Hat

Red Hat
Hans Roth – Senior vice president and general manager, EMEA, Red Hat

Red Hat, 02.03.2026
Red Hat and Telenor AI Factory Bring Scale, Sovereignty and Control to Production AI / Telenor AI Factory, built on Red Hat OpenShift AI, addresses data residency demands while powering large-scale AI model training and inference

Red Hat, 06.11.2025
Red Hat Introduces Confirmed Sovereign Support for European Union / Dedicated, EU-citizen-driven support delivers localized operational control and resilience for digital sovereignty

datensicherheit.de, 19.04.2026
Produktive Erfolge bleiben häufig aus: 95 Prozent der KI-Projekte scheitern / DXC Technology benennt vier Bedingungen für Unternehmen, um KI-Projekte zum Erfolg zu führen

datensicherheit.de, 15.04.2026
Januskopf KI: Förderer und Zerstörer der IT-Sicherheit / „Assume a breach“ – d.h. grundsätzlich vom Eintritt eines schädlichen Vorfalls auszugehen – ist eine nützliche Denkweise in der IT-Sicherheit zur Prävention, Früherkennung und Reaktion

datensicherheit.de, 23.02.2026
Regionale Datensouveränität im Zeitalter der KI: Spannungsfeld zwischen Freiheit und Regulierung mit maximalem Mehrwert / Während sich Künstliche Intelligenz rasant beschleunigt und Datenvolumina exponentiell wachsen, müssen Unternehmen in nie dagewesener Geschwindigkeit innovieren im Rahmenzunehmend strenger regulatorischer, geopolitischer und Souveränitäts-bezogener Rahmenbedingungen. 

]]>
Getrenntes IT- und OT-Monitoring größter operativer Blinder Fleck https://www.datensicherheit.de/trennung-it-ot-monitoring-groesster-operativer-blinder-fleck Thu, 23 Apr 2026 22:17:00 +0000 https://www.datensicherheit.de/?p=54070 IT- und OT-Umgebungen sind technisch längst miteinander vernetzt – bleiben im Monitoring aber häufig noch strikt voneinander getrennt

[datensicherheit.de, 24.04.2026] Daniel Sukowski, „Global Business Development Industry & OT“ bei Paessler, beschreibt in seiner aktuellen Stellungnahme die Problematik der Wechselwirkung zwischen IT und OT: „Die Anlagen in der Produktionshalle zeigen Störungen, doch im IT-Monitoring ist alles im Grünen Bereich. Netzwerk, Server, Bandbreite – alles in Ordnung und keine Auffälligkeiten, und trotzdem stockt die Produktion. Was auf den ersten Blick nicht zusammenpasst, ist ein strukturelles Defizit. Denn zu oft endet das Monitoring noch immer an der Grenze zwischen IT und OT, ein zentrales Problem moderner Industrie-Umgebungen.“ IT- und OT-Umgebungen seien indes technisch längst miteinander vernetzt – blieben im Monitoring aber häufig noch strikt voneinander getrennt. Dies führe zu gefährlichen Blinden Flecken: „Störungen, Sicherheitsrisiken oder Ineffizienzen entstehen oft genau an den Schnittstellen zwischen IT und OT. Und wer diese Zusammenhänge nicht sichtbar machen kann, reagiert zu spät oder gar nicht.“

paessler-daniel-sukowski

Foto: Paessler GmbH

Daniel Sukowski: Eine erfolgreiche Konvergenz erfordert jedoch auch organisatorische Veränderungen!

Industrie 4.0, smarte Fertigung und Verbreitung von IoT haben IT und OT untrennbar miteinander vernetzt

Sukowski führt aus: „Lange Zeit war die Trennung zwischen IT und OT sinnvoll, als es noch zwei vollständig unterschiedliche Infrastrukturen waren. Doch durch Industrie 4.0, smarte Fertigung und die Verbreitung von IoT sind IT und OT untrennbar miteinander vernetzt.“

  • Die Konvergenz von IT und OT biete große Vorteile – viele Unternehmen seien auf die Vernetzung der beiden Welten allerdings noch gar nicht richtig vorbereitet.

Dabei seien die Herausforderungen oft nicht nur technisch: „IT-Teams sind auf Veränderung, Updates und Sicherheit ausgerichtet, während OT-Teams auf Stabilität und Verlässlichkeit setzen.“

Anders als bei der IT basieren OT-Systeme oftmals auf älteren Anlagen

Dies geschehe oft mit seit Jahrzehnten im Einsatz befindlichen Systemen, welche solche Prozesse steuerten, bei denen ein Fehler Abstürze, Sicherheitsvorfälle, Produktionsstörungen und sogar Umweltschäden bedeuten könne.

  • Diese gegensätzlichen Denkweisen führten oft dazu, dass Zusammenarbeit ausbleibe und kritische Zusammenhänge unsichtbar blieben.

„Genau hier entstehen Risiken – von ineffizienten Prozessen bis hin zu Sicherheitslücken mit potenziell erheblichen Folgen. Hinzu kommen unterschiedliche Protokolle und Technologien, die eine gemeinsame Sicht zusätzlich erschweren.“

Getrennte Monitoring-Infrastrukturen für IT und OT lassen systematische Schwachstellen entstehen

Sukowski warnt: „Durch getrennte Monitoring-Infrastrukturen für IT und OT entstehen systematische Schwachstellen, die oft erst sichtbar werden, wenn es bereits zu spät ist!“

  • Er erläutert: „Nehmen Sie das anfangs geschilderte Beispiel: Das IT-Team kann nichts Auffälliges erkennen, weil das Monitoring-Tool für das IT-Netzwerk keine industriellen Protokolle abdeckt. Das OT-Team dagegen sieht Maschinenfehler und untersucht physische Probleme.“

Die Folge seien isolierte Fehlersuchen, verzögerte Reaktionen und eine fehlende ganzheitliche Transparenz. Gleichzeitig steige das Sicherheitsrisiko: „Angriffe beginnen häufig in der IT – etwa durch Phishing oder gestohlene Zugangsdaten – und bewegen sich zunehmend von der IT in die OT.“

Integrierter Monitoring-Ansatz zur gemeinsamen IT- und OT-Betrachtung

Ohne einheitliches Monitoring blieben solche Angriffe aber lange unentdeckt und würden zum geschäftskritischen Risiko mit direkten Auswirkungen auf Betrieb, Sicherheit und Kosten.

  • Die Lösung liege in einem integrierten Monitoring-Ansatz, welcher IT und OT gemeinsam betrachtet. „Dafür braucht es Tools, die sowohl klassische IT-Protokolle wie SNMP, WMI oder HTTP als auch industrielle Protokolle unterstützt, etwa OPC UA, MQTT oder Modbus.“

Außerdem sollte die IT/OT-Konvergenz nicht als reines Technikprojekt angesehen werden. Ein Fehler wäre es, lediglich eine Plattform auszuwählen und einige Sensoren zu installieren. „Stattdessen sollten auch die Arbeitsweise der Teams, die Entscheidungsfindung und das Risikomanagement verändert werden!“, rät Sukowski.

Empfehlung: „Best Practices“ für gelungene IT/OT-Konvergenz beim Monitoring

Eine erfolgreiche IT/OT-Konvergenz beginne damit, kritische Abhängigkeiten zu identifizieren: „Wo wirkt sich die IT-Infrastruktur direkt auf den OT-Betrieb aus? Wo verursachen OT-Probleme Schwierigkeiten, die von IT-Teams gelöst werden müssen?“

  • Sukowski legt nahe: „Erfassen Sie diese Zusammenhänge zunächst und richten Sie dann ein Monitoring ein, das diese Abhängigkeiten für alle sichtbar macht, die sie sehen müssen!“

Auch rollenbasierte Dashboards nähmen dabei eine wichtige Rolle ein und seien relevanter, als vielen Unternehmen bewusst sei. OT-Techniker müssten nicht jeden Netzwerk-Switch sehen, und IT-Administratoren benötigten keine SPS-Leistungsdaten in Echtzeit.

Ganzheitliches Monitoring für IT und OT überwindet systematische Risiken

„Aber beide Teams müssen die Schnittstellen sehen, an denen ihre Bereiche interagieren und an denen Probleme in einem Bereich Kettenreaktionen im anderen auslösen!“ Der entscheidende Punkt laut Sukowski: „Sie müssen nicht alles auf einmal lösen: Beginnen Sie Schritt für Schritt mit einer Produktionslinie, einem kritischen System oder einem Bereich mit hoher Relevanz!“

  • Anhand dieses Beispiels gelte es dann, den Wert von ganzheitlicher Transparenz zu beweisen und die Verbesserungen der Reaktionszeit bei Vorfällen zu messen. „Zeigen Sie, was sich ändert, wenn IT- und OT-Teams das Gesamtbild sehen können, und erweitern Sie dann das System!“

Unternehmen mit getrennter Infrastruktur für das Monitoring von IT- und OT-Umgebungen seien mit systematischen Risiken konfrontiert – von Sicherheitslücken über lange Reaktionszeiten bis zu verpassten Optimierungsmöglichkeiten. Moderne Monitoring-Tools könnten beide Welten miteinander verbinden und unterstützen sowohl IT- als auch industrielle Protokolle. „Eine erfolgreiche Konvergenz erfordert jedoch auch organisatorische Veränderungen!“, gibt Sukowski abschließend zu bedenken.

Weitere Informationen zum Thema:

PAESSLER PRTG
Wir sind Paessler. Wir bauen Monitoring-Lösungen für Systeme, die nicht ausfallen dürfen. / Paessler definiert die Art und Weise, wie moderne Unternehmen ihre IT-, OT- und Cloud-Umgebungen überwachen und verwalten, neu und hilft Teams, klar zu sehen, schneller zu handeln und ihre kritischsten Systeme am Laufen zu halten – ohne Komplexität.

LinkedIn
Daniel Sukowski – Global Business Development Industry & OT at Paessler GmbH

datensicherheit.de, 24.03.2026
OT/ICS Cybervorfälle in industriellen Netzwerken einen neuen Höchststand / IT-Schwachstellen als primäres Einfallstor für OT-Angriffe / 96 Prozent der OT-Sicherheitsvorfälle sind auf Kompromittierungen in der klassischen IT zurückzuführen

datensicherheit.de, 12.03.2026
Zero Trust: Absicherung mobiler IoT- und OT-Systeme / Gerade in diesen Bereichen ist der Datenverkehr bislang nur schwer oder nur mit großem Aufwand zu kontrollieren. Zudem spielt die Mobilität in vielen Einsatzbereichen eine Rolle

datensicherheit.de, 12.09.2025
OT-Monitoring: Die fünf größten Herausforderungen und Lösungsansätze / Daniel Sukowski rät zu ganzheitlichem Monitoring für OT-Umgebungen, um potenzielle Probleme im Netzwerk proaktiv und in Echtzeit zu erkennen und beheben – bevor es zu Ausfällen kommt

]]>
Januskopf KI: Förderer und Zerstörer der IT-Sicherheit https://www.datensicherheit.de/januskopf-ki-foederer-zerstoerer-it-sicherheit Tue, 14 Apr 2026 22:25:00 +0000 https://www.datensicherheit.de/?p=53911 „Assume a breach“ – d.h. grundsätzlich vom Eintritt eines schädlichen Vorfalls auszugehen – ist eine nützliche Denkweise in der IT-Sicherheit zur Prävention, Früherkennung und Reaktion

[datensicherheit.de, 15.04.2026] Über Jahre war die Einstellung „assume a breach“ – also „von einem Sicherheitsvorfall auszugehen“ – bereits eine nützliche Denkweise in der IT-Sicherheit, um eine bessere Erkennung und Reaktion zu fördern. Mit Initiativen wie „Project Glasswing“ von Anthropic sei diese Annahme nicht mehr nur theoretisch, sondern nunmehr Ausgangspunkt jeglicher Sicherheitsüberlegungen im Zeitalter Künstlicher Intelligenz (KI). In der vergangenen Woche hätten Meldungen rund um „Anthropic Mythos“ weltweit für Hektik in den IT-Sicherheitsabteilungen gesorgt, so Benny Lakunishok, Mitbegründer und CEO von Zero Networks, in seiner aktuellen Stellungnahme.

zero-networks-benny-lakunishok

Foto: Zero Networks

Benny Lakunishok erörtert den Wandel von Prävention als Perfektion hin zu Prävention als Eindämmung

Bisherige IT-Sicherheitsstrategie auf Erkennung und Reaktion konzentriert

Lakunishok unterstreicht: „Wir treten in eine Welt ein, in der KI sehr viele Schwachstellen aufdecken, miteinander verknüpfen und funktionierende Exploits generieren kann – schneller, als jedes menschliche Team reagieren kann. Dies bedeutet nicht nur etwas schneller, sondern um ein Vielfaches schneller.“

  • Dies verändere die Natur des Problems und zwinge zu einer neuen Frage, welche sich jede Führungskraft stellen werde: „Wenn Angriffe schneller, kostengünstiger und automatisierter sind als je zuvor, was hält dann Unternehmen im Ernstfall tatsächlich am Laufen?“

In den letzten zehn Jahren habe sich die IT-Sicherheitsstrategie auf Erkennung und Reaktion konzentriert – die Bedrohung finden, untersuchen, eindämmen und das betroffene System wiederherstellen. „Dieses Modell funktionierte, solange Angriffe mit menschlicher Geschwindigkeit abliefen“, so Lakunishok.

Strukturelle Lücke der IT-Sicherheit

KI verändere nun diese Gleichung: „Wenn Angriffe autonom generiert und ausgeführt werden können, gibt es keine Garantie für ein frühes Signal und kein verlässliches Zeitfenster für Untersuchungen!“

  • Ebenso gebe es keinen Grund mehr zu der Annahme, dass auf vergangenes Verhalten trainiert Erkennungssysteme etwas völlig Neues erkennen würden. Dies sei keine Lücke in den „Tools“, sondern eine strukturelle Lücke.

„Ab einem bestimmten Punkt müssen sich Sicherheitsverantwortliche einer einfachen Realität stellen: Wenn der Angreifer schneller ist als ihre Fähigkeit zur Erkennung und Reaktion, spielen sie auf verlorenem Posten!“

IT-Sicherheit für Unternehmen neu zu definieren

Die Herausforderung sei eben nicht nur technischer Natur – es gehe darum, wie Risiken kommuniziert in Unternehmen werden. IT-Sicherheitsverantwortliche müssten Komplexität in eine Sprache übersetzen, welche bei Führungskräften Gehör findet, die in Begriffen wie „Verfügbarkeit“, „Umsatz“ und „Betriebskontinuität denken“.

  • Lakunishok betont: „Die alte Story – ,Wir müssen Bedrohungen schneller erkennen!‘ – zieht nicht mehr!“

Die neue Logik sei einfacher und ehrlicher: „Wir sollten davon ausgehen, dass etwas eindringen wird, und die eigentliche Frage ist, ob es das Unternehmen lahmlegen kann.“ Diese Neudefinition verschiebe Sicherheit von einer technischen Disziplin hin zu einer Strategie für die Resilienz des Unternehmens und mache sie damit unmittelbar relevant für das gesamte Führungsteam.

IT-Sicherheit im KI-Zeitalter: Eindämmung und Resilienz

Wenn IT-Sicherheitsverletzungen unvermeidbar sind, verschiebe sich der Kontrollpunkt. Es gehe nicht mehr darum, jedes Eindringen zu stoppen oder jede Bedrohung abzufangen – es gehe darum, was nach dem Eindringen geschieht:

  • „Kann sich ein Angreifer lateral durch die Umgebung bewegen? Kann er Berechtigungen eskalieren oder kritische Systeme erreichen?“

Wenn ja, werde der Vorfall zu einer Betriebsstörung. Wenn nicht, bleibe es ein eingedämmtes technisches Ereignis. „Dies ist der Wandel von Prävention als Perfektion hin zu Prävention als Eindämmung.“

IT-Sicherheitsverantwortliche müssen auf Schadensbegrenzung und Betriebliches Kontinuitätsmanagement fokussieren

„Praktisch bedeutet dies, Umgebungen zu gestalten, in denen der Zugriff streng kontrolliert, die Bewegungsfreiheit eingeschränkt und der Wirkungsradius eines Sicherheitsvorfalls von vornherein begrenzt ist.“ Für nicht-technische Stakeholder sei die Erkenntnis klar: „Wir müssen nicht garantieren, dass nichts eindringt – wir müssen garantieren, dass sich nichts ausbreiten kann!“

  • Lakunishok führt weiter aus: Sicherheitsvorfälle werden passieren, die Erkennung wird Mühe haben, Schritt zu halten, und Geschwindigkeit allein wird die Lücke nicht schließen. Die entscheidende Frage für jeden Sicherheitsverantwortlichen ist nun einfach: ,Wenn morgen etwas eindringt, bleibt das Geschäft dann am Laufen?‘“

Wenn die Antwort „Ja“ lautet, sei die Strategie auf die aktuelle globale Entwicklung abgestimmt. Wenn nicht, sei dies der Moment, das Modell zu überdenken. „Im Zeitalter KI-gesteuerter Angriffe geht es bei der Sicherheit nicht mehr darum, Sicherheitsverletzungen zu stoppen – es geht darum, sicherzustellen, dass sie keine Rolle spielen!“, so Lakunishoks Fazit

Weitere Informationen zum Thema:

ZERO NETWORKS
About Us: Radical Simplicity, Uncompromising Security

kuppingercole ANALYSIS
Benny Lakunishok / CEO & Co-Founder Zero Networks

ANTHROPIC
Project Glasswing: Securing critical software for the AI era

manager magazin, 08.04.2026
„Beunruhigende Verhaltensweisen“ – Anthropics neue KI ist zu gefährlich für die Öffentlichkeit / Die neue KI von Anthropic, Mythos, soll Software-Schwachstellen erkennen und schließen. Sie ist aber genauso gut darin, diese auszunutzen. Weil sie als Cyberwaffe missbraucht werden könnte, stellt CEO Amodei die KI nur ausgewählten Kunden zur Verfügung.

datensicherheit.de, 15.04.2026
Spontane Reaktion auf Mythos: SANS Institute veröffentlicht mit Partnern kostenloses Strategie-Briefing / Dieses Strategie-Briefing soll CISOs und Sicherheitsverantwortlichen ein umsetzbares Rahmenwerk an die Hand geben, um auf das zunehmende Tempo der Entdeckung und Ausnutzung von Schwachstellen durch KI zu reagieren

datensicherheit.de, 20.03.2026
Cyberangriffe: Weltweite Studie zeigt kritische Lücke zwischen Erkennung und Eindämmung auf / Zwar sind 98 Prozent der deutschen Organisationen überzeugt, Cyberangriffe erkennen zu können – doch fast 40 Prozent haben Schwierigkeiten, diese auch zu stoppen

datensicherheit.de, 03.03.2026
Vier Säulen der Cyber-Resilienz / In einer Erhebung von Absolute Security gaben 83 Prozent der befragten CISOs an, dass Cyber-Resilienz wichtiger sei als traditionelle Cybersicherheitsmaßnahmen, und 90 Prozent hätten bereits eine Resilienzstrategie in ihrem Unternehmen umgesetzt.

datensicherheit.de, 27.01.2026
Cohesity-Studie zur Cyberresilienz deutscher Unternehmen / Für die Studie wurden 400 Entscheidungsträger aus dem IT- und Sicherheitsbereich in Deutschland und insgesamt 3.200 weltweit befragt. Basierend auf den Ergebnissen gibt der Autor in einem „Fünf-Punkte-Aktionsplan“ Empfehlungen, wie Unternehmen ihre Cyberresilienz steigern können.

]]>
Nationale Rechenzentrumsstrategie: Bitkom fordert noch deutlich verbesserte Rahmenbedingungen https://www.datensicherheit.de/nationale-rechenzentrumsstrategie-bitkom-forderung-verbesserung-rahmenbedingungen Mon, 23 Mar 2026 07:50:16 +0000 https://www.datensicherheit.de/?p=53391 Der Bitkom anerkennt vorliegende Rechenzentrumsstrategie als „wichtiges Signal“, vermisst bisher aber den „großen Wurf“

[datensicherheit.de, 23.03.2026] Am 18. März 2026 hat das Bundeskabinett die „Nationale Rechenzentrumsstrategie“ verabschiedet. Diese ist laut Digitalverband Bitkom e.V. wohl ein wichtiges Signal, aber damit Deutschland im internationalen Wettbewerb endlich aufholen kann, müssten die Rahmenbedingungen noch deutlich verbessert werden. So sollten u.a. insbesondere Rechenzentren und Telekommunikationsnetze bei den Stromkosten entlastet werden.

bitkom-ralf-wintergerst

Foto: Bitkom

Dr. Ralf Wintergerst: Wer in eine starke und zukunftsfähige IT-Infrastruktur investiert, stärkt Resilienz, Innovation und Wettbewerbsfähigkeit in einer zunehmend KI-getriebenen Welt

Erstmals eine Rechenzentrumsstrategie für Deutschland

Der Bitkom-Präsident, Dr. Ralf Wintergerst, kommentiert: „Die Rechenzentrumsstrategie ist ein wichtiges Signal, ein ,großer Wurf’ ist sie nicht. Die schwarz-rote Bundesregierung gibt Deutschland erstmals eine Rechenzentrumsstrategie und hebt sich damit positiv von allen Vorgängerregierungen ab.“

  • Die Bundesregierung erkenne damit die herausragende Bedeutung von Rechenzentren für einen wettbewerbsfähigen Digital- und KI-Standort an – die klar formulierten Ausbauziele seien richtig und notwendig.

Wintergerst betont: „Rechenzentren sind die Schaltzentralen der digitalen Welt! Die Strategie will Deutschland als starken, nachhaltigen und souveränen Rechenzentrumsstandort weiterentwickeln. Dabei bleibt sie allerdings zu oft im Vagen und belässt es häufig bei allgemeinen Absichtserklärungen.“ Es müsse jetzt also zunächst einmal darum gehen, die angekündigten Maßnahmen konkret auszugestalten und dann zügig umzusetzen.

Rechenzentrumsstrategie sollte nun konsequent und priorisiert weiterentwickelt und umgesetzt werden

Der Handlungsdruck sei hoch: Die Leistung der deutschen Rechenzentren ist 2025 demnach auf 2.980 Megawatt gewachsen und soll bis 2030 über 5.000 Megawatt erreichen. Im internationalen Vergleich reiche dieses Wachstum jedoch nicht aus. Wintergerst erläutert: „Die USA verfügten bereits 2024 über rund 48 Gigawatt Rechenzentrumsleistung – rund 16-mal so viel wie Deutschland Anfang 2026. Allein die zehn größten US-Rechenzentren bringen zusammen so viel Leistung auf wie alle rund 2.000 Rechenzentren in Deutschland zusammen.“ Auch China baue seine Kapazitäten massiver aus als Deutschland und Europa.

  • Damit Deutschland im internationalen Wettbewerb aufholen kann, müssten die Rahmenbedingungen deutlich verbessert werden. So sollten insbesondere Rechenzentren und Telekommunikationsnetze bei den Stromkosten entlastet werden – die im europäischen Vergleich sehr hohen Energiepreise seien ein „klarer Wettbewerbsnachteil“.

Auch Zugang zum Stromnetz, ein verbesserter regulatorischer Rahmen und zügigere Planungs- und Genehmigungsprozesse seien essenziell. Wintergerst gibt abschließend zu bedenken: „Ohne leistungsfähige Rechenzentren verliert Deutschland den Anschluss an den internationalen Wettbewerb! Sie sind die Basis Digitaler Souveränität. Wer in eine starke und zukunftsfähige IT-Infrastruktur investiert, stärkt Resilienz, Innovation und Wettbewerbsfähigkeit in einer zunehmend KI-getriebenen Welt.“ Die Rechenzentrumsstrategie muss nun von der Bundesregierung konsequent und priorisiert weiterentwickelt und umgesetzt werden.

Weitere Informationen zum Thema:

bikom
Über uns

bitkom
Dr. Ralf Wintergerst: Präsident Bitkom / Vorsitzender der Geschäftsführung & Group CEO Giesecke+Devrient GmbH

Bundesministerium für Digitales und Staatsmodernisierung
Nationale Rechenzentrumsstrategie: Eine umfassende Digitalisierung und ausreichende Rechenzentrumskapazitäten sind wichtige Faktoren für eine zukunfts- und wettbewerbsfähige Wirtschaft und eine moderne öffentliche Verwaltung

Bundesministerium für Digitales und Staatsmodernisierung, 18.03.2026
Bundesregierung beschließt Rechenzentrumsstrategie / Wildberger: „Jedes neue Rechenzentrum stärkt unsere digitale Souveränität und Wettbewerbsfähigkeit“

VKU, VERBAND KOMMUNALER UNTERNEHMEN E.V., 20.03.2026
Bundesregierung legt Nationale Rechenzentrumsstrategie vor: Die Bundesregierung hat eine Nationale Rechenzentrumsstrategie beschlossen. Bis 2030 sollen die Rechenkapazitäten verdoppelt und die Kapazitäten für Künstliche Intelligenz vervierfacht werden.

DIHK Deutsche Industrie- und Handelskammer, 17.12.2025
Stellungnahme: DIHK zur nationalen Rechenzentrumsstrategie 2030 / Deutschland braucht leistungsstarke, sichere und energieeffiziente Rechenzentren, um die digitale Souveränität und Wettbewerbsfähigkeit der Wirtschaft zu sichern. Die DIHK zeigt zentrale Chancen, Herausforderungen und notwendige Rahmenbedingungen auf.

datensicherheit.de, 07.12.2025
Frankfurt/Main: Wirtschaftswachstum gründet sich auf Rechenzentren – doch neue IW-Studie benennt Hürden für Betreiber / Jeder Euro, der in Rechenzentren erwirtschaftet wird, generiert weitere 51 Cent wirtschaftlicher Leistung – 24 Cent davon direkt in der Region

datensicherheit.de, 16.11.2025
Zuspitzung der Energiekrise für Rechenzentren gefährdet Digitalstandort Deutschland / „Allianz zur Stärkung digitaler Infrastrukturen“ fordert wettbewerbsfähige Strompreise und zuverlässige Netzanschlüsse für Rechenzentrenbranche

datensicherheit.de, 23.08.2025
5-Punkte-Plan des eco für zukunftsorientierte Rechenzentrumsstrategie des Bundes / Der eco fordert unter anderem wettbewerbsfähige Strompreise, schnellere Genehmigungen und ein Ende des „One-Size-Fits-All“-Ansatzes

]]>
Das drohende Ende klassischer Kryptographie: Web-Seminar zur IT-Sicherheit vor dem Quantenumbruch https://www.datensicherheit.de/ende-klassischer-kryptographie-seminar-quantenumbruch Fri, 27 Feb 2026 23:25:00 +0000 https://www.datensicherheit.de/?p=52880 Seit Jahrzehnten schützen kryptographische Verfahren u.a. digitale Identitäten, VPN-Verbindungen, E-Mails und geschäftskritische Daten – was aber heute in der IT noch als sicher gilt, könnte morgen für Cyberkriminelle berechenbar sein

[datensicherheit.de, 28.02.2026] Das IT-Sicherheitsnetzwerk Berlin-Brandenburg, vertreten durch den it’s.BB e.V., lädt zum Web-Seminar „Das Ende klassischer Kryptographie? IT-Sicherheit vor dem Quantenumbruch“ ein. Seit Jahrzehnten schützen kryptographische Verfahren u.a. digitale Identitäten, VPN-Verbindungen, E-Mails und geschäftskritische Daten. Doch mit dem Fortschritt auf dem Gebiet des Quantencomputings gerät genau dieses bisher noch so sicher geltende Fundament ins Wanken: „Was heute als sicher gilt, könnte morgen berechenbar sein!“, warnt der it’s.BB.

itsbb-webinar-kryptographie-it-sicherheit-quantenumbruch

Abbildung: it’s.BB e.V.

Referent: Jonas Schubert, IT-Security-Experte, M&H IT-Security

„Das Ende klassischer Kryptographie? IT-Sicherheit vor dem Quantenumbruch“

Web-Seminar am Mittwoch, dem 11. März 2026, von 16.00 bis 17.00 Uhr.
via „MS-Teams“
Die Teilnahme ist kostenlos – eine Online-Anmeldung erforderlich.

Agenda (ohne Gewähr)

– Einführung und Übersicht über klassische Kryptographie
– Erläuterungen:

  • symmetrische und asymmetrische Verschlüsselungsmethoden,
  • wann und wie Quantencomputer ein reales Risiko für klassische Kryptographie darstellen,
  • welche erfahren konkret betroffen sind,
  • was „Post-Quanten-Kryptographie“ bedeutet,
  • welche strategischen Schritte Unternehmen bereits jetzt einleiten sollten.

– „Q&A“

Online-Anmeldung und weitere Informationen zum Thema:

eventbrite.de, it’sBB e.V ITSicherheitsnetzwerk BerlinBrandenburg
Das Ende klassischer Kryptographie? IT-Sicherheit vor dem Quantenumbruch

it’s.BB DAS IT_SICHERHEITSNETZWERK BERLIN-BRANDENBURG
it´s.BB – über uns / IT-Sicherheit für Berlin und Brandenburg

datensicherheit.de, 01.11.2025
Bedrohung der Datensicherheit durch Fortschritte bei Quantencomputern / Unternehmen stehen weitreichende Veränderungen hinsichtlich des Schutzes sensibler Informationen und Daten bevor – Quantencomputer rechnen immer schneller und bedrohen Public-Key-Verschlüsselungen

datensicherheit.de, 16.09.2025
Daten als Beute auf Vorrat: Cyberkriminelle setzen auf Fortentwicklung der Quantencomputer / US-Behörde NIST empfiehlt neue Kryptographie-Standards: Quantencomputer werden bald heute noch als sicher geltende Verschlüsselungen in Sekunden knacken können

datensicherheit.de, 16.07.2025
Fortschritte des Quantencomputings: Aktuelle Verschlüsselungsverfahren drohen obsolet zu werden / Innerhalb der nächsten fünf bis zehn Jahre wird vielfach der Eintritt des „Q-Day“ befürchtet – also der Zeitpunkt, an dem Quantencomputer leistungsfähig genug sind, heute gängige kryptographische Algorithmen zu brechen

datensicherheit.de, 16.05.2025
Quantencomputer werden die Welt verändern: Herausforderungen sowie Risiken kennen und Chancen nutzen / Rückblick auf das „FrühlingsForum 2025“ des VDI/VDE-AK Sicherheit und des ETV in Berlin mit Dr. Jan Goetz als Sprecher zum Thema „Quantencomputer – Was kommt nach KI? Wie Quantencomputer die Welt verändern können“

datensicherheit.de, 12.05.2025
Q-Day: Utimaco rät Unternehmen zur rechtzeitigen Vorbereitung auf quantengestützte Cyberangriffe / Aktueller Utimaco-Report zu Quantenbedrohungen erschienen – um weiterhin digitale Sicherheit zu gewährleisten, muss sich die heutige Kryptographie drastisch verändern

]]>
Paradoxon des deutschen IT-Arbeitsmarktes: Zunahme arbeitsloser Fachkräfte bei Abnahme der IT-Sicherheit in Unternehmen https://www.datensicherheit.de/paradoxon-deutschland-it-arbeitsmarkt-zunahme-arbeitslose-fachkraefte-abnahme-it-sicherheit-unternehmen Fri, 20 Feb 2026 23:59:00 +0000 https://www.datensicherheit.de/?p=52702 Chris Dimitriadis bewertet den Stellenabbau bei IT-Fachkräften als kurzsichtige Reaktion, welche die eigentliche Qualifikationslücke verschärft

[datensicherheit.de, 21.02.2026] Chris Dimitriadis, „Chief Global Strategy Officer“ bei ISACA, kommentiert in seiner aktuellen Stellungnahme das paradox anmutende Phänomen, dass auf dem deutschen IT-Arbeitsmarkt demnach mehr arbeitslose Fachkräfte gibt, zugleich aber auch weniger IT-Sicherheit für Unternehmen. Er bewertet diesen Stellenabbau „als kurzsichtige Reaktion, welche die eigentliche Qualifikationslücke verschärft“. Er betont, dass die entscheidende Frage für jedes Unternehmen lauten müsse, ob sie gerade jetzt gezielt in die Fähigkeiten ihres IT-Sicherheits-Teams Investieren oder doch erst später – nämlich in die Bewältigung von Krisen.

isaca-chris-dimitriadis

Foto: ISACA

Chris Dimitriadis: Wir können noch nicht das Ende des Fachkräftemangels ausrufen. Was wir wirklich sehen, ist eine Verschiebung der gesuchten Profile!

Trügerischer Schein: Deutlicher Rückgang offener IT-Stellen nebst steigenden Arbeitslosenzahlen im IT-Sektor

Ein deutlicher Rückgang bei offenen IT-Stellen und steigende Arbeitslosenzahlen im IT-Sektor erweckten den Eindruck, der langjährige Fachkräftemangel in Deutschland sei überwunden. „Doch der Schein trügt!“

  • ISACA, der globale „Berufsverband für IT-Revisoren, Information Security Officers und IT-Governance-Experten“, warnt davor, die aktuelle Marktlage falsch zu interpretieren.

Während Unternehmen aufgrund der angespannten Wirtschaftslage allgemeine IT-Projekte auf Eis legten und Stellen abbauten, wachse durch neue EU-Regularien ein akuter, nicht verhandelbarer Bedarf an hochspezialisierten Sicherheits- und „Compliance“-Experten – ein von viele Unternehmen bislang ignoriertes Paradoxon.

Verschiebung der gesuchten Profile: Weniger IT-Stellen, indes kein Ende des Mangels

Aktuelle Daten zeichneten ein auf den ersten Blick eindeutiges Bild: „Laut dem Institut der deutschen Wirtschaft (IW) sank die Zahl der offenen IT-Stellen im Jahr 2024 im Vergleich zum Vorjahr um 26,2 Prozent.“

  • Gleichzeitig habe die Bundesagentur für Arbeit (BA) im Januar 2026 einen Anstieg der arbeitslosen IT-Fachkräfte um 23,2 Prozent gemeldet.

„Wir können noch nicht das Ende des Fachkräftemangels ausrufen. Was wir wirklich sehen, ist eine Verschiebung der gesuchten Profile. Der Bedarf an Expertinnen und Experten, welche die digitale Widerstandsfähigkeit eines Unternehmens sicherstellen, steigt weiterhin“, so Dimitriadis’ Einschätzung.

Regulatorischer Druck auf IT-Sektor erzeugt neuen, dringenden Bedarf

In dieser Phase der Zurückhaltung schafften EU-Vorschriften Anforderungen, welche Unternehmen nicht ignorieren könnten. Richtlinien wie DORA (Digital Operational Resilience Act) für den Finanzsektor, NIS-2 für Kritische Infrastrukturen (KRITIS) und der „EU AI Act“ verlangten von Unternehmen nachgewiesene Standards für Cybersecurity, Risikomanagement und KI-Governance.

  • „Hier liegt die eigentliche Schwachstelle“, betont Dimitriadis. Er erläutert hierzu: „Es geht nicht mehr darum, ob man in Cybersicherheit investieren soll, sondern wie man die richtigen Investitionen tätigt – von der Prävention über die Erkennung bis hin zur Reaktion und Wiederherstellung.“

Dies beginne immer mit ganzheitlich ausgebildeten Fachkräften. Er gibt zu bedenken: „Unternehmen, die jetzt falsche Entscheidungen zur Kostensenkung treffen, riskieren nicht nur schwerwiegende Auswirkungen durch Cyberangriffe, sondern auch hohe Strafen und den Verlust ihrer Betriebserlaubnis.“

Datenschutz-Lücken werden zum existentiellen Risiko

Wie groß die Diskrepanz zwischen Bedarf und Realität bereits ist, belege die aktuelle repräsentative „State of Privacy“-Studie von ISACA. Diese zeige, dass über die Hälfte (51%) der technischen Datenschutz-Positionen in Europa unbesetzt seien, während 44 Prozent der Teams sich als unterfinanziert bezeichneten.

  • „Dieser Mangel an Ressourcen ist das direkte Ergebnis eines ,Henne-Ei’-Problems. Ohne die richtigen Teams wird die Kosten-Nutzen-Analyse ungenau sein, und ohne Investitionen kann man nicht die richtigen Teams für diese Aufgabe zusammenstellen“, gibt Dimitriadis zu bedenken.

Er warnt: „Ein einziger schwerwiegender Datenverstoß kann ein Vielfaches dessen kosten, was durch Personalabbau eingespart wurde – ganz zu schweigen vom Verlust des Kundenvertrauens.“

ISACA rät Unternehmen. in Kompetenzen statt Krisen zu investieren

Durch die steigende Arbeitslosigkeit im IT-Sektor verschärfe sich der Wettbewerb um attraktive Positionen. Arbeitgeber könnten es sich leisten, wählerischer zu sein und suchten vermehrt nach Kandidaten, welche nicht nur technische Fähigkeiten, sondern auch strategisches Verständnis und zertifizierte Expertise nachweisen könnten.

  • ISACA unterstützt Unternehmen und Fachkräfte nach eigenen Angaben dabei, diese Herausforderung zu bewältigen. Der Fokus liege darauf, die notwendigen Kompetenzen aufzubauen, um den neuen Anforderungen gerecht zu werden.

Dimitriadis unterstreicht: „Dabei ist es ebenso entscheidend, das vorhandene Personal weiterzubilden, wie neue Expertinnen und Experten zu gewinnen. Führungskräfte müssen verstehen, dass die Stärkung der eigenen Teams der nachhaltigste Weg ist, um digitale Resilienz zu schaffen.“

IT-Arbeitsmarkt bietet aktuell die strategische Chance, die Weichen richtig zu stellen

Anerkannte Zertifizierungen böten hier einen klaren „Fahrplan“: Diese belegten nicht nur Fachwissen, sondern auch die Fähigkeit, dieses strategisch anzuwenden. Der „Certified Information Security Manager“ (CISM) beispielsweise befähige Fachleute, ein ganzheitliches Sicherheitsprogramm zu managen, um Geschäftsziele und regulatorische Pflichten in Einklang zu bringen.

  • Der „Certified Information Systems Auditor“ (CISA) bestätige wiederum die Kompetenz, die Wirksamkeit von Kontrollen zu prüfen und so das Vertrauen in die digitalen Prozesse zu untermauern.

Dimitriadis’ Fazit: „Die entscheidende Frage für jedes Unternehmen lautet: Investieren wir jetzt gezielt in die Fähigkeiten unserer Teams oder später in die Bewältigung von Krisen? Die aktuelle Lage am IT-Arbeitsmarkt bietet die strategische Chance, genau hier die richtigen Weichen zu stellen. Anstatt einfach Personal abzubauen, können vorausschauende Unternehmen jetzt die Spezialistinnen und Spezialisten an sich binden und eigene Mitarbeitende qualifizieren, die für den Schutz vor Cyberrisiken und die Einhaltung neuer Regularien unerlässlich sind. Wer diese Gelegenheit nutzt, begreift Sicherheit nicht als Kostenfaktor, sondern als Wettbewerbsvorteil und Basis für vertrauensvolle Kundenbeziehungen und Partnerschaften.“

Weitere Informationen zum Thema:

ISACA
The principles behind our purpose / Our mission and vision reflect the core values that drive everything we do

ISACA
Meet ISACA’s Leadership Team/ Chris Dimitriadis – Chief Global Strategy Officer

ISACA, 15.01.2026
State of Privacy 2026

datensicherheit.de, 06.09.2025
Cyberkrimineller Arbeitsmarkt: Warnendes Indiz für Angriffszunahme mittels Social Engineering / Vor allem Cyberkriminelle mit Expertise im Bereich „Social Engineering“ sind aktuell sehr nachgefragt

datensicherheit.de, 09.08.2025
Bitkom: Weiterhin fehlen mehr als 100.000 IT-Fachkräfte in Deutschland / Der Bitkom kommentiert die von Bitkom Research im Auftrag des Digitalverbands telefonisch durchgeführte repräsentative Umfrage in Unternehmen ab drei Beschäftigten in Deutschland

datensicherheit.de, 15.02.2022
Fachkräftemangel, Insiderbedrohungen und Home-Office – Cyber-Risiken mit Wurzeln in den Unternehmen / Hendrik Schless kommentiert die von Unternehmen viel zu häufig unterschätzten Risiken

]]>
Zentrales IT-Thema: „Algorithmen und Datenstrukturen für Dummies“ – Neuerscheinung zum verständlichen Einstieg https://www.datensicherheit.de/it-algorithmen-datenstrukturen-dummies-neuerscheinung-verstaendlichkeit-einstieg Mon, 09 Feb 2026 23:12:00 +0000 https://www.datensicherheit.de/?p=52402 Algorithmen bestimmen, wie moderne Software funktioniert, wie effizient Daten verarbeitet werden und wie zuverlässig digitale Systeme reagieren

[datensicherheit.de, 10.02.2026] Die Wiley-VCH Verlag GmbH meldet im Rahmen der Reihe „Professional Learning“ die Neuerscheinung des Werkes „Algorithmen und Datenstrukturen für Dummies“. Verfasst wurde es von Prof. Dr. Andreas Gogol-Döring, Professor für Informatik und Bioinformatik an der TH Mittelhessen, und Prof. Dr. Thomas K. Letschert, für fast 30 Jahre Professor für Informatik an der TH Mittelhessen und dort zuletzt verantwortlich für das Modul „Algorithmen und Datenstrukturen“. Algorithmen bestimmen, wie moderne Software funktioniert, wie effizient Daten verarbeitet werden und wie zuverlässig digitale Systeme reagieren. Heute, in einer Zeit, in welcher technologische Entwicklungen den Alltag und ganze Branchen prägen, wird daher ein grundlegendes Verständnis dieser Mechanismen offensichtlich immer wichtiger – für Studenten, Fachkräfte und für alle, welche sich mit digitalen Technologien befassen.

wiley-algorithmen-und-datenstrukturen-fuer-dummies-cartoon

Abbildung: Wiley-VCH Verlag GmbH

Cartoon aus „Algorithmen und Datenstrukturen für Dummies“: 2. Auflage, Januar 2026, 496 Seiten, Softcover, Preis: 29,99 €, ISBN: 978-3-527-72440-6

„Algorithmen und Datenstrukturen für Dummies“ in zweiter, vollständig überarbeiteter Auflage

Mit der vorliegenden zweiten, vollständig überarbeiteten Auflage von „Algorithmen und Datenstrukturen für Dummies“ legen die beiden Autoren, Gogol‑Döring und Letschert, ein Werk vor, welches dieses anspruchsvolle Thema besonders verständlich und praxisnah vermitteln soll.

  • Im Buch werden zentrale Grundlagen wie Laufzeitbewertung, Such- und Sortierverfahren oder rekursive Ansätze erläutert und Leser Schritt für Schritt an Kernkonzepte wie Laufzeitklassen, das Master-Theorem oder den „Divide‑and‑Conquer“‑Ansatz herangeführt. Klare Beispiele, gut strukturierte Erklärungen und prägnante Illustrationen sollen dafür sorgen, „dass komplexe Inhalte mühelos nachvollziehbar bleiben“.

Die beiden Autoren verfügen demnach über umfangreiche Erfahrung in Informatik, Lehre und technischer Praxis. Ihre Expertise zeige sich in der fachlich präzisen und zugleich sehr zugänglichen Darstellung der Themen – stets mit dem Anspruch, die theoretischen Grundlagen verständlich zu machen und gleichzeitig deren praktische Relevanz aufzuzeigen.

wiley-algorithmen-und-datenstrukturen-fuer-dummies-cover

Abbildung: Wiley-VCH Verlag GmbH

Die beiden Autoren, Gogol‑Döring und Letschert, legen ein Werk vor, welches das anspruchsvolle Thema „Algorithmen und Datenstrukturen“ besonders verständlich und praxisnah vermitteln soll

Top‑Ten‑Teil fasst wichtigste Datenstrukturen sowie zentrale Tipps im Umgang mit Algorithmen übersichtlich zusammen

Begonnen wird mit den grundlegenden Prinzipien der Algorithmik, dann in Datenstrukturen wie Listen, Bäume und Graphen eingeführt und anschließend aufgezeigt, wie typische Problemstellungen – etwa Sortieren, Optimieren oder Pfadsuche – algorithmisch gelöst werden.

  • „Daran schließt sich eine umfassende Einführung in klassische algorithmische Techniken wie dynamisches Programmieren, Backtracking, heuristische Verfahren oder Approximationsalgorithmen an.“

Ein abschließender Top‑Ten‑Teil soll die wichtigsten Datenstrukturen sowie zentrale Tipps im Umgang mit Algorithmen übersichtlich zusammenfassen. Dieser bewusste Aufbau soll das Buch sowohl für Einsteiger als auch für fortgeschrittene Nutzer zu einer wertvollen Lektüre machen.

Weitere Informationen zum Thema:

für dummies
Algorithmen und Datenstrukturen für Dummies (Gogol-Döring, Andreas / Letschert, Thomas), 2. Auflage Januar 2026, 496 Seiten, Softcover

für dummies
Algorithmen und Datenstrukturen für Dummies / Probekapiel: „Kapitel 1 Algorithmen“

THM TECHNISCHE HOCHSCHULE MITTELHESSEN, CAMPUS GIESSEN, MNI
Prof. Dr. Andreas Gogol-Döring

THM TECHNISCHE HOCHSCHULE MITTELHESSEN, CAMPUS GIESSEN, MNI
Prof. Dr. Thomas K. Letschert

datensicherheit.de, 05.07.2019
Buchvorstellung: Kryptografie für Dummies / Datenschutz und Datensicherheit enden für Unternehmen heute nicht mehr an der Firewall

datensicherheit.de, 28.05.2019
ESET-Ratgeber: „Datenschutz für Dummies“ kostenlos erhältlich / Informationen und Tipps rund um das Thema Datenschutz für PC und Mobile

datensicherheit.de, 15.10.2018
ISLA-Award 2018: E-Book „Cybersecurity for Dummies“ ausgezeichnet / Preis würdigt Thycotics Chief Security Scientist Joseph Carson für seine Aufklärungsarbeit

]]>
Strategische Notwendigkeit: Die drei Grundpfeiler Digitaler Souveränität Europas https://www.datensicherheit.de/strategie-notwendigkeit-3-grundpfeiler-digital-souveranitat-europa Sat, 07 Feb 2026 23:20:00 +0000 https://www.datensicherheit.de/?p=52371 Digitale Souveränität ist die Fähigkeit, als Organisation in Europa handlungsfähig zu bleiben – selbst wenn globale Lieferketten reißen oder politische Spannungen digitale Datenflüsse unterbrechen

[datensicherheit.de, 08.02.2026] Seit Jahren wird nun über Digitale Souveränität Europas diskutiert – bisher meist eher nur als ein theoretisches Ideal. Doch die aktuelle geopolitische Lage hat das Thema 2026 offenbar zur existenziellen Geschäftsbedingung gemacht: Heute umfasst Digitale Souveränität weit mehr als nur einen IT-Standard oder Datenschutz-„Compliance“. Es ist die Fähigkeit, als Organisation handlungsfähig zu bleiben, wenn globale Lieferketten reißen oder politische Spannungen den digitalen Datenfluss unterbrechen.

ftapi-ari-albertini

Foto: FTAPI

Ari Albertini betont: Echte Unabhängigkeit entsteht dort, wo wir in Europa die Kontrolle über unsere technologische Substanz zurückgewinnen!

„Cyber Dominance“ ausländischer Akteure vs. Digitale Souveränität Europas

Für Unternehmen und Behörden nimmt das Thema heute zwingende Bedeutung an, da Software-Abhängigkeiten zunehmend als politische Hebel eingesetzt werden könnten. Wer nämlich Kritische Infrastrukturen (KRITIS) auf Systemen errichtet, deren technologischer Kern und rechtlicher Zugriff in Drittstaaten liegen, akzeptiert damit eine schleichende Abhängigkeit – die „Cyber Dominance“ ausländischer Akteure.

  • Diese Form der digitalen Gebundenheit hat sich mittlerweile zu einem massiven Geschäftsrisiko entwickelt, welches die Innovationskraft und die unternehmerische Entscheidungsfreiheit bedroht. Die aktuelle Initiative des Bundesdigitalministeriums (BMDS), die Souveränität über den „Ort der Wertschöpfung“ neu zu definieren, markiert offensichtlich das Ende einer technologischen Naivität.

Es reicht also nicht mehr aus, z.B. US-Software mit deutschen AGB zu versehen oder Daten in lokalen Rechenzentren zu parken – solange eben die administrative Kontrolle im Ausland verbleibt. Echte Digitale Souveränität bedeutet nun, digitale Prozesse so zu gestalten, dass sie rechtlich und technisch immun gegen außereuropäische Zugriffe sind. Vor dem Hintergrund von NIS-2 und DORA wird digitale Unabhängigkeit damit von der IT-Aufgabe zur zentralen Management-Disziplin. FTAPI-Experten sehen in diesem Zusammenhang drei zentrale Grundpfeiler, auf denen die Digitale Souveränität ruht.

1. Grundpfeiler Digitaler Souveränität Europas: Software „Made in Europe“

Echte Souveränität erfordere die Kontrolle auf zwei Ebenen: Die technologische Kompetenz und die architektonische Verantwortung für den Quellcode müssten im europäischen Rechtsraum liegen. „Nur wer den Kern der Software selbst beherrscht, kann administrative Hintertüren ausschließen und die Integrität des Systems garantieren.“

  • Darüber hinaus müsse der Betrieb der Software im Kontrollbereich des Nutzers liegen.

„Souveränität endet dort, wo Wartungsschnittstellen (,Admin-Access’) aus Drittstaaten bedient werden.“ Denn über diesen administrativen Zugriff könnten ausländische Gesetze (wie etwa der „Cloud Act“) unmittelbar in europäische Infrastrukturen eingreifen – „völlig ungeachtet dessen, wo die Server physisch stehen!“

2. Grundpfeiler Digitaler Souveränität Europas: „Sovereignty-by-Design“

Ein vertragliches Versprechen gegen Datenzugriff (Stichwort: „Cloud Act“) sei im Ernstfall oft wirkungslos, wenn nationale Gesetze des Anbieter-Heimatlandes juristische Vereinbarungen im Ausland überlagern könnten. „Wahre Souveränität benötigt eine Architektur, die den Zugriff technisch unmöglich macht!“ Souveränität sei somit kein juristisches Versprechen, sondern ein technischer Standard.

Die konsequente Ende-zu-Ende-Verschlüsselung sei hier der einzige verlässliche Schutz gegen drei Risiken gleichzeitig:

  • Juristischer Zugriff: Ohne Schlüssel keine Datenherausgabe an Drittstaaten.
  • Wirtschaftsspionage: Schutz vor Datendiebstahl durch externe Angreifer.
  • Internes Risiko: Schutz vor Fehlern oder Missbrauch durch Administratoren beim Dienstleister.

3. Grundpfeiler Digitaler Souveränität Europas: „Vendor Lock-in“-Vermeidung

Souveränität zeige sich im Moment des Wechsels. Ein System sei nur dann souverän, „wenn keine dauerhafte Abhängigkeit besteht“. Wenn beispielsweise Migrationskosten einen Anbieterwechsel wirtschaftlich unmöglich machten, sei die Entscheidungsfreiheit verloren.

  • Unabhängigkeit erfordere daher offene Schnittstellen (APIs) und standardisierte Prozesse, damit Organisationen jederzeit die Hoheit über ihre eigene IT-Strategie behalten könnten.

„Echte Unabhängigkeit entsteht dort, wo wir in Europa die Kontrolle über unsere technologische Substanz zurückgewinnen”, kommentiert Ari Albertini, CEO bei FTAPI. Abschließend gibt er zu bedenken: „Wer seine digitale Freiheit an internationale Monopole delegiert, verliert morgen seine unternehmerische Entscheidungsfreiheit. Souveränität ist kein ,Nice-to-have’, sondern die wichtigste Investition in die Zukunftsfähigkeit unserer Wirtschaft!”

Weitere Informationen zum Thema:

ftapi
Die #1 Plattform für sicheren Datenaustausch. / Die beste Wahl, um sensible Dateien sicher und gesetzeskonform auszutauschen. Made & hosted in Germany.

heise business services
Ari Albertini – CEO, FTAPI

datensicherheit.de, 04.02.2026
Digitale Souveränität als Standortvorteil: Europa im Spannungsfeld Ethik vs. Innovation / Mit dem „EU AI Act“ und der NIS-2-Richtlinie möchte Europa zum Vorreiter für sichere und ethische Technologie werden

datensicherheit.de, 26.01.2026
IT made in Europe: Basis für Digitale Souveränität Deutschlands und Europas / Franz Kögl moniert, dass bislang trotz zahlreicher Lippenbekenntnisse vielfach fast schon reflexartig die Vergabe milliardenschwerer öffentlicher Aufträge an US-amerikanische IT-Konzerne erfolgte

datensicherheit.de, 01.01.2026
Cybersicherheit und Digitale Souveränität: Wie Europa die Kontrolle zurückgewinnen kann / Pierre-Yves Hentzen kommentiert aktuelle Entwicklungen und skizziert Wege zur Digitalen Souveränität Europas

datensicherheit.de, 30.11.2025
Handlungsbedarf: Digitale Souveränität von strategischer Relevanz für Unternehmen / Zunehmendes Streben nach echter Digitaler Souveränität – Unternehmen fordern die Kontrolle über ihre Daten, ihre „Cloud“-Infrastruktur und ihren technologischen Kurs zurück

datensicherheit.de, 12.06.2025
Blick über den eigenen Tellerrand: Cybersicherheit als Frage nationaler Souveränität / Ari Albertini warnt davor, die größte Schwachstelle im Alltag zu unterschätzen: Das aufgrund von Zeitdruck oft ungeschützte Teilen sensibler Informationen gefährdet die Cybersicherheit

]]>