Komplexität – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Sun, 13 Jul 2025 15:43:11 +0000 de hourly 1 Fragmentierte Cybersicherheit verursacht deren Schwächung https://www.datensicherheit.de/fragmentierung-cybersicherheit-schwaechung https://www.datensicherheit.de/fragmentierung-cybersicherheit-schwaechung#respond Sun, 13 Jul 2025 22:42:54 +0000 https://www.datensicherheit.de/?p=48947 Nicht nur die reine Zunahme, sondern auch die Vermehrung der potenziellen Einfallstore sorgt für blinde Flecken in der Cybersicherheit, warnt Alex Mosher

[datensicherheit.de, 14.07.2025] Alex Mosher, Präsident von Armis, betont in seiner aktuellen Stellungnahme: „Jede technische Innovation vergrößert die digitale Angriffsfläche eines Unternehmens!“ Denn je mehr Geräte, Anwendungen und Benutzerkonten hinzugefügt werden, desto größer werde die Komplexität. „Nicht nur die reine Zunahme, sondern auch die Vermehrung der potenziellen Einfallstore sorgt für blinde Flecken in der Cybersicherheit“, so Mosher. Strategien, diese zu schließen, müssten sich also stetig anpassen. Dadurch drohe jedoch der Blick auf die gesamte Infrastruktur verloren zu gehen.

armis-alex-mosher

Foto: Armis

Alex Mosher unterstreicht: Defragmentierung ist die Zukunft der Cybersicherheit!

Behebung strukturelle Schwachstellen in der betrieblichen Sicherheitsinfrastruktur

Im Ergebnis entstehe eine zunehmend fragile Sicherheitslage. Die Verantwortlichen sollten angesichts dessen die strukturellen Schwachstellen in ihrer Sicherheitsinfrastruktur beheben.

  • „Die Konzentration auf das Wachstum steigert jedoch die Anforderungen an die Cybersicherheit. Um neuen Bedrohungen zu begegnen, Schwachstellen zu schließen oder neue Compliance-Vorgaben zu erfüllen, setzen die Verantwortlichen daher oft eine Vielzahl von Tools ein, die jeweils für eine bestimmte Aufgabe entwickelt wurden – von der Erkennung von Bedrohungen bis zur Audit-Vorbereitung.“ Das Ergebnis sei dann ein „Flickenteppich aus Sicherheitslösungen“, welche isoliert voneinander arbeiteten.

Diese „Tools“ ließen sich selten nahtlos integrieren oder Daten austauschen. Mosher erläutert: „In der Folge entstehen Silos, die die Übersicht einschränken und die Reaktion behindern. Mit der Zeit schwächt das, was eigentlich die Sicherheit stärken sollte, diese letztendlich.“ Stattdessen blieben Unternehmen mit einem fragmentierten System zurück, welches Schwierigkeiten habe, ein einheitliches Echtzeitbild der Risiken zu liefern.

Fragmentierte Sicherheit als Herausforderung

Diese Lücken schwächten nicht nur das System, sondern machten es für Sicherheitsteams sogar schwierig, die Schwachstellen zu erkennen. In einer fragmentierten Umgebung werde die grundlegende, aber entscheidende Frage nach einer kompletten Übersicht über die Systemlandschaft überraschend schwer zu beantworten. „Ohne ein klares Verständnis dieses Bildes können Sicherheitsteams nur raten, wo die wahren Risiken liegen – das macht es Angreifern leicht, betont Mosher.

  • Die eigene Bedrohungslage bleibe nicht deshalb unentdeckt, „weil die eingesetzten Monitoring-Tools nicht leistungsfähig genug sind, sondern weil die erforderlichen Kontextinformationen über nicht miteinander verbundene Systeme verstreut sind“. Wenn diese Daten zwar erhoben, aber nicht ausgetauscht werden, gingen Warnmeldungen verloren. Sicherheitsteams könnten nicht schnell genug darauf reagieren und proaktiv agieren. Anstelle einer einheitlichen, koordinierten Verteidigung müssten Unternehmen isolierte Teile verwalten, „die kein vollständiges Bild ergeben“. Eine fragmentierte Sicherheit erschwere die Aufklärung von Sicherheitsvorfällen erheblich. Sicherheitsteams würden Schwierigkeiten haben, genaue Aufzeichnungen zu führen, ihre Verantwortlichkeiten nachzuweisen oder Belege für ein wirksames Risikomanagement zu liefern.

Die Verwaltung mehrerer voneinander getrennter „Tools“ erhöhe die Komplexität der Betriebsabläufe. Sicherheitsteams seien bereits mit zahlreichen Schnittstellen, „Workflows“ und Anforderungen überlastet. Dies verlangsame die Reaktionszeiten und erhöhe die Fehlerwahrscheinlichkeit. „Bei fragmentierter Sicherheit sind auch erhebliche finanzielle Auswirkungen zu berücksichtigen!“, gibt Mosher zu bedenken. Die Wartung und Integration mehrerer „Tools“ sei sowohl arbeitsintensiv als auch kostspielig. Überschneidende Funktionen und Ineffizienzen bei der Ressourcenzuweisung verschärften diese Kosten zusätzlich.

Einheitliche Cybersicherheit zur Unterstützung der Sicherheitsteams

„Angesichts der zahlreichen Herausforderungen, die fragmentierte Sicherheitslösungen mit sich bringen, ist es für Unternehmen an der Zeit, ihre Sicherheitsteams zu entlasten und auf eine einheitliche Cybersicherheitsplattform umzusteigen!“ Diese Strategie führe nicht nur zu einer Vereinfachung des Betriebs, sondern auch zur Erreichung eines echten Cyberrisiko-Managements.

  • Ein einheitlicher Ansatz ersetze isolierte Prozesse durch Kontextbewusstsein: „Er umfasst alle ,Assets’, ihre Verbindungen untereinander und die damit verbundenen Risiken.“ Ein solcher einheitlicher Ansatz für Cybersicherheit verbessere auch die betriebliche Effizienz.

Durch den Einsatz KI-gestützter Funktionen könnten Unternehmen das Sicherheitsmanagement vereinfachen, Routineaufgaben automatisieren und umsetzbare Erkenntnisse liefern. Sicherheitsteams würden so in die Lage versetzt, Risiken in Echtzeit zu erkennen, zu priorisieren und zu mindern. „Durch die Beseitigung der Komplexität der Verwaltung unterschiedlicher ,Tools’ und Systeme können Unternehmen von reaktiven Maßnahmen zu einer proaktiven Erkennung und Abwehr von Bedrohungen übergehen und so ihre allgemeine Sicherheitslage verbessern“, erklärt Mosher.

Defragmentierte Zukunft mittels einheitlicher Cybersicherheitsstrategie

Mit der Weiterentwicklung der Cyberbedrohungen würden die Lücken in einer fragmentierten Sicherheitsstrategie immer größer. „Punktuelle Lösungen können nicht die Geschwindigkeit, Koordination und Abdeckung bieten, die moderne IT-Umgebungen erfordern!“

  • Unternehmen sollten eine einheitliche Cybersicherheitsstrategie verfolgen, welche die Transparenz ihrer „Assets“, die Erkennung von Bedrohungen, die Priorisierung von Risiken und „Compliance“-Richtlinien in einer einzigen Plattform konsolidiert.

Moshers Fazit: „Einheitliche Sicherheit reduziert die Komplexität, ermöglicht schnellere Reaktionen und schafft langfristige Widerstandsfähigkeit. Defragmentierung ist die Zukunft der Cybersicherheit.“ Für Unternehmen gelte daher der Rat zu konsolidieren, zu vereinfachen und zu stärken.

Weitere Informationen zum Thema:

ARMIS
Platform: Armis Centrix™ for Asset Management and Security

datensicherheit.de, 26.04.2025
Armis Vulnerability Intelligence Database soll präventive Cyber-Sicherheit unterstützen / Armis nun auch als CVE-Nummerierungsstelle zugelassen

datensicherheit.de, 14.06.2022
Unternehmen in Sorge: Außer Kontrolle geratene digitale Angriffsfläche / Eingeschränkte Visibilität und Kontrolle bedrohen laut Studie von Trend Micro IT-Sicherheit der Unternehmen weltweit

datensicherheit.de, 23.07.2018
Handhabung von IT-Komplexität: Sechs Strategien für CIOs / Aktiver Beitrag von IT-Führungskräften für den Geschäftserfolg gefordert

]]>
https://www.datensicherheit.de/fragmentierung-cybersicherheit-schwaechung/feed 0
Hybrid-Cloud: KI zwingt deutsche Unternehmen Abstriche bei der Sicherheit zu machen https://www.datensicherheit.de/hybrid-cloud-ki-sicherheit-studie-2025 https://www.datensicherheit.de/hybrid-cloud-ki-sicherheit-studie-2025#respond Wed, 21 May 2025 15:50:09 +0000 https://www.datensicherheit.de/?p=47848 Laut einer Gigamon-Studie verursacht KI größeres Netzwerkdatenvolumen und -komplexität und folglich auch das Risiko. Zudem gefährden Kompromisse die Sicherheit bei einer Hybrid-Cloud-Infrastruktur, weshalb deutsche Sicherheits- und IT-Entscheider ihre Strategie überdenken und sich zunehmend von der Public Cloud entfernen. Gleichzeitig gewinnt die Netzwerksichtbarkeit weiter an Bedeutung.

[datensicherheit.de, 21.05.2025] 63 Prozent der deutschen Sicherheits- und IT-Entscheider berichten, dass sie im Laufe der vergangenen zwölf Monate Opfer mindestens eines Cyber-Angriffs geworden sind – ein Anstieg von 6,7 Prozent im Vergleich zum Vorjahr. Dies ergab die diesjährige Hybrid-Cloud-Security-Studie 2025 von Gigamon. Zum dritten Mal in Folge hat der Deep-Observability-Experte weltweit mehr als 1.000 Sicherheits- und IT-Experten befragt. Demnach ist dieser Anstieg vor allem auf die weitverbreitete Nutzung von KI durch Cyberangreifer zurückzuführen. Zudem beeinflusst die Technologie Sicherheit und Management von hybriden Cloud-Infrastrukturen.

WEF schätzt die globalen Kosten von Cyberkriminalität auf drei Billionen US-Dollar

Das World Economic Forum beziffert die globalen Kosten von Cyberkriminalität mit schätzungsweise drei Billionen US-Dollar. Während Akteure dank KI immer agiler werden, haben Unternehmen mit ineffizienten Tools, fragmentierten Cloud-Umgebungen und einer eingeschränkten Datengrundlage zu kämpfen. Das hat zur Folge, dass Sicherheit- und IT-Teams allmählich an ihre Grenzen stoßen.

Die Umfrageergebnisse machen deutlich, welchen Einfluss KI auf Hybrid-Cloud-Security-Strategien hat:

  • Netzwerkkomplexität und Bedrohungspotenziale nehmen zu: KI-basierte Bedrohungen gehören für 47 Prozent der deutschen Sicherheits- und IT-Entscheider zu den Top-Sicherheitsthemen. 28 Prozent berichten, dass sich das Netzwerkdatenvolumen in den vergangenen zwei Jahren mehr als verdoppelt hat. Der Grund: KI-Workloads. Gleichzeitig verzeichnet fast die Hälfte der Befragten (46 Prozent) einen Anstieg der Attacken, die es gezielt auf ihre Large-Language-Modelle abgesehen haben. 53 Prozent der deutschen Sicherheits- und IT-Entscheider sagen, dass Angreifer zunehmend durch KI unterstützte Ransomware nutzen – ein eindeutiger Hinweis darauf, dass KI häufiger dazu eingesetzt wird, um Abwehrmechanismen zu umgehen. Im Vergleich zum letzten Jahr ist dies ein Anstieg um knapp mehr als 10 Prozent (2024: 41 Prozent).
  • Unternehmen gehen gefährliche Kompromisse ein: Eine beeindruckende Mehrheit von 95 Prozent der deutschen Sicherheits- und IT-Entscheider gibt zu, dass sie Abstriche hinsichtlich des Managements sowie der Absicherung ihrer hybriden Cloud-Infrastruktur machen muss. Dabei ist bei 53 Prozent ein Mangel an bereinigten, qualitativ hochwertigen Daten entstanden, die zum Schutz von KI-Workloads dienen sollten. 43 Prozent fehlt es an vollständiger Einsicht in all ihre Umgebungen – einschließlich des East -West-Traffics.
  • Sicherheits- und IT-Entscheider hinterfragen den Einsatz der Public Cloud: Während und nach der Pandemie galt die Public Cloud als annehmbares Risiko, um den Betrieb aufrecht zu erhalten und zu skalieren. Allerdings hat sich das nun geändert. Viele Unternehmen überdenken nun ihre Cloud-Strategie. Für 62 Prozent der deutschen Sicherheits- und IT-Entscheider stellt die Public Cloud inzwischen ein größeres Risiko dar als jede andere Umgebung. Infolgedessen ziehen 61 Prozent von ihnen in Betracht, ihre Daten angesichts des Sicherheitsrisikos von der Public in die Private Cloud zu verlegen. 48 Prozent zögern sogar, KI in einer Public-Cloud-Umgebung zu nutzen, da sie sich um den Schutz ihres geistigen Eigentums sorgen.
  • Sichtbarkeit ist ganz oben auf der Agenda: Je fortschrittlicher Cyberattacken werden, desto offensichtlicher heben sich die Unzulänglichkeiten von Sicherheitslösungen ab. Als Antwort darauf arbeiten Unternehmen zunehmend daran, vollständige Einsicht in ihre Umgebungen zu erlangen – eine Eigenschaft, die mittlerweile als Must-have gilt, um Bedrohungen effizient identifizieren und auf sie reagieren zu können. Mehr als die Hälfte der befragten deutschen Sicherheits- und IT-Entscheider (56 Prozent) glaubt, dass ihre aktuellen Lösungen nicht in der Lage sind, Sicherheitsvorfälle zuverlässig zu erkennen. Als Hauptgrund geben sie die eingeschränkte Sichtbarkeit an. Deshalb planen 61 Prozent von ihnen, in den kommenden zwölf Monaten vollständige Einsicht in wirklich alle Netzwerkdaten zu erhalten und auf diesem Wege eine Echtzeit-Bedrohungsüberwachung zu ermöglichen.
Mark Jow, Technical Evangelist EMEA bei Gigamon

Mark Jow, Technical Evangelist EMEA bei Gigamon, Bild: Gigamon

„Sicherheitsteams fallen immer weiter zurück: Einerseits geht die Einführung von KI-Systemen viel zu schnell vonstatten, andererseits nehmen Komplexität und Schwachstellenrisiko in Public-Cloud-Umgebungen rasant zu“, sagt Mark Jow, Technical Evangelist EMEA bei Gigamon. „Deep Observability adressiert diese Herausforderung: Durch die Verbindung von MELT- und Netzwerktelemetriedaten steigt die Transparenz; Sichtbarkeitslücken werden geschlossen. Dadurch können Teams genau sehen, welche Risiken in ihrem Netzwerk existieren und diese proaktiv angehen. Auch die Mehrheit der Sicherheits- und IT-Entscheider (84 Prozent) ist sich einig: Deep Observability ist mittlerweile eine strategische Notwendigkeit – zum Beispiel, um auch KI-Implementierungen effizient abzusichern.“

Deep Observability wird zum neuen Standard

Da KI sowohl das Traffic-Volumen als auch das Risiko und die Komplexität in die Höhe treibt, wenden sich in Deutschland mehr Sicherheits- und IT-Entscheider Deep Observability zu. Für 88 Prozent leistet das Sichtbarkeitskonzept einen essenziellen Beitrag zu Management und Absicherung ihrer Hybrid-Cloud-Infrastruktur. Auch der Vorstand nimmt dieses Thema immer ernster: So steht Deep Observability in 77 Prozent der Unternehmen weit oben auf der Vorstandsagenda.

Methodik:

Die Hybrid-Cloud-Security-Studie wurde von Gigamon in Auftrag gegeben und vom 21. Februar bis 7. März 2025 durch Vitreous World durchgeführt. An der Online-Umfrage haben insgesamt 1.021 Personen aus Deutschland (150), Frankreich, Großbritannien, den Vereinigten Staaten, Singapur und Australien teilgenommen.

Weitere Informationen zum Thema:

Gigamon
Report | Risiko-Rekalibrierung im Zeitalter der KI

]]>
https://www.datensicherheit.de/hybrid-cloud-ki-sicherheit-studie-2025/feed 0
World Password Day sollte überflüssig werden – in einer von Passwörtern befreiten Zukunft https://www.datensicherheit.de/world-password-day-ueberfluessig-zukunft-ohne-passwoerter https://www.datensicherheit.de/world-password-day-ueberfluessig-zukunft-ohne-passwoerter#respond Thu, 01 May 2025 22:46:55 +0000 https://www.datensicherheit.de/?p=47523 Menschliches Verhalten bei der Auswahl der Passwörter kann mit Hilfe von KI und Rechenleistung ausgenutzt werden

[datensicherheit.de, 02.05.2025] Nach Ansicht von Tony Fergusson, „CISO in Residence“ bei Zscaler, wird der alljährlich begangene „World Password Day“ in nicht allzu ferner Zukunft ausgedient haben, wenn man die jüngsten Entwicklungen in der Authentifizierung verfolgt: „Es zeichnet sich schon heute der Trend weg von komplexen Passwörtern hin zu längeren, einprägsameren Versionen ab. Eine passwortlose Authentifizierung ist der nächste logische Schritt.“

zscaler-tony-fergusson

Foto: Zscaler

Tony Fergusson: Einfachheit und Sicherheit lassen sich kombinieren!

Das NIST hat Empfehlungen aktualisiert – hin zu längeren Passwörtern oder Passphrasen anstelle komplexer Passwörter

Der Mensch neige bei der Erstellung seiner Passwörter dazu, vorhersehbaren Mustern zu folgen, wie beispielsweise die Platzierung von Großbuchstaben am Anfang oder Sonderzeichen am Ende. „Durch dieses nur allzu menschliche Verhalten lassen sich Passwörter mit Hilfe von KI und Rechenpower allerdings leichter vorhersagen“, warnt Fergusson.

In der Folge habe das National Institute of Standards and Technology (NIST) bereits vor einigen Jahren seine Empfehlungen aktualisiert hin zu längeren Passwörtern oder Passphrasen anstelle von komplexen Passwörtern. „Indem mehrere Wörter zu einer einzigen, langen Kette kombiniert werden, werden diese Fassungen mathematisch schwerer zu knacken, und gleichzeitig sind sie für User leichter zu merken.“ Doch selbst Jahre später seien diese Empfehlungen noch nicht flächendeckend umgesetzt.

Fehleinschätzung: Passwörter höherer Komplexität gleichbedeutend mit besserer Sicherheit

Während Organisationen an überholten Praktiken der Komplexität festhielten, zeige die Realität, dass schwache Passwortstrategien Möglichkeiten für moderne Bedrohungen eröffnen. Viele Organisationen setzten nach wie vor Passwort-Komplexität mit besserer Sicherheit gleich. „Allerdings ist längst bewiesen, dass Länge einen wirksameren Schutz gegen Angriffe wie Brute-Force darstellt.“

Regulatorische Standards hinken demnach oft hinter der Wirklichkeit hinterher, und alte Systeme gehen mit Einschränkungen wie Zeichenlimits einher, welche die Umsetzung von längeren Passphrasen behindern. Der Mensch folge gerne seinen angestammten Gewohnheiten der Verwendung kurzer, komplexer Passwörter und halte an diesen Mustern über Jahrzehnte fest.

Zunehmende Gefährdung durch Diebstahl von Passwörtern

Das größte Problem bei Passwörtern jeglicher Art ist laut Fergusson jedoch die zunehmende Anzahl von Cyber-Angriffen, welche durch Passwortdiebstahl und sogenannte „Adversary-in-the-Middle“-Attacken (AiTM-Angriffe) verursacht werden.

„Viele Methoden der Multifaktor-Authentifizierung (MFA), wie einmalige Passcodes, die per SMS oder E-Mail gesendet werden, oder sogar app-basierte Codes, sind anfällig für Abfangversuche während AiTM-Angriffen.“ Diese Methoden beruhten auf dem Prinzip geteilter Geheimnisse, welche sich abfangen ließen. „Ausgeklügelte Phishing-Versuche, die legitime Websites nachahmen, um Anmeldedaten und Sitzungsdaten zu stehlen sind auf dem Vormarsch laut dem jüngsten ,ThreatLabz Phishing Report’.“

Statt Passwörter besser an die Hardware gekoppelte kryptographische Schlüssel einsetzen

Im Gegensatz dazu böten moderne Authentifizierungsmethoden wie biometrische Verfahren und physische Sicherheitsschlüssel auf Basis der „FIDO2“-Standards robusten Schutz. „,FIDO2‘ verwendet Hardware wie USB-Sicherheitsschlüssel, um eine sichere Authentifizierung durchzuführen. Anders als traditionelle Multifaktorauthentifizierung (MFA) verwendet ,FIDO2‘ Public-Key-Kryptographie, wodurch Phishing- und AiTM-Angriffe verhindert werden.“

Die eingesetzten kryptographischen Schlüssel seien an das Hardwaregerät gebunden und würden niemals mit dem Dienstanbieter geteilt. Durch die Eliminierung der Abhängigkeit von Passwörtern und abfangbaren MFA-Methoden ebneten diese Innovationen den Weg für eine sicherere, passwortlose Zukunft.

Wiederverwendung von Passwörtern bei frustrierten Anwendern

In Wirklichkeit lasse sich Komplexität nicht mit höherer Sicherheit gleichsetzen. Komplizierte Authentifizierungsmethoden führten im Gegenteil nicht selten zu Frustration und riskanten Abkürzungen, wie beispielsweise der Wiederverwendung von Passwörtern. Unternehmen sollten Lösungen wie Passphrasen, Biometrie und passwortlose Technologien (,FIDO2‘) evaluieren, die nicht nur mit Komfort einhergehen, sondern auch besseren Schutz vor modernen Bedrohungen bieten.

Fergusson abschließend: „Dieser Wandel ermöglicht einen stärkeren Schutz und eine benutzerfreundliche Möglichkeit, auf Ressourcen zuzugreifen, und beweist, dass sich Einfachheit und Sicherheit kombinieren lassen – der ,World Password Day’ sollte also eher eine passwort-lose Zukunft einläuten.“

Weitere Informationen zum Thema:

Days or the Year
World Password Day / Protect your privacy and self by taking some time to update your passwords. Avoid pet or family names, important dates, and other identifying information

datensicherheit.de, 03.02.2025
Change your Password Day 2025 mahnt: Höchste Zeit für Passkeys und Multi-Faktor-Authentifizierung / Die durchschnittliche Person verwaltet rund 100 Passwörter und verwendet daher zumeist unsichere Umgehungslösungen

datensicherheit.de, 04.05.2023
World Password(less) Day: Plädoyer für eine passwortlose und phishing-resistente Zukunft / Auch sehr komplexes Passwort gemäß BSI-Empfehlung bietet keinen ausreichenden Schutz mehr

datensicherheit.de, 29.01.2021
„Change Your Password Day“ am 1. Februar: Tipps für starke Passwörter / Schwacher Passwörter und die Mehrfachnutzung für sehr viele unterschiedliche Dienste überaus leichtsinnig

]]>
https://www.datensicherheit.de/world-password-day-ueberfluessig-zukunft-ohne-passwoerter/feed 0
SASE: Rahmenwerk zur Anpassung von IT-Infrastrukturen an die Anforderungen der neuen Arbeitsrealität https://www.datensicherheit.de/sase-rahmenwerk-it-infrastrukturen https://www.datensicherheit.de/sase-rahmenwerk-it-infrastrukturen#respond Tue, 28 Dec 2021 17:29:56 +0000 https://www.datensicherheit.de/?p=41321 Verlagerung der Kontrollfunktionen für die Sicherheitsprüfung des Datenverkehrs an den Rand des Netzwerks

Von unserem Gastautor Marc Lueck, CISO EMEA bei Zscaler

[datensicherheit.de, 28.12.2021] Mehr und mehr Computing-Funktionalität wurde in den letzten beiden Jahren ans Edge des Netzwerks verlagert – näher an den Anwender. Das machte nicht nur die geforderte Mobilität der Mitarbeiter deutlich, sondern auch die wachsende Popularität von IoT und digitalisierter OT. Diese mit dem Internet vernetzten Geräte führen dazu, dass mehr Daten als jemals zuvor an dem Edge – also am Endpunkt der Anbindung – verarbeitet werden müssen.

Marc Lueck, CISO bei Zscaler

Marc Lueck, CISO EMEA bei Zscaler, Bild: Zscaler

Secure Access Service Edge

Bei SASE (Secure Access Service Edge) handelt es sich um ein Rahmenwerk, das Unternehmen bei der Anpassung ihrer IT-Infrastrukturen an die Anforderungen der neuen Arbeitsrealität unterstützen soll. Entscheider sollten sich von vorneherein darüber im Klaren sein, ob sie SASE zur Verbesserung von Konnektivität, wie beispielsweise niedriger Latenz und Bandbreite einsetzen wollen, oder ob Kosteneinsparungen im Mittelpunkt stehen. Seine ganze Tragweite spielt das Konzept bezüglich des Security-Uplift aus.

Kontrollfunktionen für die Sicherheitsprüfung des Datenverkehrs

Im Kern des Konzepts geht es bei SASE darum, die Kontrollfunktionen für die Sicherheitsprüfung des Datenverkehrs an den Rand des Netzwerks zu verlagern. In der Vergangenheit dagegen ging es bei der Sicherheit vor allem darum, sensible Daten oder Datenverkehr innerhalb des Netzwerks zu finden und dann Sicherheitsmechanismen in Form von Perimeter-Schutz anzuwenden. SASE stellt dieses Vorgehen jedoch grundlegend auf den Kopf. Es setzt die moderne Anforderung um, dem IT-Team den Einblick in alle Datenströme zurückzugeben und einheitliche Kontrollmechanismen einzuführen, die von einer zentralen Verwaltungsplattform überwacht werden können. Dazu muss der Datenverkehr, gleichgültig ob er vom Anwender ins Internet oder zur Anwendung in der privaten Cloud geht, ob er vom IoT-Gerät oder von der Produktionsumgebung stammt, eine einheitliche Sicherheitsinstanz durchlaufen. Über die Cloud kann diese Instanz die geforderte Nähe zum Anwender oder zur Maschine haben, muss daher nicht mehr im Netzwerk-Perimeter angesiedelt sein. Die Corona-Pandemie hat dabei gezeigt, dass zur Erreichung der Nähe zum Edge nicht mehr das zentrale Rechenzentrum in Frage kommt.

Für SASE sprechen die folgenden Faktoren: Die Workflows und Datenverkehrsströme unterschieden sich nun grundlegend von denjenigen, die noch zu Zeiten von Hub-&-Spoke-Netzwerken auf der Tagesordnung standen:

  • Heute geht mehr Datenverkehr in Richtung der Cloud, als ins Rechenzentrum.
  • Die Arbeit wird ebenfalls nicht mehr innerhalb des Netzwerks verrichtet.
  • Es werden größere Workloads in Cloud Services vorgehalten, als im Rechenzentrum.
  • Applikationen werden in Form von SaaS-Anwendungen bereitgestellt, nicht mehr lokal.
  • Sensible Daten werden in Cloud Services vorgehalten, nicht mehr innerhalb des Unternehmensnetzwerks.

Aus diesen Gründen kann die Umsetzung eines SASE-Konzepts die Unternehmen bei der Reduktion ihrer IT-Komplexität unterstützen. Der sichere Zugriff auf Cloud Services sowie der Schutz von Remote Usern verlangte von IT-Abteilungen derweil in den letzten Monaten den Spagat, unterschiedlichste Sicherheitsanwendungen auf dem aktuellen Stand zu halten, wodurch nicht nur zusätzlicher Administrationsaufwand, sondern neue Kosten entstanden sind. Der SASE-Ansatz verändert das traditionelle Perimeter-Sicherheitskonzept. Anstelle des Perimeters steht der Anwender im Fokus und die Informationsverarbeitung geschieht so nahe wie möglich am Nutzer und seinem Gerät. Definierte Regelwerke entscheiden dynamisch über den erlaubten Zugriff auf Anwendungen und Services.

Zugunsten einer nahtlosen Anwender-Erfahrung in verteilten Multi-Cloud-Umgebungen wird das klassische Konzept der Netzwerksicherheit abgelöst. Anwender werden nicht mehr über VPN mit dem Netzwerk verbunden, sondern durch SASE wird die Sicherheit zum Anwender gebracht. Dabei werden die Verbindungen intelligent verwaltet und so optimiert, dass der Anwender nicht unter hoher Latenz und damit Verzögerung beim Zugriff zu leiden hat.

Weitere Informationen zum Thema:

datensicherheit.de, 30.08.2021
Olympische Sommerspiele: Zscaler kommentiert gefälschtes Streaming und Adware

]]>
https://www.datensicherheit.de/sase-rahmenwerk-it-infrastrukturen/feed 0
Senkung des Restrisikos: Cyberversicherungen im Mittelstand https://www.datensicherheit.de/cyberversicherungen-mittelstand-cybersicherheit https://www.datensicherheit.de/cyberversicherungen-mittelstand-cybersicherheit#respond Wed, 03 Jun 2020 07:59:09 +0000 https://www.datensicherheit.de/?p=36476 Steigende Komplexität der IT-Infrastruktur durch zunehmende Digitalisierung

[datensicherheit.de, 03.06.2020] Mit der Digitalisierung steigt für kleine und mittelständische Unternehmen (KMU) die Komplexität der IT-Infrastruktur, und somit auch die Gefahr, durch Cyberangriffe Schaden zu erleiden. Cybersicherheit ist dabei eng mit dem Ruf des Unternehmens, dem Vertrauen seiner Kunden, aber auch mit finanziellen Schadensrisiken verbunden. Entsprechend sind die Investitionen in Lösungen zum Schutz vor Cyberangriffen in den vergangenen Jahren auch im Mittelstand gestiegen. Ein 100%iger Schutz vor Angriffen kann allerdings nicht gewährleistet werden, vor allem da eine große Gefahr durch die Unachtsamkeit von den eigenen Mitarbeitern ausgeht. Zu den aktuell akutesten Bedrohungen für die IT- und Datensicherheit in KMUs gehören heutzutage Phishing-Attacken durch gefälschte Emails oder Web-Seiten. Es ist daher für Unternehmen ratsam sich auch auf einen Ernstfall vorzubereiten. Ein Aspekt hierbei ist der Abschluss einer Cyber-Versicherung, um im Schadensfall die finanziellen Risiken abzumindern. Veronym, Deutschlands erster Cloud Security Service Provider (CSSP), erläutert die zentralen Aspekte von Cyberversicherungen für mittelständische Unternehmen.

Cyberversicherungen in Deutschland noch relativ neu

Cyberversicherungen sind in Deutschland noch relativ neu im Vergleich zu schon lange bestehenden Versicherungen, wie Unfallschutz oder Betriebshaftpflicht. Bei Cyber-Versicherungen ist das Cyber-Risiko des Unternehmens die Grundlage für die Vertragskonditionen. Es ist allerdings nicht einfach, das Cyber-Risiko eines Unternehmens zu ermitteln, da dieses sehr von dem Grad der Digitalisierung und auch dem Reifegrad der Cyber-Schutz Maßnahmen abhängt.

„Daher treffen die Anbieter von Cyberversicherungen bei kleinen und mittelständischen Unternehmen häufig auf eine Reihe von Vorbehalten“, erläutert Dr. Michael Teschner von Veronym. Das Unternehmen arbeitet als Cloud Security Service Provider mit verschiedenen Anbietern von Cyber-Versicherungen zusammen, um speziell kleine und mittelständische Unternehmen in Sachen Cybersicherheit zu unterstützen.

„Eine Cyberversicherung ist wie ein Airbag im PKW – man möchte sich damit eigentlich am liebsten gar nicht beschäftigen und vermutet, dass man ihn eh nie benötigt. Und dennoch würde wohl kaum ein Kunde heute noch einen PKW ohne Airbag kaufen“, erklärt Michael Teschner. „Da Cyberversicherungen für den Kunden jedoch einiges komplexer sind als ein Airbag, sind viele Unternehmen noch zögerlich. Es wäre aber dringend anzuraten, sich mit diesem Thema zu beschäftigen und einige Vorbehalte einer ernsthaften Prüfung zu unterziehen.“

Skepsis wegen Kosten und Leistungsumfang

Für viele Entscheider in kleinen und mittelständischen Unternehmen ist der Begriff der Cyberversicherung noch sehr abstrakt. Dabei sind die verschiedenen Leistungen sehr plausibel und konkret: Cyber-Haftpflicht, Cyber-Betriebsunterbrechung und Cyber-Eigenschaden. Dazu kommen häufig eine Soforthilfe im Notfall sowie die die Übernahmen von Kosten für Dienstleister, die während einer akuten Krise hinzugezogen werden. Um das Niveau der Cybersicherheit vorab zu erhöhen bieten manche Versicherungen kostenfreie Cybersicherheitstrainings an. Werden diese von der Mehrheit der Belegschaft erfolgreich absolviert kann beispielsweise der Selbstbehalt reduziert werden. Außerdem unterstützen einige Anbieter ihre Kunden auch bei der regelmäßigen Aktualisierung von Krisenmanagement-Plänen.

„Zahlreiche KMUs fragen sich, ob sie sich eine Cyberversicherung überhaupt leisten können. Dabei sollte man sich eher fragen, ob man es sich leisten kann, nicht gegen entsprechende Vorfälle abgesichert zu sein“, meint  Teschner. „Rund ein Drittel aller KMUs wurden bereits Opfer eines Cyberangriffs. Knapp 22.000 Euro Schaden verursacht ein Cyberangriff im Schnitt in Kleinunternehmen. Allerdings können auch deutlich höhere Kosten im sechsstelligen Bereich entstehen.“

Klare Kriterien und Zuständigkeiten

Zunächst gilt es im Vorfeld den aktuellen Status der Cybersicherheit zu erheben. „Diese Phase kann für das Unternehmen schon sehr hilfreich sein, denn oft werden hierbei bestehende Schwachstellen erkannt“, erklärt Teschner. „Manche Versicherungen arbeiten eng mit Sicherheitsanbietern zusammen und können so Unternehmen Komplettpakete anbieten, die neben dem Schutz und dem Erkennen von Angriffen auch eine Krisen Reaktion beinhaltet.“

Im Schadensfall greift der Versicherungsschutz allerding nur wenn die bestehenden Obliegenheiten aus dem Vertrag, sprich die Pflichten des Versicherungsnehmers auch erfüllt sind. Das bedeutet, dass im laufenden Betrieb regelmäßig geprüft werden muss, ob die eingesetzten technischen Maßnahmen zum Schutz gegen Cyber-Angriffe auch immer auf dem neusten Stand sind. Wesentliche vereinfacht wird ein solcher Nachweis bei dem Einsatz von einem Security-Service. Hierbei ist der Betreiber in der Verantwortung die Anforderungen zu gewährleisten und das Unternehmen kann sich auf seine Kernkompetenzen fokussieren.

Neben dem Preis-/Leistungsverhältnis in Bezug auf eine Schadensregulierung sollten Unternehmen auch darauf achten, welche zusätzlichen Leistungen die Versicherung umfasst. So können regelmäßige Informationen rund das Thema Cybersicherheit Unternehmen dabei helfen die Gefahr eines erfolgreichen Angriffs zu minimieren.

Grundsätzlich rät Veronym kleinen und mittelständischen Unternehmen dazu, vor dem Abschluss einer Cyberversicherung zusammen mit kompetenten Beratern der Versicherung die eigenen IT-Sicherheitsvorkehrungen gründlich unter die Lupe zu nehmen. „In den USA und UK sind sehr viele Unternehmen mit diesem Thema schon vertraut und nutzen eine entsprechende Versicherung. In Deutschland hingegen stehen wir hier noch am Anfang“, fasst Michael Teschner abschließend zusammen. „Den Unternehmen, die den Wert einer Cyberversicherung erkannt haben, möchte ich dringend raten, bei ihrer Entscheidung das ganze Bild zu betrachten. Technische Maßnahmen, Krisenvorsorge und Cyberversicherung sollte man nicht als voneinander unabhängige Inseln betrachten, sondern vielmehr als Einheit, bei der die drei Elemente aufeinander abgestimmt sein müssen, um den bestmöglichen Effekt zu erzielen.“

Weitere Informationen zum Thema:

Veronym
Unternehmenswebsite

datensicherheit.de, 05.07.2019
Verborgene Cyberrisiken treffen Versicherer und Versicherte

datensicherheit.de, 30.05.2019
Fünf Tipps für Cyber-Versicherungs-Policen

datensicherheit.de, 29.04.2019
Plansecur empfiehlt Cyberversicherungen gegen Hacker

 

]]>
https://www.datensicherheit.de/cyberversicherungen-mittelstand-cybersicherheit/feed 0
Symantec-Studie: Wachsender Druck auf Security-Experten https://www.datensicherheit.de/symantec-studie-wachsender-druck-security-experten https://www.datensicherheit.de/symantec-studie-wachsender-druck-security-experten#respond Sun, 28 Apr 2019 17:56:35 +0000 https://www.datensicherheit.de/?p=31922 Regulierungen, Bedrohungen, Komplexität und Fachkräftemangel treffen Cyber-Security-Entscheider hart

[datensicherheit.de, 28.04.2019] Eine neue Studie, in Auftrag gegeben von Symantec, zeigt, wie Regulierungen, wachsende Bedrohungen und technologische Komplexität zunehmend die Cyber-Security-Entscheider in Deutschland, Frankreich und Großbritannien überfordert. Vier von fünf (82 Prozent) Security-Experten aus Frankreich, Deutschland und Großbritannien geben an, sich ausgebrannt zu fühlen. 63 Prozent denken bereits darüber nach, die Branche zu wechseln oder ihrem aktuellen Arbeitgeber zu kündigen (64 Prozent).

Symantec hat die Studie bei dem Wissenschaftler Dr. Chris Brauer, Director of Innovation bei Goldsmiths, University of London, in Auftrage gegeben. Die Studie basiert auf den Befragungen von 3.045 Cyber-Security-Entscheidern aus Frankreich, Deutschland und Großbritannien und belegt den wachsenden Druck, der aktuell in der Security-Branche herrscht.

Gesetzliche Regulierungen als Stressfaktor für Security-Experten

Gesetzliche Regulierungen stellen den größten Stressfaktor für Security-Experten dar. Vier von fünf Betroffenen berichten, dass die zunehmenden Regulierungen, zum Beispiel die EU-DSGVO und die NIS-Richtlinie, ihren Stress erhöhen. Zwei von fünf Befragten (40 Prozent insgesamt, 42 Prozent in Deutschland) äußerten ihre Bedenken, dass sie persönlich für einen Datenschutzverstoß haftbar gemacht werden könnten. Etwas mehr als die Hälfte befürchtet eine Entlassung, sollte es unter ihrer Aufsicht einen Verstoß geben. Weitere Stressfaktoren sind: zu wenig qualifiziertes Personal (80 Prozent insgesamt, 86 Prozent in Deutschland), die Größe und Komplexität des Bereichs, den sie verantworten (82 Prozent insgesamt, 91 Prozent in Deutschland) und die wachsende Zahl an Bedrohungen insgesamt (82 Prozent insgesamt, 90 Prozent in Deutschland).

„Stress hat einen großen negativen Einfluss auf unsere Fähigkeit gute Entscheidungen zu treffen“, erklärt Dr. Chris Brauer. „Er beeinträchtigt unser Gedächtnis, unser rationales Denken und unsere kognitiven Funktionen. Aber genau diese genannten Fähigkeiten sind es, die in der Cyber-Security-Branche – beispielsweise bei einem Sicherheitsvorfall – entscheidend sind. Es wird gerade bei stärkstem Druck, die Fähigkeit fokussiert und gleichzeitig kreativ zu denken als auch ein Höchstmaß an der Liebe zum Detail und rationales Handeln gefordert. Gestresste Mitarbeiter sind schnell überfordert und viele fühlen sich angesichts dieser Überforderung unfähig zu handeln. Die Gefahr ist groß, dass sich stark gestresste Mitarbeiter mental zunehmend vom stressigen Alltag abkoppeln oder letztendlich sogar kündigen, um diesem Stress zu entfliehen. In einer Branche, die bereits sehr stark unter Fachkräftemangel leidet, kann dieser Stress zu einem weiteren Risikofaktor werden.“

Hohe Alarmbereitschaft

Es ist eine Ironie des Schicksals, die zum Schutz des Unternehmens entwickelten Tools und Systeme erhöhen den Stress:

  • 79 Prozent (89 Prozent in Deutschland) berichten, dass das Management von „zu vielen Cyber-Abwehr-Lösungen oder -Anbietern“ das Stresslevel erhöht.
  • Zwei Drittel (68 Prozent insgesamt, 74 Prozent in Deutschland) fühlen sich durch die überwältigende Zahl an möglichen Bedrohungen zeitweise wie gelähmt.
  • Ein Drittel (33 Prozent insgesamt, 35 Prozent in Deutschland) berichten, dass die hohe Anzahl an Benachrichtigungen über mögliche Bedrohungen die Situation zunehmend verschlimmert.
  • Angesichts dieser enormen Arbeitsbelastung gaben die meisten Befragten an (67 Prozent insgesamt, 72 Prozent in Deutschland), dass ihr Cyber-Security-Team am Ende des Arbeitstages die Bedrohungswarnungen nicht komplett überprüft hat.

Das wirkt sich auf die Sicherheit des Unternehmens aus:

  • Bereits 41 Prozent (37 Prozent in Deutschland) stimmen zu, dass ein Sicherheitsvorfall unvermeidlich scheint.
  • Ein Drittel (32 Prozent insgesamt, 30 Prozent in Deutschland) sagt, dass ihre Organisation derzeit anfällig für vermeidbare Cybersicherheitsvorfälle ist.
  • Ein Viertel (26 Prozent insgesamt und in Deutschland) gab zu, dass es bereits einen vermeidbaren Cybersicherheitsvorfall gab.

„Viele CISOs kennen keinen Feierabend“, erklärt Darren Thomson, EMEA CTO, Symantec. „Der aktuelle Patchwork-Ansatz für Sicherheitswerkzeuge und -strategien schafft mehr Probleme als sie zu lösen. Es gibt täglich eine Vielzahl von Warnungen und es ist nur noch schwer möglich auszumachen, welche ein gezielter Angriff und welche ein falscher Alarm ist. Der Flickenteppich aus verschiedenen Abwehrsystemen bietet durch seine Überschneidungen und Lücken, Hackern neue Angriffsmöglichkeiten.“

Die kommenden Herausforderungen

Zwei Drittel der Security-Experten (65 Prozent insgesamt, 67 Prozent in Deutschland) meinen, sie seien zum Scheitern verurteilt. Dennoch scheinen die hohe Arbeitsbelastung und der Druck nicht abzuschrecken. Die überwiegende Mehrheit der Security-Experten meinen selbst Adrenalin-Junkies zu sein, die vollständig in ihrer Arbeit aufgehen, selbst wenn es stressig werden würde (92 Prozent in Deutschland und insgesamt). Neun von zehn fühlen sich durch stressige Situationen zusätzlich motiviert und 92 Prozent (insgesamt und in Deutschland) berichten, dass sie ihr Arbeitsumfeld spannend finden.

Darren Thomson, EMEA CTO, Symantec sieht darin auch etwas Positives: „Cyber-Security-Experten werden auch zukünftig mit einer steigenden Anzahl an Herausforderungen konfrontiert sein. Enthusiasmus für stressige Situationen ist dabei vorteilhaft.“

Der schnelle Wandel und das rasante Datenwachstum stellen bereits für viele Experten eine Herausforderung dar. Vier von fünf (82 Prozent insgesamt, 91 Prozent in Deutschland) berichten, die Absicherung von zu vielen Daten an zu vielen Orten erhöht das Stresslevel im Arbeitsalltag. Fast die Hälfte der Befragten (45 Prozent insgesamt, 48 Prozent in Deutschland) gibt an, dass der technologische Wandel zu schnell kommt und ihren Teams nicht genügend Zeit lässt, sich auf die geänderten Bedingungen einzustellen.

„Cyberabwehr erfolgte seit der Internetanbindung von Computern und Systemen schon immer fast nur reaktiv“, sagt Thomson. „Mit neuen Technologien kommen aber neue Bedrohungen hinzu und mit jeder neuen Bedrohung wurde ein neuer Abwehrmechanismus entwickelt. Das führt zu einem ewigen Tauziehen zwischen Unternehmen sowie der Security-Branche auf der einen und Hackern auf der anderen Seite. Es wird Zeit, dass Unternehmen einen Schritt in Richtung eines effektiven und umfassenden Cyberabwehr-Konzepts zu gehen.“

Weitere Informationen zum Thema:

Symantec
Cybersecurity 2019 – Kapitel 1 Die Verkettung unglücklicher Umstände

datensicherheit.de, 24.04.2019
Insider Threats Report 2018 von Securonix veröffentlicht

datensicherheit.de, 11.03.2019
Warum ein CISO auch als Data Privacy Officer tätig wird

datensicherheit.de, 03.03.2019
Cybersicherheit: Vom Kostenfaktor zum Erfolgsfaktor

datensicherheit.de, 16.01.2017
Erster CISO-Ratgeber zur Analyse des Benutzerverhaltens vorgestellt

datensicherheit.de, 09.12.2016
CISO Security Studie: Über 80 Prozent der Unternehmen mit IT-Sicherheits-Strategie

]]>
https://www.datensicherheit.de/symantec-studie-wachsender-druck-security-experten/feed 0
Studie: Backup und Datenwiederherstellung zunehmend komplexer https://www.datensicherheit.de/studie-backup-datenwiederherstellung-zunehmende-komplexitaet https://www.datensicherheit.de/studie-backup-datenwiederherstellung-zunehmende-komplexitaet#respond Tue, 13 Nov 2018 22:43:33 +0000 https://www.datensicherheit.de/?p=29380 Befragung von C-Level und Entscheidern in den USA, Großbritannien und Deutschland im September 2018 / Kein absolutes Vertrauen in eigene Backup- und Disaster-Recovery-Kompetenz / Toleranz für Datenverluste minimal

[datensicherheit.de, 13.11.2018] Die zunehmende Komplexität von IT-Infrastrukturen, Backup und Disaster Recovery lässt den C-Level und IT-Entscheider in den USA, Großbritannien und Deutschland an ihrer Fähigkeit zu Datensicherung und Wiederherstellung zweifeln. Das ist eines der Ergebnisse der im Auftrag von Arcserve, LLC, einem langjährigen Anbieter von Lösungen für Datenschutz, im September 2018 durchgeführten Studie (Arcserve-May-Hill-Strategies-Studie).

Insgesamt sieben Ergebnisse lassen sich aus den Antworten von insgesamt 759 (in Deutschland 255) befragten Entscheidern in C-Level und IT-Management der verschiedensten Unternehmen ablesen:

  1. Zu wenige Vertrauen in Backup-Pläne und Datenrettungskompetenz
    Laut den Ergebnissen verfügen 89% der Befragten (in Deutschland: 84%) über einen Disaster-Recovery-Plan. Alarmierend ist aber, dass 74% (D:75%) nicht absolut darauf vertrauen, unternehmenskritische Daten ohne Betriebsausfälle wiederherzustellen. Nur 26% (D:24%) sind sich dessen sehr sicher, 19% (D:13%) nur recht zuversichtlich („somewhat confident“).
  2. Backup wird immer komplexer
    64% (D:69%) der befragten IT-Entscheider teilen die Meinung, dass in den letzten fünf Jahren der Schutz unternehmenskritischer Daten komplizierter bzw. nicht einfacher geworden ist – allen Anstrengungen, Kosten und Komplexität zu reduzieren, zum Trotz.
    Das liegt nicht nur am Ressourcenmangel, sondern auch an der gestiegenen Komplexität der Backup-Infrastrukturen. 51% (D:44%) der Befragten sehen in der notwendigen Zeit und Fähigkeit, das Backup zu verwalten, den Grund, ebenfalls 51% (D:43%) die hohen Kosten für den Erwerb und den Support einer Backuplösung. 47% (D:45%) machen zusätzliche oder separate Backuplösungen für die Komplexität verantwortlich, 45% (D:46%) vor allem die Vervielfachung verlangter Wiederherstellungspunkte anstelle eines täglichen Backups.
    Die Komplexität wächst in der Einschätzung von Arcserve auch durch die notwendige Sicherung von Daten, Anwendungen und Systemen in multi-generationalen IT-Infrastrukturen: Die Spannbreite dieser Systeme reicht dabei heutzutage von Nicht-x86-Systemen über x86-Systeme bis hin zu Software-as-a-Service (SaaS) oder Infrastructure-as-a-Service (IaaS). Nicht umsonst steht für die deutschen Befragten die Modernisierung von Legacy-Strukturen für die nächsten zwölf Monate mit 20 % an der Spitze der Prioritätenliste.
  3. Null Toleranz beim Datenverlust
    Zugleich sinkt aber auch die Toleranz für Datenverlust. 93 Prozent (D:94%) der Teilnehmer, erklärten, dass ihr Unternehmen allerhöchstens minimale Datenverluste bei ihrer unternehmenskritischsten Anwendungen hinnehmen könne – wenn überhaupt. Fast jeder zweite – 49 %, D:46% – erklärte, ihnen bliebe weniger als eine Stunde, um solche Informationen wiederherzustellen, bevor der Umsatz beeinträchtigt wird.
  4. RPO und RTO sind gleich wichtig
    IT-Berater sind sich uneinig darüber, ob es bei der Wiederherstellung von Daten und Anwendungen auf die Wiederherstellungsgeschwindigkeit oder auf möglichst geringen Datenverlust ankommt. Bezeichnenderweise ist für jeden vierten (D:27%) der Antwortenden der Recovery Time Objective – also die Zeit, die vom Eintritt des Schadens bis zur vollständigen Wiederherstellung des Systems höchstens vergehen darf – wichtiger. Sie wollen also möglichst schnell wieder online zu sein, egal wie viele Daten verloren gehen. Für 22% (D:28%) ist das Recovery Point Objective – also der Zeitraum, der zwischen Datensicherungen liegen darf, um den Normalbetrieb nach dem Absturz eines Systems aufrecht zu erhalten – und damit ein möglichst geringerer Datenverlust entscheidend. Für die Mehrheit ist beides (53%, in D:45%) gleich wichtig. Beide Ziele zu vereinbaren, ist außer für große Unternehmen nicht zu verwirklichen. Cloud-Lösungen mögen hier Abhilfe schaffen. Denn mit Cloud-basierten Backup- und Disaster-Recovery-as-a-Service-Lösungen lassen sich sowohl RTOs und RPOs im Minutenbereich verwirklichen. Die Abwägung der Kosten eines Datenverlustes und der Auswirkungen von Ausfallzeiten bleibt in jedem Fall eine der schwierigsten Fragen für die Unternehmen.
  5. Die Cloud ist wichtig aber nicht alle Clouds sind gleich
    Die Cloud erobert sich zunehmend ihren Platz in Backup und Datensicherheit. Auch wenn der deutsche Markt noch vorsichtiger ist. Während in den USA 55% Daten in einer privaten Cloud für völlig sicher („completely secure“) halten, sind in Großbritannien nur 45 % und in Deutschland nur 31% dieser Meinung. Die Public Cloud wird noch unsicherer eingeschätzt (US: 23%, UK:20%, D:19%). In Deutschland liegt weiterhin die lokale Speicherung (Festplatten SSD, NAS, Thumb/Flash Drive, SAN, SDS) an der Spitze mit 35% (US: 43%, UK: 40%). Das bedeutet aber auch, dass die Akzeptanz der privaten Cloud hierzulande nicht viel geringer ist, als die der lokalen Speichermedien und zudem höher als die Sicherung in Hypervisoren – nur 19% der in Deutschland Befragten (US: 29%, UK: 27%) halten letztere für sicher.
    Die Skepsis gegenüber der öffentlichen Cloud speist sich sicher aus prominenten Data-Leakage-Fällen. Vielleicht liegt dies aber auch daran, dass die meisten größeren Public-Cloud-Anbieter keine Service Level Agreements über 99,99% anbieten. Das bedeute im Ernstfall, dass eine Stunde Ausfallzeit pro Jahr und damit Verluste von rund 500.000 Dollar bei einem Unternehmen mit einem Umsatz von einer Milliarde Dollar möglich sind, ohne dass gegen ein SLA verstoßen wird.
    Mehrere Ergebnisse belegen die Relevanz der Cloud auch im deutschen Markt:

    • 74% (D:68%) nutzen bereits die private Cloud, 40 % (D: 39%) eine Public Cloud.
    • 32% aller Befragten, 29% in Deutschland, haben den Cloud-Backup für einige Daten eingerichtet. 25% (in D:27%) planen dessen Einrichtung, um einige Daten zu sichern, 20% (in D aber nur 16%), um die meisten Daten zu sichern.
    • Für 48% der deutschen Entscheider wurde die Implementierung einer Cloud-Plattform für Backup und Disaster Recovery im letzten Jahr wichtiger, für 50% die Entwicklung einer Private/Public/Hybrid Cloud-Strategie. Diese Punkte sind auch Top-Prioritäten für das nächste Jahr und liegen auf Rang Drei mit 17% bzw. auf Rang Zwei mit 19%. Eine höhere Priorität genießt nur die Modernisierung von Legacy-Infrastrukturen und -Anwendungen (20% in Deutschland).
    • D2D2C ist für 36% der Befragten die wichtigste Backup-Technologie. In Deutschland erklärten dies nur 29% der Befragten. Damit liegt der Wert aber dennoch an oberster Stelle noch vor D2D2D (21%), D2C (16%), D2D2T (15%), D2D (14%) und D2T (4%).
  6. Ransomware für viele immer noch eine Security-Aufgabe
    58% der Befragten (52% in D) waren besorgt über Ransomware-Berichte. Diese Sorge ist auch berechtigt, wenn man bedenkt, dass es zum Ende des Jahres 2019 laut Einschätzung der Experten von Cybersecurity Ventures alle 14 Sekunden zu einer Verschlüsselungsattacke kommen wird. Dennoch gibt es immer noch ein falsches Schubladendenken, wenn es um die Abwehr solcher Angriffe geht: Für 68% (in D: 59%) ist Ransomware eine Aufgabe der IT-Sicherheit, für 25% (D:31%) eine Aufgabe der Datenwiederherstellung. Dabei sind Datensicherheit und IT-Sicherheit nur zwei Seiten derselben Medaille „Datenschutz“ und können nur gemeinsam für Datensicherheit sorgen. Nicht umsonst raten auch IT-Security-Experten wiederholt an erster Stelle zu aktuellen Backups. Wenn unverschlüsselte Informationen aus einem Backup mit vertretbaren RTOs und RPOs jederzeit wiederhergestellt werden können, laufen Erpressungsversuche ins Leere.
  7. Künstliche Intelligenz im Backup von Interesse
    IT-Entscheider haben auch hohe Erwartungen an die Unterstützung von Datensicherheit durch künstliche Intelligenz. 87% der Befragten (D:83%) halten es für sehr wahrscheinlich oder in gewissem Grade wahrscheinlich, dass sie sich mit dem Einsatz von künstlicher Intelligenz in Backup und Disaster Recovery beschäftigen werden. Argumente für einen sicheren oder wahrscheinlichen Einsatz künstlicher Intelligenz wären demnach:

    • eine proaktive Replikation von Daten in die Cloud, bevor es zur Downtime oder zum Disaster kommt (71%, D: 72%),
    • die Sichtbarkeit der gesamten Backup-IT-Infrastruktur (70%, D:67%),
    • die intelligente priorisierte Wiederherstellung der am häufigsten abgefragten, für das Funktionieren mehrerer Anwendungen wichtigen oder kritischen Daten (74%, D: 73%), sowie
    • das Entwerfen und Testen verschiedener Disaster- und Recovery-Szenarien (69%, D: 71%).

Zur Studie:

Im September 2018 wurden insgesamt 759 Studenten, davon 255 Entscheidungsträger und IT-Manager aus Deutschland, 253 aus den USA und 251 aus Großbritannien befragt. Gewichtete Studie nach Branche und Verantwortlichkeit.

Weitere Informationen zum Thema:

datensicherheit.de, 26.07.2018
Fünf Schlüsselstrategien für Sicherung und Wiederherstellung von Daten

datensicherheit.de, 30.03.2017
Umfrage: Etwa ein Drittel der Befragten verlor 2016 Daten trotz Backup

]]>
https://www.datensicherheit.de/studie-backup-datenwiederherstellung-zunehmende-komplexitaet/feed 0
Handhabung von IT-Komplexität: Sechs Strategien für CIOs https://www.datensicherheit.de/handhabung-it-komplexitaet-strategien-cio https://www.datensicherheit.de/handhabung-it-komplexitaet-strategien-cio#respond Mon, 23 Jul 2018 20:32:13 +0000 https://www.datensicherheit.de/?p=28147 Aktiver Beitrag von IT-Führungskräften für den Geschäftserfolg gefordert

[datensicherheit.de, 23.07.2018] Die Zukunft erschien nie komplexer und  IT-Führungskräfte sollen längst nicht mehr nur IT-Services bereitstellen, sondern auch aktiv zum Geschäftserfolg beitragen. Mitarbeiter fordern jederzeit und überall mobilen Zugriff auf zahlreiche Anwendungen. Um Innovation und Agilität im Unternehmen zu fördern, müssen CIOs hybride und Multi-Cloud-Umgebungen sorgfältig orchestrieren – und gleichzeitig Apps, Daten, Nutzer und Netzwerke vor den wachsenden Bedrohungen durch Cyberkriminelle schützen. Dirk Pfefferle, Area Vice President Central Europe bei Citrix, identifiziert folgende sechs Strategien, die CIOs helfen, diese Herausforderungen zu meistern, die Infrastrukturen zu vereinfachen und eine zentrale Steuerung zu ermöglichen:

  1. Ressourcen auf schnellere Ergebnisse konzentrieren.
    Der Druck auf IT-Leiter, den Geschäftserfolg voranzutreiben, steigt. Eine aktuelle Gartner-Umfrage unter mehr als 3.000 technischen Führungskräften hat ergeben, dass „mindestens 84 Prozent der befragten Top-CIOs auch für Bereiche außerhalb der klassischen IT verantwortlich zeichnen“. Aus einer bereitstellenden Führungskraft ist der CIO mit leitender Business-Funktion geworden. Damit haben sich auch seine Aufgaben weiterentwickelt – von reiner Kostenkontrolle und Prozessorganisation hin zu Umsatzsteigerung und zielorientierter Datennutzung. Es gilt also, die immer komplexer werdende IT-Infrastruktur zu vereinfachen, um Ressourcen freizusetzen und bessere Ergebnisse zu erzielen. Umfangreiche Investitionen in die bestehende Infrastruktur sind dabei kein Hindernis, auch neueste Technologien und Innovationen einzusetzen, etwa die Cloud. Ein sicherer digitaler Arbeitsbereich erlaubt etwa, Altes mit Neuem zu verbinden und so eine passgenaue Cloud-Strategie zu entwickeln. Und diese hilft nicht nur, die Infrastruktur auf den neuesten Stand zu bringen, sondern auch das Maximum aus den Investitionen herauszuholen.
  2. Anwendern ermöglichen, von überall zu arbeiten.
    Die Zukunft ist mobil, so viel ist sicher. Die Notwendigkeit, überall zu jeder Zeit und auf jedem Gerät zu arbeiten – ob persönliches oder Firmeneigentum – steigt. Die B2B-Analysten von MarketsandMarkets prognostizieren ein Marktwachstum für Bring-your-own-device (BYOD) und Enterprise Mobility von 35,1 Milliarden US-Dollar im Jahr 2016 auf 73,3 Milliarden Dollar im Jahr 2021. Mitarbeiter wollen heute nahtlos auf alle Geräte und Anwendungen zugreifen können, die sie für ihre Arbeit benötigen – egal ob im Büro oder unterwegs.
  3. In Innovation investieren.
    Kaum eine Technologie wirkte in Unternehmen in den letzten Jahren so innovationstreibend wie das Cloud Computing. Cloud-basierte Infrastrukturen helfen, Kosten und Risiken zu reduzieren und gleichzeitig die Produktivität zu steigern. Auch ebnen sie Unternehmen den Weg, um neue Märkte zu erschließen, neue Geschäftsmodelle zu implementieren und neue Produkte und Dienstleistungen zu entwickeln. Laut InfoWorld ist die Public Cloud die Standardplattform schlechthin für Innovationen. Und Forrester Research beziffert die Wachstumsrate des weltweiten Public-Cloud-Marktes für das laufende Jahr mit 22 Prozent auf 178 Milliarden Dollar. Eine erfolgreiche Cloud-Strategie fokussiert Multi- oder Single-Cloud-Bedürfnisse – nicht die Anbindung an Infrastrukturen, Clouds, Endpunkte oder Rechenzentren. Es muss mit ihr möglich sein, Strategien so oft zu ändern, wie die Innovation es erfordert.
  4. Eine vereinfachte Cloud-Strategie entwerfen und bereitstellen.
    Die Umstellung auf Cloud Computing führt in vielen Unternehmen zu einem Sammelsurium aus Anbietern und Services. Mitarbeiter außerhalb der IT-Abteilung nutzen bisweilen eigene Cloud-Services. So entsteht eine Schatten-IT-Umgebung, die Kosten und Sicherheitsrisiken in die Höhe treibt. Wer sich darauf verlegt, eine zentrale Cloud-Strategie zu entwickeln und zu implementieren, kann damit auch die Nutzung von Cloud-Services in den Fachabteilungen und der IT steuern, so TechBeacon, ein digitaler Hub für IT-Experten. Eine passgenaue Cloud-Strategie verlagert Anwendungen und Daten gezielt in die Cloud, um Innovation und Agilität voranzutreiben und gleichzeitig Flexibilität und Kontrolle zu gewährleisten.
  5. Sicherheit ernst nehmen.
    Der Kontext macht die Sicherheit von morgen. Wenn Mitarbeiter überall auf unzähligen Geräten arbeiten, stoßen die bisherigen Methoden der Datensicherung per Firewall und Perimetern an ihre Grenzen. Sicherheit muss smarter werden und den User in den Fokus rücken. Der Zugriff basiert dann darauf, wer die Nutzer sind, wo sie arbeiten und welche Geräte sie nutzen. Um diese smarte Sicherheit einfach zu verwalten, bedarf es neuer Lösungen, die einen anderen Security-Ansatz verfolgen – zum Beispiel einen digitalen Arbeitsbereich mit einem sicheren digitalen Perimeter.
  6. Global denken.
    Die Welt wird immer kleiner. Dies erleichtert den Zugang zu IT-Ressourcen und Mitarbeitern rund um den Globus, so dass Unternehmen das enorme Wachstumspotenzial der Schwellenländer erschließen und kosteneffizient outsourcen können. Eine verteilte Belegschaft zu verwalten, erhöht die Komplexität der IT-Infrastruktur aber zusätzlich. Eine einheitliche Plattform, die Benutzer, Geräte, Daten, Workloads und Netzwerke zentral verwaltet, hilft, globale Ressourcen optimal zu nutzen und Data Governance-Beschränkungen einzuhalten. Cloud-Rechenzentren sind an zahlreichen Standorten weltweit verfügbar, im Fall von Microsoft Azure sind es beispielsweise 100.000. Auf diese Weise kann die IT-Abteilung Workloads in der Nähe der Personen speichern, die sie nutzen, und somit die WAN-Latenz minimieren. Diese geografische Flexibilität ermöglicht es der IT-Abteilung auch, Daten nach Bedarf innerhalb der nationalen Grenzen zu halten – rechtliche Vorschriften lassen sich damit erheblich leichter einhalten.

Weitere Informationen zum Thema:

datensicherheit.de, 04.07.2018
Cybersicherheit: Führungskräften in Europa müssen sensibilisiert werden

datensicherheit.de, 06.09.2017
DSGVO-Vorbereitungen: Deutsche Unternehmen überschätzen sich

]]>
https://www.datensicherheit.de/handhabung-it-komplexitaet-strategien-cio/feed 0
Flame: Cyberspionage 2.0 mit komplexem Schadprogramm https://www.datensicherheit.de/flame-cyberspionage-2-0-komplexem-schadprogramm https://www.datensicherheit.de/flame-cyberspionage-2-0-komplexem-schadprogramm#respond Tue, 29 May 2012 15:58:16 +0000 http://www.datensicherheit.de/?p=20131 Virenforscher entdecken Spionagesoftware mit außergewöhnlicher Funktionalität und Komplexität

[datensicherheit.de, 29.05.2012] Spezialisten von Kaspersky Lab und Symantec haben ein neuartiges, hochentwickeltes Schadprogramm entdeckt, das als Cyberwaffe missbraucht wurde um Computersyteme in zahlreichen Ländern anzugreifen. Die Qualität des Schadcodes reicht dabei an die zuvor viel beachtetenen Programme Duqu und Stuxnet heran  Wie seine beiden Vorgänger wurde der Code wohl nicht von Einzelpersonen, sondern von einer gut organisierten und finanzierten Gruppe unter klaren Vorgaben entwickelt.
Die Komplexität, die Funktionalität und das diskrete Agieren der Malware Flame übertreffen dabei alle bisher bekannten Cyberbedrohungen.

Bild: Kaspersky Labs

Bild: Kaspersky Labs

Flame verbreitet sich über zahlreiche Wege

Das Schadprogramm, von den IT-Sicherheitsexperten „Flame“ genannt, wurde unter anderem von Kaspersky Lab während einer Untersuchung im Auftrag der zur UNO gehörenden Internationalen Fernmeldeunion (International Telecommunication Union – ITU) als Worm.Win32.Flame entdeckt. Die ersten Telemetriedaten zeigen, dass sich die primären Ziele des Schadcodes in der West Bank in Palästina, Ungarn, dem Iran und dem Libanon befinden. Zu den anderen Zielen gehören Russland, Österreich, Hong Kong und die Vereinigten Arabischen Emirate.

Bild: Kaspersky Labs

Bild: Kaspersky Labs

Ziele bisher primär im Nahen Osten

Zu Industriesektoren oder den Hintergründen individueller Zielpersonen lässt sich aktuell noch nichts Konkretes sagen.
Die Malware ist auf Cyberspionage ausgerichtet und kann wertvolle Informationen stehlen, inklusive Bildschirminhalten, gespeicherten Dateien, Kontaktdaten sowie Mitschnitten von Audio-Konversationen.

Erste Untersuchungen haben ergeben, dass Flame seit über zwei Jahren (mindestens seit März 2010) „in freier Wildbahn“ existiert. Da das Programm sehr komplex ist und äußerst zielgerichtet eingesetzt wurde, konnte es bisher nicht von Sicherheitssoftware entdeckt werden.

BitDefender Labs bieten nach eigenen Angaben Removal-Tools in einer 32-Bit und einer 64-Bit-Version an (siehe unten).

Weitere Informationen unter:

Kaspersky Lab
Kaspersky Lab and ITU Research Reveals New Advanced Cyber Threat

Symantec Connect Community
Flamer: Highly Sophisticated and Discreet Threat Targets the Middle East

BitDefender Labes
Cyber Espionage Reaches New Levels with Flamer

]]>
https://www.datensicherheit.de/flame-cyberspionage-2-0-komplexem-schadprogramm/feed 0