Komplexität – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Sat, 01 Jan 2022 17:40:34 +0000 de-DE hourly 1 SASE: Rahmenwerk zur Anpassung von IT-Infrastrukturen an die Anforderungen der neuen Arbeitsrealität https://www.datensicherheit.de/sase-rahmenwerk-it-infrastrukturen https://www.datensicherheit.de/sase-rahmenwerk-it-infrastrukturen#respond Tue, 28 Dec 2021 17:29:56 +0000 https://www.datensicherheit.de/?p=41321 Marc Lueck, CISO bei ZscalerSASE | Verlagerung der Kontrollfunktionen für die Sicherheitsprüfung des Datenverkehrs an den Rand des Netzwerks]]> Marc Lueck, CISO bei Zscaler

Verlagerung der Kontrollfunktionen für die Sicherheitsprüfung des Datenverkehrs an den Rand des Netzwerks

Von unserem Gastautor Marc Lueck, CISO EMEA bei Zscaler

[datensicherheit.de, 28.12.2021] Mehr und mehr Computing-Funktionalität wurde in den letzten beiden Jahren ans Edge des Netzwerks verlagert – näher an den Anwender. Das machte nicht nur die geforderte Mobilität der Mitarbeiter deutlich, sondern auch die wachsende Popularität von IoT und digitalisierter OT. Diese mit dem Internet vernetzten Geräte führen dazu, dass mehr Daten als jemals zuvor an dem Edge – also am Endpunkt der Anbindung – verarbeitet werden müssen.

Marc Lueck, CISO bei Zscaler

Marc Lueck, CISO EMEA bei Zscaler, Bild: Zscaler

Secure Access Service Edge

Bei SASE (Secure Access Service Edge) handelt es sich um ein Rahmenwerk, das Unternehmen bei der Anpassung ihrer IT-Infrastrukturen an die Anforderungen der neuen Arbeitsrealität unterstützen soll. Entscheider sollten sich von vorneherein darüber im Klaren sein, ob sie SASE zur Verbesserung von Konnektivität, wie beispielsweise niedriger Latenz und Bandbreite einsetzen wollen, oder ob Kosteneinsparungen im Mittelpunkt stehen. Seine ganze Tragweite spielt das Konzept bezüglich des Security-Uplift aus.

Kontrollfunktionen für die Sicherheitsprüfung des Datenverkehrs

Im Kern des Konzepts geht es bei SASE darum, die Kontrollfunktionen für die Sicherheitsprüfung des Datenverkehrs an den Rand des Netzwerks zu verlagern. In der Vergangenheit dagegen ging es bei der Sicherheit vor allem darum, sensible Daten oder Datenverkehr innerhalb des Netzwerks zu finden und dann Sicherheitsmechanismen in Form von Perimeter-Schutz anzuwenden. SASE stellt dieses Vorgehen jedoch grundlegend auf den Kopf. Es setzt die moderne Anforderung um, dem IT-Team den Einblick in alle Datenströme zurückzugeben und einheitliche Kontrollmechanismen einzuführen, die von einer zentralen Verwaltungsplattform überwacht werden können. Dazu muss der Datenverkehr, gleichgültig ob er vom Anwender ins Internet oder zur Anwendung in der privaten Cloud geht, ob er vom IoT-Gerät oder von der Produktionsumgebung stammt, eine einheitliche Sicherheitsinstanz durchlaufen. Über die Cloud kann diese Instanz die geforderte Nähe zum Anwender oder zur Maschine haben, muss daher nicht mehr im Netzwerk-Perimeter angesiedelt sein. Die Corona-Pandemie hat dabei gezeigt, dass zur Erreichung der Nähe zum Edge nicht mehr das zentrale Rechenzentrum in Frage kommt.

Für SASE sprechen die folgenden Faktoren: Die Workflows und Datenverkehrsströme unterschieden sich nun grundlegend von denjenigen, die noch zu Zeiten von Hub-&-Spoke-Netzwerken auf der Tagesordnung standen:

  • Heute geht mehr Datenverkehr in Richtung der Cloud, als ins Rechenzentrum.
  • Die Arbeit wird ebenfalls nicht mehr innerhalb des Netzwerks verrichtet.
  • Es werden größere Workloads in Cloud Services vorgehalten, als im Rechenzentrum.
  • Applikationen werden in Form von SaaS-Anwendungen bereitgestellt, nicht mehr lokal.
  • Sensible Daten werden in Cloud Services vorgehalten, nicht mehr innerhalb des Unternehmensnetzwerks.

Aus diesen Gründen kann die Umsetzung eines SASE-Konzepts die Unternehmen bei der Reduktion ihrer IT-Komplexität unterstützen. Der sichere Zugriff auf Cloud Services sowie der Schutz von Remote Usern verlangte von IT-Abteilungen derweil in den letzten Monaten den Spagat, unterschiedlichste Sicherheitsanwendungen auf dem aktuellen Stand zu halten, wodurch nicht nur zusätzlicher Administrationsaufwand, sondern neue Kosten entstanden sind. Der SASE-Ansatz verändert das traditionelle Perimeter-Sicherheitskonzept. Anstelle des Perimeters steht der Anwender im Fokus und die Informationsverarbeitung geschieht so nahe wie möglich am Nutzer und seinem Gerät. Definierte Regelwerke entscheiden dynamisch über den erlaubten Zugriff auf Anwendungen und Services.

Zugunsten einer nahtlosen Anwender-Erfahrung in verteilten Multi-Cloud-Umgebungen wird das klassische Konzept der Netzwerksicherheit abgelöst. Anwender werden nicht mehr über VPN mit dem Netzwerk verbunden, sondern durch SASE wird die Sicherheit zum Anwender gebracht. Dabei werden die Verbindungen intelligent verwaltet und so optimiert, dass der Anwender nicht unter hoher Latenz und damit Verzögerung beim Zugriff zu leiden hat.

Weitere Informationen zum Thema:

datensicherheit.de, 30.08.2021
Olympische Sommerspiele: Zscaler kommentiert gefälschtes Streaming und Adware

]]>
https://www.datensicherheit.de/sase-rahmenwerk-it-infrastrukturen/feed 0
Senkung des Restrisikos: Cyberversicherungen im Mittelstand https://www.datensicherheit.de/cyberversicherungen-mittelstand-cybersicherheit https://www.datensicherheit.de/cyberversicherungen-mittelstand-cybersicherheit#respond Wed, 03 Jun 2020 07:59:09 +0000 https://www.datensicherheit.de/?p=36476 Steigende Komplexität der IT-Infrastruktur durch zunehmende Digitalisierung

[datensicherheit.de, 03.06.2020] Mit der Digitalisierung steigt für kleine und mittelständische Unternehmen (KMU) die Komplexität der IT-Infrastruktur, und somit auch die Gefahr, durch Cyberangriffe Schaden zu erleiden. Cybersicherheit ist dabei eng mit dem Ruf des Unternehmens, dem Vertrauen seiner Kunden, aber auch mit finanziellen Schadensrisiken verbunden. Entsprechend sind die Investitionen in Lösungen zum Schutz vor Cyberangriffen in den vergangenen Jahren auch im Mittelstand gestiegen. Ein 100%iger Schutz vor Angriffen kann allerdings nicht gewährleistet werden, vor allem da eine große Gefahr durch die Unachtsamkeit von den eigenen Mitarbeitern ausgeht. Zu den aktuell akutesten Bedrohungen für die IT- und Datensicherheit in KMUs gehören heutzutage Phishing-Attacken durch gefälschte Emails oder Web-Seiten. Es ist daher für Unternehmen ratsam sich auch auf einen Ernstfall vorzubereiten. Ein Aspekt hierbei ist der Abschluss einer Cyber-Versicherung, um im Schadensfall die finanziellen Risiken abzumindern. Veronym, Deutschlands erster Cloud Security Service Provider (CSSP), erläutert die zentralen Aspekte von Cyberversicherungen für mittelständische Unternehmen.

Cyberversicherungen in Deutschland noch relativ neu

Cyberversicherungen sind in Deutschland noch relativ neu im Vergleich zu schon lange bestehenden Versicherungen, wie Unfallschutz oder Betriebshaftpflicht. Bei Cyber-Versicherungen ist das Cyber-Risiko des Unternehmens die Grundlage für die Vertragskonditionen. Es ist allerdings nicht einfach, das Cyber-Risiko eines Unternehmens zu ermitteln, da dieses sehr von dem Grad der Digitalisierung und auch dem Reifegrad der Cyber-Schutz Maßnahmen abhängt.

„Daher treffen die Anbieter von Cyberversicherungen bei kleinen und mittelständischen Unternehmen häufig auf eine Reihe von Vorbehalten“, erläutert Dr. Michael Teschner von Veronym. Das Unternehmen arbeitet als Cloud Security Service Provider mit verschiedenen Anbietern von Cyber-Versicherungen zusammen, um speziell kleine und mittelständische Unternehmen in Sachen Cybersicherheit zu unterstützen.

„Eine Cyberversicherung ist wie ein Airbag im PKW – man möchte sich damit eigentlich am liebsten gar nicht beschäftigen und vermutet, dass man ihn eh nie benötigt. Und dennoch würde wohl kaum ein Kunde heute noch einen PKW ohne Airbag kaufen“, erklärt Michael Teschner. „Da Cyberversicherungen für den Kunden jedoch einiges komplexer sind als ein Airbag, sind viele Unternehmen noch zögerlich. Es wäre aber dringend anzuraten, sich mit diesem Thema zu beschäftigen und einige Vorbehalte einer ernsthaften Prüfung zu unterziehen.“

Skepsis wegen Kosten und Leistungsumfang

Für viele Entscheider in kleinen und mittelständischen Unternehmen ist der Begriff der Cyberversicherung noch sehr abstrakt. Dabei sind die verschiedenen Leistungen sehr plausibel und konkret: Cyber-Haftpflicht, Cyber-Betriebsunterbrechung und Cyber-Eigenschaden. Dazu kommen häufig eine Soforthilfe im Notfall sowie die die Übernahmen von Kosten für Dienstleister, die während einer akuten Krise hinzugezogen werden. Um das Niveau der Cybersicherheit vorab zu erhöhen bieten manche Versicherungen kostenfreie Cybersicherheitstrainings an. Werden diese von der Mehrheit der Belegschaft erfolgreich absolviert kann beispielsweise der Selbstbehalt reduziert werden. Außerdem unterstützen einige Anbieter ihre Kunden auch bei der regelmäßigen Aktualisierung von Krisenmanagement-Plänen.

„Zahlreiche KMUs fragen sich, ob sie sich eine Cyberversicherung überhaupt leisten können. Dabei sollte man sich eher fragen, ob man es sich leisten kann, nicht gegen entsprechende Vorfälle abgesichert zu sein“, meint  Teschner. „Rund ein Drittel aller KMUs wurden bereits Opfer eines Cyberangriffs. Knapp 22.000 Euro Schaden verursacht ein Cyberangriff im Schnitt in Kleinunternehmen. Allerdings können auch deutlich höhere Kosten im sechsstelligen Bereich entstehen.“

Klare Kriterien und Zuständigkeiten

Zunächst gilt es im Vorfeld den aktuellen Status der Cybersicherheit zu erheben. „Diese Phase kann für das Unternehmen schon sehr hilfreich sein, denn oft werden hierbei bestehende Schwachstellen erkannt“, erklärt Teschner. „Manche Versicherungen arbeiten eng mit Sicherheitsanbietern zusammen und können so Unternehmen Komplettpakete anbieten, die neben dem Schutz und dem Erkennen von Angriffen auch eine Krisen Reaktion beinhaltet.“

Im Schadensfall greift der Versicherungsschutz allerding nur wenn die bestehenden Obliegenheiten aus dem Vertrag, sprich die Pflichten des Versicherungsnehmers auch erfüllt sind. Das bedeutet, dass im laufenden Betrieb regelmäßig geprüft werden muss, ob die eingesetzten technischen Maßnahmen zum Schutz gegen Cyber-Angriffe auch immer auf dem neusten Stand sind. Wesentliche vereinfacht wird ein solcher Nachweis bei dem Einsatz von einem Security-Service. Hierbei ist der Betreiber in der Verantwortung die Anforderungen zu gewährleisten und das Unternehmen kann sich auf seine Kernkompetenzen fokussieren.

Neben dem Preis-/Leistungsverhältnis in Bezug auf eine Schadensregulierung sollten Unternehmen auch darauf achten, welche zusätzlichen Leistungen die Versicherung umfasst. So können regelmäßige Informationen rund das Thema Cybersicherheit Unternehmen dabei helfen die Gefahr eines erfolgreichen Angriffs zu minimieren.

Grundsätzlich rät Veronym kleinen und mittelständischen Unternehmen dazu, vor dem Abschluss einer Cyberversicherung zusammen mit kompetenten Beratern der Versicherung die eigenen IT-Sicherheitsvorkehrungen gründlich unter die Lupe zu nehmen. „In den USA und UK sind sehr viele Unternehmen mit diesem Thema schon vertraut und nutzen eine entsprechende Versicherung. In Deutschland hingegen stehen wir hier noch am Anfang“, fasst Michael Teschner abschließend zusammen. „Den Unternehmen, die den Wert einer Cyberversicherung erkannt haben, möchte ich dringend raten, bei ihrer Entscheidung das ganze Bild zu betrachten. Technische Maßnahmen, Krisenvorsorge und Cyberversicherung sollte man nicht als voneinander unabhängige Inseln betrachten, sondern vielmehr als Einheit, bei der die drei Elemente aufeinander abgestimmt sein müssen, um den bestmöglichen Effekt zu erzielen.“

Weitere Informationen zum Thema:

Veronym
Unternehmenswebsite

datensicherheit.de, 05.07.2019
Verborgene Cyberrisiken treffen Versicherer und Versicherte

datensicherheit.de, 30.05.2019
Fünf Tipps für Cyber-Versicherungs-Policen

datensicherheit.de, 29.04.2019
Plansecur empfiehlt Cyberversicherungen gegen Hacker

 

]]>
https://www.datensicherheit.de/cyberversicherungen-mittelstand-cybersicherheit/feed 0
Symantec-Studie: Wachsender Druck auf Security-Experten https://www.datensicherheit.de/symantec-studie-wachsender-druck-security-experten https://www.datensicherheit.de/symantec-studie-wachsender-druck-security-experten#respond Sun, 28 Apr 2019 17:56:35 +0000 https://www.datensicherheit.de/?p=31922 Regulierungen, Bedrohungen, Komplexität und Fachkräftemangel treffen Cyber-Security-Entscheider hart

[datensicherheit.de, 28.04.2019] Eine neue Studie, in Auftrag gegeben von Symantec, zeigt, wie Regulierungen, wachsende Bedrohungen und technologische Komplexität zunehmend die Cyber-Security-Entscheider in Deutschland, Frankreich und Großbritannien überfordert. Vier von fünf (82 Prozent) Security-Experten aus Frankreich, Deutschland und Großbritannien geben an, sich ausgebrannt zu fühlen. 63 Prozent denken bereits darüber nach, die Branche zu wechseln oder ihrem aktuellen Arbeitgeber zu kündigen (64 Prozent).

Symantec hat die Studie bei dem Wissenschaftler Dr. Chris Brauer, Director of Innovation bei Goldsmiths, University of London, in Auftrage gegeben. Die Studie basiert auf den Befragungen von 3.045 Cyber-Security-Entscheidern aus Frankreich, Deutschland und Großbritannien und belegt den wachsenden Druck, der aktuell in der Security-Branche herrscht.

Gesetzliche Regulierungen als Stressfaktor für Security-Experten

Gesetzliche Regulierungen stellen den größten Stressfaktor für Security-Experten dar. Vier von fünf Betroffenen berichten, dass die zunehmenden Regulierungen, zum Beispiel die EU-DSGVO und die NIS-Richtlinie, ihren Stress erhöhen. Zwei von fünf Befragten (40 Prozent insgesamt, 42 Prozent in Deutschland) äußerten ihre Bedenken, dass sie persönlich für einen Datenschutzverstoß haftbar gemacht werden könnten. Etwas mehr als die Hälfte befürchtet eine Entlassung, sollte es unter ihrer Aufsicht einen Verstoß geben. Weitere Stressfaktoren sind: zu wenig qualifiziertes Personal (80 Prozent insgesamt, 86 Prozent in Deutschland), die Größe und Komplexität des Bereichs, den sie verantworten (82 Prozent insgesamt, 91 Prozent in Deutschland) und die wachsende Zahl an Bedrohungen insgesamt (82 Prozent insgesamt, 90 Prozent in Deutschland).

„Stress hat einen großen negativen Einfluss auf unsere Fähigkeit gute Entscheidungen zu treffen“, erklärt Dr. Chris Brauer. „Er beeinträchtigt unser Gedächtnis, unser rationales Denken und unsere kognitiven Funktionen. Aber genau diese genannten Fähigkeiten sind es, die in der Cyber-Security-Branche – beispielsweise bei einem Sicherheitsvorfall – entscheidend sind. Es wird gerade bei stärkstem Druck, die Fähigkeit fokussiert und gleichzeitig kreativ zu denken als auch ein Höchstmaß an der Liebe zum Detail und rationales Handeln gefordert. Gestresste Mitarbeiter sind schnell überfordert und viele fühlen sich angesichts dieser Überforderung unfähig zu handeln. Die Gefahr ist groß, dass sich stark gestresste Mitarbeiter mental zunehmend vom stressigen Alltag abkoppeln oder letztendlich sogar kündigen, um diesem Stress zu entfliehen. In einer Branche, die bereits sehr stark unter Fachkräftemangel leidet, kann dieser Stress zu einem weiteren Risikofaktor werden.“

Hohe Alarmbereitschaft

Es ist eine Ironie des Schicksals, die zum Schutz des Unternehmens entwickelten Tools und Systeme erhöhen den Stress:

  • 79 Prozent (89 Prozent in Deutschland) berichten, dass das Management von „zu vielen Cyber-Abwehr-Lösungen oder -Anbietern“ das Stresslevel erhöht.
  • Zwei Drittel (68 Prozent insgesamt, 74 Prozent in Deutschland) fühlen sich durch die überwältigende Zahl an möglichen Bedrohungen zeitweise wie gelähmt.
  • Ein Drittel (33 Prozent insgesamt, 35 Prozent in Deutschland) berichten, dass die hohe Anzahl an Benachrichtigungen über mögliche Bedrohungen die Situation zunehmend verschlimmert.
  • Angesichts dieser enormen Arbeitsbelastung gaben die meisten Befragten an (67 Prozent insgesamt, 72 Prozent in Deutschland), dass ihr Cyber-Security-Team am Ende des Arbeitstages die Bedrohungswarnungen nicht komplett überprüft hat.

Das wirkt sich auf die Sicherheit des Unternehmens aus:

  • Bereits 41 Prozent (37 Prozent in Deutschland) stimmen zu, dass ein Sicherheitsvorfall unvermeidlich scheint.
  • Ein Drittel (32 Prozent insgesamt, 30 Prozent in Deutschland) sagt, dass ihre Organisation derzeit anfällig für vermeidbare Cybersicherheitsvorfälle ist.
  • Ein Viertel (26 Prozent insgesamt und in Deutschland) gab zu, dass es bereits einen vermeidbaren Cybersicherheitsvorfall gab.

„Viele CISOs kennen keinen Feierabend“, erklärt Darren Thomson, EMEA CTO, Symantec. „Der aktuelle Patchwork-Ansatz für Sicherheitswerkzeuge und -strategien schafft mehr Probleme als sie zu lösen. Es gibt täglich eine Vielzahl von Warnungen und es ist nur noch schwer möglich auszumachen, welche ein gezielter Angriff und welche ein falscher Alarm ist. Der Flickenteppich aus verschiedenen Abwehrsystemen bietet durch seine Überschneidungen und Lücken, Hackern neue Angriffsmöglichkeiten.“

Die kommenden Herausforderungen

Zwei Drittel der Security-Experten (65 Prozent insgesamt, 67 Prozent in Deutschland) meinen, sie seien zum Scheitern verurteilt. Dennoch scheinen die hohe Arbeitsbelastung und der Druck nicht abzuschrecken. Die überwiegende Mehrheit der Security-Experten meinen selbst Adrenalin-Junkies zu sein, die vollständig in ihrer Arbeit aufgehen, selbst wenn es stressig werden würde (92 Prozent in Deutschland und insgesamt). Neun von zehn fühlen sich durch stressige Situationen zusätzlich motiviert und 92 Prozent (insgesamt und in Deutschland) berichten, dass sie ihr Arbeitsumfeld spannend finden.

Darren Thomson, EMEA CTO, Symantec sieht darin auch etwas Positives: „Cyber-Security-Experten werden auch zukünftig mit einer steigenden Anzahl an Herausforderungen konfrontiert sein. Enthusiasmus für stressige Situationen ist dabei vorteilhaft.“

Der schnelle Wandel und das rasante Datenwachstum stellen bereits für viele Experten eine Herausforderung dar. Vier von fünf (82 Prozent insgesamt, 91 Prozent in Deutschland) berichten, die Absicherung von zu vielen Daten an zu vielen Orten erhöht das Stresslevel im Arbeitsalltag. Fast die Hälfte der Befragten (45 Prozent insgesamt, 48 Prozent in Deutschland) gibt an, dass der technologische Wandel zu schnell kommt und ihren Teams nicht genügend Zeit lässt, sich auf die geänderten Bedingungen einzustellen.

„Cyberabwehr erfolgte seit der Internetanbindung von Computern und Systemen schon immer fast nur reaktiv“, sagt Thomson. „Mit neuen Technologien kommen aber neue Bedrohungen hinzu und mit jeder neuen Bedrohung wurde ein neuer Abwehrmechanismus entwickelt. Das führt zu einem ewigen Tauziehen zwischen Unternehmen sowie der Security-Branche auf der einen und Hackern auf der anderen Seite. Es wird Zeit, dass Unternehmen einen Schritt in Richtung eines effektiven und umfassenden Cyberabwehr-Konzepts zu gehen.“

Weitere Informationen zum Thema:

Symantec
Cybersecurity 2019 – Kapitel 1 Die Verkettung unglücklicher Umstände

datensicherheit.de, 24.04.2019
Insider Threats Report 2018 von Securonix veröffentlicht

datensicherheit.de, 11.03.2019
Warum ein CISO auch als Data Privacy Officer tätig wird

datensicherheit.de, 03.03.2019
Cybersicherheit: Vom Kostenfaktor zum Erfolgsfaktor

datensicherheit.de, 16.01.2017
Erster CISO-Ratgeber zur Analyse des Benutzerverhaltens vorgestellt

datensicherheit.de, 09.12.2016
CISO Security Studie: Über 80 Prozent der Unternehmen mit IT-Sicherheits-Strategie

]]>
https://www.datensicherheit.de/symantec-studie-wachsender-druck-security-experten/feed 0
Studie: Backup und Datenwiederherstellung zunehmend komplexer https://www.datensicherheit.de/studie-backup-datenwiederherstellung-zunehmende-komplexitaet https://www.datensicherheit.de/studie-backup-datenwiederherstellung-zunehmende-komplexitaet#respond Tue, 13 Nov 2018 22:43:33 +0000 https://www.datensicherheit.de/?p=29380 Befragung von C-Level und Entscheidern in den USA, Großbritannien und Deutschland im September 2018 / Kein absolutes Vertrauen in eigene Backup- und Disaster-Recovery-Kompetenz / Toleranz für Datenverluste minimal

[datensicherheit.de, 13.11.2018] Die zunehmende Komplexität von IT-Infrastrukturen, Backup und Disaster Recovery lässt den C-Level und IT-Entscheider in den USA, Großbritannien und Deutschland an ihrer Fähigkeit zu Datensicherung und Wiederherstellung zweifeln. Das ist eines der Ergebnisse der im Auftrag von Arcserve, LLC, einem langjährigen Anbieter von Lösungen für Datenschutz, im September 2018 durchgeführten Studie (Arcserve-May-Hill-Strategies-Studie).

Insgesamt sieben Ergebnisse lassen sich aus den Antworten von insgesamt 759 (in Deutschland 255) befragten Entscheidern in C-Level und IT-Management der verschiedensten Unternehmen ablesen:

  1. Zu wenige Vertrauen in Backup-Pläne und Datenrettungskompetenz
    Laut den Ergebnissen verfügen 89% der Befragten (in Deutschland: 84%) über einen Disaster-Recovery-Plan. Alarmierend ist aber, dass 74% (D:75%) nicht absolut darauf vertrauen, unternehmenskritische Daten ohne Betriebsausfälle wiederherzustellen. Nur 26% (D:24%) sind sich dessen sehr sicher, 19% (D:13%) nur recht zuversichtlich („somewhat confident“).
  2. Backup wird immer komplexer
    64% (D:69%) der befragten IT-Entscheider teilen die Meinung, dass in den letzten fünf Jahren der Schutz unternehmenskritischer Daten komplizierter bzw. nicht einfacher geworden ist – allen Anstrengungen, Kosten und Komplexität zu reduzieren, zum Trotz.
    Das liegt nicht nur am Ressourcenmangel, sondern auch an der gestiegenen Komplexität der Backup-Infrastrukturen. 51% (D:44%) der Befragten sehen in der notwendigen Zeit und Fähigkeit, das Backup zu verwalten, den Grund, ebenfalls 51% (D:43%) die hohen Kosten für den Erwerb und den Support einer Backuplösung. 47% (D:45%) machen zusätzliche oder separate Backuplösungen für die Komplexität verantwortlich, 45% (D:46%) vor allem die Vervielfachung verlangter Wiederherstellungspunkte anstelle eines täglichen Backups.
    Die Komplexität wächst in der Einschätzung von Arcserve auch durch die notwendige Sicherung von Daten, Anwendungen und Systemen in multi-generationalen IT-Infrastrukturen: Die Spannbreite dieser Systeme reicht dabei heutzutage von Nicht-x86-Systemen über x86-Systeme bis hin zu Software-as-a-Service (SaaS) oder Infrastructure-as-a-Service (IaaS). Nicht umsonst steht für die deutschen Befragten die Modernisierung von Legacy-Strukturen für die nächsten zwölf Monate mit 20 % an der Spitze der Prioritätenliste.
  3. Null Toleranz beim Datenverlust
    Zugleich sinkt aber auch die Toleranz für Datenverlust. 93 Prozent (D:94%) der Teilnehmer, erklärten, dass ihr Unternehmen allerhöchstens minimale Datenverluste bei ihrer unternehmenskritischsten Anwendungen hinnehmen könne – wenn überhaupt. Fast jeder zweite – 49 %, D:46% – erklärte, ihnen bliebe weniger als eine Stunde, um solche Informationen wiederherzustellen, bevor der Umsatz beeinträchtigt wird.
  4. RPO und RTO sind gleich wichtig
    IT-Berater sind sich uneinig darüber, ob es bei der Wiederherstellung von Daten und Anwendungen auf die Wiederherstellungsgeschwindigkeit oder auf möglichst geringen Datenverlust ankommt. Bezeichnenderweise ist für jeden vierten (D:27%) der Antwortenden der Recovery Time Objective – also die Zeit, die vom Eintritt des Schadens bis zur vollständigen Wiederherstellung des Systems höchstens vergehen darf – wichtiger. Sie wollen also möglichst schnell wieder online zu sein, egal wie viele Daten verloren gehen. Für 22% (D:28%) ist das Recovery Point Objective – also der Zeitraum, der zwischen Datensicherungen liegen darf, um den Normalbetrieb nach dem Absturz eines Systems aufrecht zu erhalten – und damit ein möglichst geringerer Datenverlust entscheidend. Für die Mehrheit ist beides (53%, in D:45%) gleich wichtig. Beide Ziele zu vereinbaren, ist außer für große Unternehmen nicht zu verwirklichen. Cloud-Lösungen mögen hier Abhilfe schaffen. Denn mit Cloud-basierten Backup- und Disaster-Recovery-as-a-Service-Lösungen lassen sich sowohl RTOs und RPOs im Minutenbereich verwirklichen. Die Abwägung der Kosten eines Datenverlustes und der Auswirkungen von Ausfallzeiten bleibt in jedem Fall eine der schwierigsten Fragen für die Unternehmen.
  5. Die Cloud ist wichtig aber nicht alle Clouds sind gleich
    Die Cloud erobert sich zunehmend ihren Platz in Backup und Datensicherheit. Auch wenn der deutsche Markt noch vorsichtiger ist. Während in den USA 55% Daten in einer privaten Cloud für völlig sicher („completely secure“) halten, sind in Großbritannien nur 45 % und in Deutschland nur 31% dieser Meinung. Die Public Cloud wird noch unsicherer eingeschätzt (US: 23%, UK:20%, D:19%). In Deutschland liegt weiterhin die lokale Speicherung (Festplatten SSD, NAS, Thumb/Flash Drive, SAN, SDS) an der Spitze mit 35% (US: 43%, UK: 40%). Das bedeutet aber auch, dass die Akzeptanz der privaten Cloud hierzulande nicht viel geringer ist, als die der lokalen Speichermedien und zudem höher als die Sicherung in Hypervisoren – nur 19% der in Deutschland Befragten (US: 29%, UK: 27%) halten letztere für sicher.
    Die Skepsis gegenüber der öffentlichen Cloud speist sich sicher aus prominenten Data-Leakage-Fällen. Vielleicht liegt dies aber auch daran, dass die meisten größeren Public-Cloud-Anbieter keine Service Level Agreements über 99,99% anbieten. Das bedeute im Ernstfall, dass eine Stunde Ausfallzeit pro Jahr und damit Verluste von rund 500.000 Dollar bei einem Unternehmen mit einem Umsatz von einer Milliarde Dollar möglich sind, ohne dass gegen ein SLA verstoßen wird.
    Mehrere Ergebnisse belegen die Relevanz der Cloud auch im deutschen Markt:

    • 74% (D:68%) nutzen bereits die private Cloud, 40 % (D: 39%) eine Public Cloud.
    • 32% aller Befragten, 29% in Deutschland, haben den Cloud-Backup für einige Daten eingerichtet. 25% (in D:27%) planen dessen Einrichtung, um einige Daten zu sichern, 20% (in D aber nur 16%), um die meisten Daten zu sichern.
    • Für 48% der deutschen Entscheider wurde die Implementierung einer Cloud-Plattform für Backup und Disaster Recovery im letzten Jahr wichtiger, für 50% die Entwicklung einer Private/Public/Hybrid Cloud-Strategie. Diese Punkte sind auch Top-Prioritäten für das nächste Jahr und liegen auf Rang Drei mit 17% bzw. auf Rang Zwei mit 19%. Eine höhere Priorität genießt nur die Modernisierung von Legacy-Infrastrukturen und -Anwendungen (20% in Deutschland).
    • D2D2C ist für 36% der Befragten die wichtigste Backup-Technologie. In Deutschland erklärten dies nur 29% der Befragten. Damit liegt der Wert aber dennoch an oberster Stelle noch vor D2D2D (21%), D2C (16%), D2D2T (15%), D2D (14%) und D2T (4%).
  6. Ransomware für viele immer noch eine Security-Aufgabe
    58% der Befragten (52% in D) waren besorgt über Ransomware-Berichte. Diese Sorge ist auch berechtigt, wenn man bedenkt, dass es zum Ende des Jahres 2019 laut Einschätzung der Experten von Cybersecurity Ventures alle 14 Sekunden zu einer Verschlüsselungsattacke kommen wird. Dennoch gibt es immer noch ein falsches Schubladendenken, wenn es um die Abwehr solcher Angriffe geht: Für 68% (in D: 59%) ist Ransomware eine Aufgabe der IT-Sicherheit, für 25% (D:31%) eine Aufgabe der Datenwiederherstellung. Dabei sind Datensicherheit und IT-Sicherheit nur zwei Seiten derselben Medaille „Datenschutz“ und können nur gemeinsam für Datensicherheit sorgen. Nicht umsonst raten auch IT-Security-Experten wiederholt an erster Stelle zu aktuellen Backups. Wenn unverschlüsselte Informationen aus einem Backup mit vertretbaren RTOs und RPOs jederzeit wiederhergestellt werden können, laufen Erpressungsversuche ins Leere.
  7. Künstliche Intelligenz im Backup von Interesse
    IT-Entscheider haben auch hohe Erwartungen an die Unterstützung von Datensicherheit durch künstliche Intelligenz. 87% der Befragten (D:83%) halten es für sehr wahrscheinlich oder in gewissem Grade wahrscheinlich, dass sie sich mit dem Einsatz von künstlicher Intelligenz in Backup und Disaster Recovery beschäftigen werden. Argumente für einen sicheren oder wahrscheinlichen Einsatz künstlicher Intelligenz wären demnach:

    • eine proaktive Replikation von Daten in die Cloud, bevor es zur Downtime oder zum Disaster kommt (71%, D: 72%),
    • die Sichtbarkeit der gesamten Backup-IT-Infrastruktur (70%, D:67%),
    • die intelligente priorisierte Wiederherstellung der am häufigsten abgefragten, für das Funktionieren mehrerer Anwendungen wichtigen oder kritischen Daten (74%, D: 73%), sowie
    • das Entwerfen und Testen verschiedener Disaster- und Recovery-Szenarien (69%, D: 71%).

Zur Studie:

Im September 2018 wurden insgesamt 759 Studenten, davon 255 Entscheidungsträger und IT-Manager aus Deutschland, 253 aus den USA und 251 aus Großbritannien befragt. Gewichtete Studie nach Branche und Verantwortlichkeit.

Weitere Informationen zum Thema:

datensicherheit.de, 26.07.2018
Fünf Schlüsselstrategien für Sicherung und Wiederherstellung von Daten

datensicherheit.de, 30.03.2017
Umfrage: Etwa ein Drittel der Befragten verlor 2016 Daten trotz Backup

]]>
https://www.datensicherheit.de/studie-backup-datenwiederherstellung-zunehmende-komplexitaet/feed 0
Handhabung von IT-Komplexität: Sechs Strategien für CIOs https://www.datensicherheit.de/handhabung-it-komplexitaet-strategien-cio https://www.datensicherheit.de/handhabung-it-komplexitaet-strategien-cio#respond Mon, 23 Jul 2018 20:32:13 +0000 https://www.datensicherheit.de/?p=28147 Aktiver Beitrag von IT-Führungskräften für den Geschäftserfolg gefordert

[datensicherheit.de, 23.07.2018] Die Zukunft erschien nie komplexer und  IT-Führungskräfte sollen längst nicht mehr nur IT-Services bereitstellen, sondern auch aktiv zum Geschäftserfolg beitragen. Mitarbeiter fordern jederzeit und überall mobilen Zugriff auf zahlreiche Anwendungen. Um Innovation und Agilität im Unternehmen zu fördern, müssen CIOs hybride und Multi-Cloud-Umgebungen sorgfältig orchestrieren – und gleichzeitig Apps, Daten, Nutzer und Netzwerke vor den wachsenden Bedrohungen durch Cyberkriminelle schützen. Dirk Pfefferle, Area Vice President Central Europe bei Citrix, identifiziert folgende sechs Strategien, die CIOs helfen, diese Herausforderungen zu meistern, die Infrastrukturen zu vereinfachen und eine zentrale Steuerung zu ermöglichen:

  1. Ressourcen auf schnellere Ergebnisse konzentrieren.
    Der Druck auf IT-Leiter, den Geschäftserfolg voranzutreiben, steigt. Eine aktuelle Gartner-Umfrage unter mehr als 3.000 technischen Führungskräften hat ergeben, dass „mindestens 84 Prozent der befragten Top-CIOs auch für Bereiche außerhalb der klassischen IT verantwortlich zeichnen“. Aus einer bereitstellenden Führungskraft ist der CIO mit leitender Business-Funktion geworden. Damit haben sich auch seine Aufgaben weiterentwickelt – von reiner Kostenkontrolle und Prozessorganisation hin zu Umsatzsteigerung und zielorientierter Datennutzung. Es gilt also, die immer komplexer werdende IT-Infrastruktur zu vereinfachen, um Ressourcen freizusetzen und bessere Ergebnisse zu erzielen. Umfangreiche Investitionen in die bestehende Infrastruktur sind dabei kein Hindernis, auch neueste Technologien und Innovationen einzusetzen, etwa die Cloud. Ein sicherer digitaler Arbeitsbereich erlaubt etwa, Altes mit Neuem zu verbinden und so eine passgenaue Cloud-Strategie zu entwickeln. Und diese hilft nicht nur, die Infrastruktur auf den neuesten Stand zu bringen, sondern auch das Maximum aus den Investitionen herauszuholen.
  2. Anwendern ermöglichen, von überall zu arbeiten.
    Die Zukunft ist mobil, so viel ist sicher. Die Notwendigkeit, überall zu jeder Zeit und auf jedem Gerät zu arbeiten – ob persönliches oder Firmeneigentum – steigt. Die B2B-Analysten von MarketsandMarkets prognostizieren ein Marktwachstum für Bring-your-own-device (BYOD) und Enterprise Mobility von 35,1 Milliarden US-Dollar im Jahr 2016 auf 73,3 Milliarden Dollar im Jahr 2021. Mitarbeiter wollen heute nahtlos auf alle Geräte und Anwendungen zugreifen können, die sie für ihre Arbeit benötigen – egal ob im Büro oder unterwegs.
  3. In Innovation investieren.
    Kaum eine Technologie wirkte in Unternehmen in den letzten Jahren so innovationstreibend wie das Cloud Computing. Cloud-basierte Infrastrukturen helfen, Kosten und Risiken zu reduzieren und gleichzeitig die Produktivität zu steigern. Auch ebnen sie Unternehmen den Weg, um neue Märkte zu erschließen, neue Geschäftsmodelle zu implementieren und neue Produkte und Dienstleistungen zu entwickeln. Laut InfoWorld ist die Public Cloud die Standardplattform schlechthin für Innovationen. Und Forrester Research beziffert die Wachstumsrate des weltweiten Public-Cloud-Marktes für das laufende Jahr mit 22 Prozent auf 178 Milliarden Dollar. Eine erfolgreiche Cloud-Strategie fokussiert Multi- oder Single-Cloud-Bedürfnisse – nicht die Anbindung an Infrastrukturen, Clouds, Endpunkte oder Rechenzentren. Es muss mit ihr möglich sein, Strategien so oft zu ändern, wie die Innovation es erfordert.
  4. Eine vereinfachte Cloud-Strategie entwerfen und bereitstellen.
    Die Umstellung auf Cloud Computing führt in vielen Unternehmen zu einem Sammelsurium aus Anbietern und Services. Mitarbeiter außerhalb der IT-Abteilung nutzen bisweilen eigene Cloud-Services. So entsteht eine Schatten-IT-Umgebung, die Kosten und Sicherheitsrisiken in die Höhe treibt. Wer sich darauf verlegt, eine zentrale Cloud-Strategie zu entwickeln und zu implementieren, kann damit auch die Nutzung von Cloud-Services in den Fachabteilungen und der IT steuern, so TechBeacon, ein digitaler Hub für IT-Experten. Eine passgenaue Cloud-Strategie verlagert Anwendungen und Daten gezielt in die Cloud, um Innovation und Agilität voranzutreiben und gleichzeitig Flexibilität und Kontrolle zu gewährleisten.
  5. Sicherheit ernst nehmen.
    Der Kontext macht die Sicherheit von morgen. Wenn Mitarbeiter überall auf unzähligen Geräten arbeiten, stoßen die bisherigen Methoden der Datensicherung per Firewall und Perimetern an ihre Grenzen. Sicherheit muss smarter werden und den User in den Fokus rücken. Der Zugriff basiert dann darauf, wer die Nutzer sind, wo sie arbeiten und welche Geräte sie nutzen. Um diese smarte Sicherheit einfach zu verwalten, bedarf es neuer Lösungen, die einen anderen Security-Ansatz verfolgen – zum Beispiel einen digitalen Arbeitsbereich mit einem sicheren digitalen Perimeter.
  6. Global denken.
    Die Welt wird immer kleiner. Dies erleichtert den Zugang zu IT-Ressourcen und Mitarbeitern rund um den Globus, so dass Unternehmen das enorme Wachstumspotenzial der Schwellenländer erschließen und kosteneffizient outsourcen können. Eine verteilte Belegschaft zu verwalten, erhöht die Komplexität der IT-Infrastruktur aber zusätzlich. Eine einheitliche Plattform, die Benutzer, Geräte, Daten, Workloads und Netzwerke zentral verwaltet, hilft, globale Ressourcen optimal zu nutzen und Data Governance-Beschränkungen einzuhalten. Cloud-Rechenzentren sind an zahlreichen Standorten weltweit verfügbar, im Fall von Microsoft Azure sind es beispielsweise 100.000. Auf diese Weise kann die IT-Abteilung Workloads in der Nähe der Personen speichern, die sie nutzen, und somit die WAN-Latenz minimieren. Diese geografische Flexibilität ermöglicht es der IT-Abteilung auch, Daten nach Bedarf innerhalb der nationalen Grenzen zu halten – rechtliche Vorschriften lassen sich damit erheblich leichter einhalten.

Weitere Informationen zum Thema:

datensicherheit.de, 04.07.2018
Cybersicherheit: Führungskräften in Europa müssen sensibilisiert werden

datensicherheit.de, 06.09.2017
DSGVO-Vorbereitungen: Deutsche Unternehmen überschätzen sich

]]>
https://www.datensicherheit.de/handhabung-it-komplexitaet-strategien-cio/feed 0
Flame: Cyberspionage 2.0 mit komplexem Schadprogramm https://www.datensicherheit.de/flame-cyberspionage-2-0-komplexem-schadprogramm https://www.datensicherheit.de/flame-cyberspionage-2-0-komplexem-schadprogramm#respond Tue, 29 May 2012 15:58:16 +0000 http://www.datensicherheit.de/?p=20131 Spezialisten Kaspersky Lab und Symantec haben ein neuartiges, hoch entwickeltes Schadprogramm entdeckt, das als Cyberwaffe missbraucht wurde um Computersyteme in zahlreichen Ländern anzugreifen. Die Qualität des Schadcodes reicht dabei an die zuvor viel beachtetenen Programme Duqu und Stuxnet heran Wie seine beiden Vorgänger wurde der Code wohl nicht von Einzelpersonen, sondern von einer gut organisierten und finanzierten Gruppe unter klaren Vorgaben entwickelt. Die Komplexität, die Funktionalität und das diskrete Agieren der Malware Flame übertreffen dabei alle bisher bekannten Cyberbedrohungen.]]>

Virenforscher entdecken Spionagesoftware mit außergewöhnlicher Funktionalität und Komplexität

[datensicherheit.de, 29.05.2012] Spezialisten von Kaspersky Lab und Symantec haben ein neuartiges, hochentwickeltes Schadprogramm entdeckt, das als Cyberwaffe missbraucht wurde um Computersyteme in zahlreichen Ländern anzugreifen. Die Qualität des Schadcodes reicht dabei an die zuvor viel beachtetenen Programme Duqu und Stuxnet heran  Wie seine beiden Vorgänger wurde der Code wohl nicht von Einzelpersonen, sondern von einer gut organisierten und finanzierten Gruppe unter klaren Vorgaben entwickelt.
Die Komplexität, die Funktionalität und das diskrete Agieren der Malware Flame übertreffen dabei alle bisher bekannten Cyberbedrohungen.

Bild: Kaspersky Labs

Bild: Kaspersky Labs

Flame verbreitet sich über zahlreiche Wege

Das Schadprogramm, von den IT-Sicherheitsexperten „Flame“ genannt, wurde unter anderem von Kaspersky Lab während einer Untersuchung im Auftrag der zur UNO gehörenden Internationalen Fernmeldeunion (International Telecommunication Union – ITU) als Worm.Win32.Flame entdeckt. Die ersten Telemetriedaten zeigen, dass sich die primären Ziele des Schadcodes in der West Bank in Palästina, Ungarn, dem Iran und dem Libanon befinden. Zu den anderen Zielen gehören Russland, Österreich, Hong Kong und die Vereinigten Arabischen Emirate.

Bild: Kaspersky Labs

Bild: Kaspersky Labs

Ziele bisher primär im Nahen Osten

Zu Industriesektoren oder den Hintergründen individueller Zielpersonen lässt sich aktuell noch nichts Konkretes sagen.
Die Malware ist auf Cyberspionage ausgerichtet und kann wertvolle Informationen stehlen, inklusive Bildschirminhalten, gespeicherten Dateien, Kontaktdaten sowie Mitschnitten von Audio-Konversationen.

Erste Untersuchungen haben ergeben, dass Flame seit über zwei Jahren (mindestens seit März 2010) „in freier Wildbahn“ existiert. Da das Programm sehr komplex ist und äußerst zielgerichtet eingesetzt wurde, konnte es bisher nicht von Sicherheitssoftware entdeckt werden.

BitDefender Labs bieten nach eigenen Angaben Removal-Tools in einer 32-Bit und einer 64-Bit-Version an (siehe unten).

Weitere Informationen unter:

Kaspersky Lab
Kaspersky Lab and ITU Research Reveals New Advanced Cyber Threat

Symantec Connect Community
Flamer: Highly Sophisticated and Discreet Threat Targets the Middle East

BitDefender Labes
Cyber Espionage Reaches New Levels with Flamer

]]>
https://www.datensicherheit.de/flame-cyberspionage-2-0-komplexem-schadprogramm/feed 0