Aktuelles, Branche, Studien - geschrieben von am Mittwoch, Januar 8, 2020 19:45 - noch keine Kommentare

Datenlecks: Kosten in Millionenhöhe

Christoph M. Kumpa benennt „Best Practices der Data Security“ für Unternehmen

[datensicherheit.de, 08.01.2020] Wenn Cyber-Kriminelle mit ihren Angriffen Zugriff auf lukrative Daten anstreben, verursacht dies „oft beträchtlichem finanziellem Schaden für das gehackte Unternehmen“, warnt Digital Guardian. Dessen „Director DACH & EE“, Christoph M. Kumpa, erläutert nachfolgende „Best Practices“ für die Datensicherheit in Unternehmen.

Christoph M. Kumpa, Digital Guardian

Bild: Digital Guardian

Christoph M. Kumpa: Ein Datenverstoß in Deutschland kostet eine Organisation durchschnittlich umgerechnet 4,32 Millionen Euro.

Weltweit 507 Unternehmen aus 17 Branchen befragt

In Deutschland kostet laut Kumpa „ein Datenverstoß eine Organisation durchschnittlich umgerechnet 4,32 Millioen Euro (4,78 Millionen US-Dollar)“, so das Ergebnis des aktuellen „Cost of a Data Breach Report“ des Ponemon Institute und IBM. Deutschland besetze damit Platz 3 nach den USA (8,19 Millionen US-Dollar) und dem Mittleren Osten (5,97 Millionen US-Dollar). Der globale Durchschnitt liege bei 3,92 Millionen US-Dollar.
Der Report hat demnach weltweit 507 Unternehmen aus 17 Branchen befragt und unter anderem untersucht, wie durch Abwehrmaßnahmen die Kosten eines Datenlecks reduziert werden könnten.

Umfassende „Data Security“-Strategie für jedes Unternehmen unumgänglich

Beispielsweise trügen Unternehmen, die Security-Automation-Technologien eingesetzt hätten, nur etwa die Hälfte der Kosten einer Datensicherheitsverletzung, verglichen mit Unternehmen, die diese Technologien nicht einsetzten.
Eine umfassende „Data Security“-Strategie sei für jedes Unternehmen deshalb heutzutage unumgänglich, um finanzielle Schäden durch Datenlecks einzudämmen, betont Kumpa.

Grundlegende „Best Practices“ für Datensicherheit

  1. Data Discovery
    „Heute befinden sich Daten nicht nur in Unternehmensnetzwerken, sondern auch in der Cloud, auf Mobilgeräten und an Homeoffice-Arbeitsplätzen. Das Aufspüren sensibler Daten sowie die Transparenz zu wissen, wohin Daten fließen, wer darauf Zugriff hat und sie weitergeben kann, ist grundlegend für die Datensicherheit.“ Ansonsten könnten Unternehmen nicht bewerten, welche Dateien, Dokumente oder Geistiges Eigentum das größte Risiko bei einem Sicherheitsverstoß darstellten. Der erste Schritt sei deshalb die Entwicklung einer organisatorischen Sichtung und Strukturierung aller Daten.
    Umfassende „Data Loss Prevention“-Lösungen (DLP) verfügten über „Data Discovery“-Appliances. Diese ermöglichten ein automatisches, konfigurierbares Scannen von lokalen und Netzwerk-Freigaben unter Verwendung von erkennungsspezifischen Inspektionsrichtlinien, „um sensible Daten überall dort zu finden, wo sie sich befinden“. Detaillierte Auditprotokolle und -berichte lieferten zudem die erforderlichen Informationen, um die Einhaltung von Vorschriften nachzuweisen, vertrauliche Informationen zu schützen und das Risiko von Datenverlusten zu verringern.
  2. Datenklassifizierung
    Die Strategien zur Datenklassifizierung könnten von Unternehmen zu Unternehmen variieren, „aber durch den Einsatz von DLP-Tools zur Analyse sensibler Daten und der Anwendung von Richtlinien können Unternehmen die dringend benötigte Struktur in ihre Sicherheitsstrategie implementieren“. Üblicherweise werden laut Kumpa Daten in folgende Kategorien eingeteilt:

    • „Eingeschränkt“: Daten, die bei einem Datenleck dauerhafte und schwere Konsequenzen für ein Unternehmen bedeuten.
    • „Vertraulich“: Daten, die vor unbefugtem Zugriff geschützt werden müssen und mäßig sensible Informationen enthalten.
    • „Öffentlich“: Daten, die geteilt werden dürfen.
  3. Zugriffskontrollen und kontinuierliche Datenverfolgung
    Kumpa: „Nachdem die Daten klassifiziert wurden, sollten Unternehmen sicherstellen, dass auf Benutzerebene geeignete Sicherheitskontrollen vorhanden sind, um Informationen vor Diebstahl zu schützen.“ Richtlinienkontrollen stellten sicher, dass Daten nicht durch böswillige oder fahrlässige Mitarbeiter verändert, verloren oder gestohlen werden könnten. Gerade unvorsichtige Mitarbeiter seien seit Jahren eine der Hauptursachen für den Verlust von Unternehmensdaten.
    Um Risiken zu minimieren, entschieden sich deshalb viele Unternehmen für Kontrollen, die den Datenzugriff für die Mitarbeiter einschränkten. Dies stelle sicher, dass Angestellte nur Zugang auf für ihre Arbeit notwendige Daten hätten. „Data Loss Prevention“-Tools böten hier die Überwachung, Verfolgung und den Schutz sensibler Daten vor nicht autorisiertem Zugriff während des gesamten Verarbeitungszyklus, „unabhängig davon, ob sie sich im Ruhezustand, Gebrauch oder in Übertragung befinden“. Einige Lösungen verfügten über Richtlinien, die das Auffordern, Blockieren oder automatische Verschlüsseln ermöglichten, wenn ein Benutzer mit sensiblen Daten arbeitet. Andere könnten so konfiguriert werden, dass sie unbefugten Zugriff auf sensible Inhalte, Manipulationen oder die Synchronisierung mit Cloud-Umgebungen vollständig verhinderten.
  4. Mitarbeiteraufklärung bei riskantem Verhalten
    Neben der Möglichkeit, kritische Daten zu überwachen und zu verfolgen, könnten Kontrollen zudem verhindern, dass Benutzer bestimmte Handlungen ausführen, wie etwa Daten zu verschieben, zu kopieren oder zu drucken.
    In diesen Szenarien könnten Administratoren DLP-Lösungen einsetzen, um Nutzern Benachrichtigungen anzuzeigen, die erklärten, weshalb eine Handlung – sei es der Zugriff, das Verschieben oder das Verschicken bestimmter Daten per Mail – verboten ist. Dies trage zur Aufklärung der Mitarbeiter bei und fördere die Optimierung im Umgang mit kritischen Informationen.
  5. Einsatz verhaltensbasierter Erkennungswerkzeuge
    Neben „Data Loss Prevention“ könnten zudem Lösungen wie „Endpoint Detection and Response“ (EDR) oder „Advanced Threat Protection“ (ATP) Bedrohungen in Echtzeit erkennen, „bevor Daten gefährdet werden“. EDR-Tools überwachten Endpunkt- und Netzwerkereignisse und speicherten diese Informationen in einer zentralen Datenbank. Diese Daten würden auf Anomalien wie selten auftretende Prozesse, ungewöhnliche oder unbekannte Verbindungen und andere verdächtige Aktivitäten untersucht.
    Der Vorgang könne automatisiert werden, wobei Anomalien Alarme für sofortige Gegenmaßnahmen oder weiterführende Untersuchungen auslösten. Zudem böten viele EDR-Tools auch eine manuelle oder nutzergesteuerte Datenanalyse.

Wertvolle Daten zielgerichtet gegen externe Angreifer und Insider-Bedrohungen verteidigen

„Wenn Organisationen genau wissen, welche ihrer Daten besonders wertvoll sind, können sie diese zielgerichtet durch kontinuierliche Überwachung und Verschlüsselung gegen externe Angreifer und Insider-Bedrohungen verteidigen, selbst im Fall eines Sicherheitsverstoßes.“
Der Einsatz der oben genannten „Data Security-Best Practices“ könne Unternehmen helfen, ihre sensiblen Informationen besser zu schützen und hohe Kosten durch einen Sicherheitsvorfall zu vermeiden.

Weitere Informationen zum Thema:

IBM
How much would a data breach cost your business?

datensicherheit.de, 14.10.2019
Bösartige Unbekannte: Zero-Day-Angriffe

datensicherheit.de, 17.09.2019
Advanced Malware: Fünf Best Practices zum Schutz / APT-Attacken dienen Spionage und Datendiebstahl

datensicherheit.de, 28.08.2019
Cyber-Sabotage durch Datenmanipulation / Wenn Kriminelle Daten nicht stehlen, sondern gezielt verändern

datensicherheit.de, 12.06.2019
Sicherheitsfokus direkt auf sensible Unternehmensdaten lenken / 4 grundlegende „Best Practices“ für datenzentrierten Sicherheitsansatz



Kommentieren

Kommentar

Kooperation

TeleTrusT

Mitgliedschaft

German Mittelstand e.V.

Mitgliedschaft

BISG e.V.

Multiplikator

Allianz für Cybersicherheit

Datenschutzerklärung