Big Data – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Fri, 07 Mar 2025 15:39:20 +0000 de hourly 1 https://wordpress.org/?v=5.6.16 Big Data und Cybersicherheit – Daten zum Schutz der Zukunft gegen Bedrohungen https://www.datensicherheit.de/big-data-cybersicherheit-daten-bedrohungen https://www.datensicherheit.de/big-data-cybersicherheit-daten-bedrohungen#respond Thu, 06 Mar 2025 23:14:37 +0000 https://www.datensicherheit.de/?p=46505 Starke Analyse-Tools sind Voraussetzung für die Einleitung von Gegenmaßahmen bei Cyberangriffen

Ein Beitrag von unserem Gastautor Marcel Scherbinek, Big Data Experte bei PCS Beratungscontor AG

[datensicherheit.de, 07.03.2025] Heute speichern Unternehmen riesige Datenmengen ab – ein gefundenes Fressen für Hacker. Das macht es umso wichtiger, diese Daten gezielt auszuwerten, um mögliche Angriffe rechtzeitig zu entdecken und Gegenmaßnahmen einzuleiten. Dafür braucht es ein starkes Analyse-Tool, das zuverlässig arbeitet. In diesem Artikel werfen wir einen Blick darauf, wie Big Data und Cybersicherheit zusammenhängen und warum Big Data Analytics ein Gamechanger sein kann, wenn es um den Schutz sensibler Daten geht.

Marcel Scherbinek, Big Data Experte bei PCS Beratungscontor AG

Marcel Scherbinek, Big Data Experte bei PCS Beratungscontor AG, Bild: beratungscontor

Definition – Big Data

Der Begriff Big Data beschreibt riesige Mengen an strukturierten und unstrukturierten Daten, die aufgrund ihres Umfangs mit herkömmlichen Datenbank- oder Softwaremethoden nicht verarbeitet werden können. Immer mehr Unternehmen nutzen Big Data, um Verhaltensmuster, Trends und Zusammenhänge zu erkennen. Dies eröffnet neue Möglichkeiten, Bedrohungen frühzeitig zu erkennen und maschinelles Lernen effektiv einzusetzen.

Laut Statista soll der Big-Data-Markt bis 2024 auf rund 350 Milliarden US-Dollar anwachsen. Da die Bedrohungen durch Cyberkriminalität zunehmen und Unternehmen immer größere Datenmengen verarbeiten, ist es sehr wahrscheinlich, dass dieser Markt in den kommenden Jahren noch weiter wachsen wird.

Allerdings hat die zunehmende Nutzung von Big Data auch Cyberkriminelle auf den Plan gerufen. Unternehmen, die diese Datenmengen verarbeiten, stehen häufig im Fokus von Hackern. Die wachsende Zahl an Datenschutzverletzungen in den letzten Jahren zeigt, wie angreifbar Big Data sein kann. Ein wichrige Frage ist, was Big Data aus Sicht der Cybersicherheit besonders herausfordernd macht.

Herausforderungen der Cyber Security

Eine der größten Herausforderungen im Umgang mit Big Data und Cybersicherheit ist der Schutz sensibler Daten vor Verlust oder Missbrauch. Unternehmen arbeiten täglich mit riesigen Datenmengen, die häufig vertrauliche Informationen enthalten. Wenn diese Daten durch Sicherheitslücken in die Hände von Cyberkriminellen gelangen, kann das verheerende Folgen haben – von finanziellen Schäden bis hin zu einem erheblichen Imageverlust. Deshalb reicht es nicht aus, nur auf leistungsstarke Analysetools zu setzen. Unternehmen müssen auch umfassende Sicherheitsmaßnahmen einführen, um ihre Daten bestmöglich zu schützen.

Viele traditionelle Sicherheitstools stoßen bei der schieren Größe und Komplexität von Big Data an ihre Grenzen. Insbesondere beim Schutz großer Datenströme sind diese Lösungen oft nicht ausreichend effektiv, was Sicherheitslücken entstehen lässt.

Ein weiteres Hindernis ist das fehlende Fachwissen vieler Mitarbeitenden, die für die Datenanalyse verantwortlich sind. Oft fehlt es an der nötigen Kompetenz, um potenzielle Bedrohungen rechtzeitig zu erkennen und zu stoppen. Mit der zunehmenden Integration von künstlicher Intelligenz und maschinellem Lernen sowie einem steigenden Bewusstsein für Big Data besteht jedoch Hoffnung, dass sich dieses Problem in Zukunft entschärfen wird.

Potenzial von Big Data die Cyber Security zu unterstützen

Big Data wird häufig dazu genutzt datenbasierte Entscheidungen zu treffen und ein besseres Verständnis für das Verhalten und die Vorlieben der Kundschaft zu entwickeln. Auf den ersten Blick scheint der Zusammenhang zwischen Big Data und Cybersicherheit vielleicht nicht offensichtlich, aber er gewinnt an Bedeutung, wenn man bedenkt, wie viele sensible Daten dabei verarbeitet und geschützt werden müssen.

Die aus Big Data gewonnenen Erkenntnisse können maßgeblich dazu beitragen, Sicherheitslücken zu schließen und Angriffe rechtzeitig zu erkennen. Eines der größten Probleme in der Cybersicherheit ist die Unberechenbarkeit von Bedrohungen wie Malware oder Ransomware. Genau hier zeigt Big Data seine Stärke: Durch die Analyse riesiger Datenmengen lassen sich Muster und Anomalien aufdecken, die auf mögliche Gefahren hinweisen. Dadurch können Unternehmen potenzielle Schwachstellen frühzeitig erkennen und ihre Sicherheitsmaßnahmen gezielt anpassen, bevor es zu einem Angriff kommt.

Ein weiterer Vorteil von Big Data liegt darin, dass es Unternehmen dabei unterstützt, Bedrohungen wie DDOS-Angriffe oder Social Engineering besser vorherzusehen. Noch wirkungsvoller wird Big Data, wenn es mit maschinellem Lernen und künstlicher Intelligenz kombiniert wird, da diese Technologien helfen, Bedrohungen automatisch zu erkennen und schneller darauf zu reagieren.

Die Reaktionszeit auf einen Angriff ist dabei entscheidend. Je früher Anomalien erkannt werden, desto schneller können Gegenmaßnahmen eingeleitet werden. Big Data automatisiert diesen Prozess, indem es in Echtzeit Verhaltensmuster analysiert und zwischen normalem und potenziell gefährlichem Verhalten unterscheidet. Diese Fähigkeit, ungewöhnliche Aktivitäten sofort zu erkennen, ist der Schlüssel, um Schäden zu minimieren und die Sicherheitslage eines Unternehmens nachhaltig zu verbessern.

Wichtige Voraussetung – ein wohldefinierter Prozess

  1. Datenbeschaffung: Alle relevanten Daten werden aus den verfügbaren Quellen entnommen, wobei festgelegt wird, welches Format, welcher Umfang und welche Dateneingabe-Pipeline dabei genutzt werden. Durch statische Exporte und automatisierte Prozesse erhalten Unternehmen Zugriff auf die verschiedenen Datenformate und können diese effektiv weiterverarbeiten.
  2. Optimierung: Nach der Extraktion werden die Daten von der Software auf ihre Konsistenz, Qualität und Korrektheit überprüft. Dabei wird analysiert, ob und wie die gesammelten Daten effizient weiterverarbeitet werden können, um aussagekräftige Ergebnisse zu liefern.
  3. Analyse: Die erfassten Datenströme werden anschließend auf Muster, potenzielle Fehler und wichtige Zusammenhänge analysiert. Diese Erkenntnisse ermöglichen es, Geschäftsprozesse gezielt zu verbessern und Schwachstellen in der Sicherheitsstruktur frühzeitig zu erkennen und zu beheben.

Fazit

Big Data und Cybersicherheit sind eng miteinander verflochten und stellen Unternehmen vor komplexe Herausforderungen. Wer große Datenmengen verarbeitet, gerät zunehmend ins Visier von Cyberkriminellen, was die Bedeutung einer effektiven Analyse zur rechtzeitigen Erkennung von Bedrohungen verdeutlicht. Hier kommt Big Data Analytics ins Spiel, denn sie ermöglicht es, Verhaltensmuster zu erkennen und Sicherheitsrisiken proaktiv zu managen.

Die Verbindung von Big Data mit künstlicher Intelligenz und maschinellem Lernen hebt den Schutz auf ein neues Level. Diese Technologien helfen dabei, verdächtige Aktivitäten sofort zu identifizieren und schnell darauf zu reagieren. Dadurch wird Big Data nicht zur Schwachstelle, sondern zu einem entscheidenden Werkzeug im Kampf gegen Cyberangriffe.

Über den Autor:

Marcel Scherbinek ist seit 2017 Teil des beratungscontors und verantwortet in seiner Funktion als Bereichsleiter Advanced Analytics Platform branchenübergreifendes Datenmanagement, sowie Advanced Analytics mit SAP und Non-SAP Systemen.

Als erfahrener Big Data Experte und mit seiner mehrjährigen Projekterfahrung begleitet er seine Kunden strategisch, fachlich und in der Entwicklung in einem breiten Spektrum in und um Data & Analytics. Darüber hinaus verantwortet und gestaltet er gemeinsam mit seinen Kunden komplexe Advanced Analytics Szenarien innerhalb einer Data & Analytics Landschaft.

Weitere Informationen zum Thema:

datensicherheit.de, 14.03.2019
Studie der TH Köln: Big Data – Chancen und Risiken

]]>
https://www.datensicherheit.de/big-data-cybersicherheit-daten-bedrohungen/feed 0
Datenstrategien für Big Data https://www.datensicherheit.de/big-data-daten-strategien-automatisierung https://www.datensicherheit.de/big-data-daten-strategien-automatisierung#respond Sat, 09 May 2020 14:08:10 +0000 https://www.datensicherheit.de/?p=36235 Automatisierung des Data Warehouse muss Teil der Lösung sein

Von unserem Gastautor Rob Mellor, VP und GM EMEA bei WhereScape

[datensicherheit.de, 09.05.2020] Die Im Zeitalter von Big Data könnte man davon ausgehen, dass man gar nicht genug Daten haben könnte. Denn aus Daten lassen sich in der Theorie wichtige Erkenntnisse ziehen, die Unternehmen zu ihrem Vorteil nutzen können. Und so sammeln Unternehmen seit Jahren fleißig Daten aus immer mehr Quellen ein – und stehen damit auch vor der immer komplexeren Aufgabe diese Daten sinnvoll verarbeiten zu müssen. In der Praxis macht sich schon lange vielerorts Ernüchterung breit: Denn oft führen mehr Daten nicht zwangsläufig zu besseren Ergebnissen. Das grundlegende Problem ist, dass es vielen Unternehmen einfach an einer grundlegenden Datenstrategie fehlt. Ohne diese ist es schwer zeitnah Wert aus Daten ziehen zu können. Eine passende Datenstrategie für sein Unternehmen zu haben oder diese zu erstellen, wenn es noch keine gibt, ist also ein wichtiges Element jedes Unternehmens das große Datenmengen verarbeitet.

Rob Mellor, VP und GM EMEA bei WhereScape

Bild: WhereScape

Rob Mellor, VP und GM EMEA bei WhereScape

Kern jeder Datenstrategie: Das Data-Warehouse

Eine passende Datenstrategie muss an eine Organisation und ihre Zielsetzung angepasst sein. Wenn man schnell Ergebnisse benötigt, braucht man auch eine entsprechend schnelle und agile Strategie. Wenn es aber nur darum geht, so viele Daten wie möglich zu verarbeiten, benötigt man eine Strategie, die möglichst viel Verarbeitungsleistung bietet. Doch ganz egal, wofür man seine Daten benötigt und wie man seine Datenstrategie letzten Endes erstellt, jede moderne Organisation mit vielen Daten benötigt ein modernes Data-Warehousing. Das Data-Warehouse ist der universelle Ort, an dem Daten aus vielen unterschiedlichen Quellen gesammelt werden – und der Ort, aus dem man im besten Fall die gewünschten Erkenntnisse erhält. Plant man also eine passende Datenstrategie, so ist das Data-Warehouse eines der wichtigsten Kernelemente. Ein weiterer wichtiger Bestandteil jeder modernen Datenstrategie sind Metadaten.

Verarbeitung von Metadaten wird immer wichtiger

Metadaten sind Daten, die Informationen über „andere Daten“ liefern. Metadaten haben verschiedene Zwecke. Sie helfen den Benutzern, relevante Informationen und Ressourcen zu finden und helfen der IT bei der Identifizierung und Archivierung ihrer Daten. Metadaten ermöglichen es, Daten anhand relevanter Kriterien zu finden. Mit ihnen lassen sich beispielsweise verschiedene Daten zusammenführen, ungleiche Daten unterscheiden oder Ortsangaben machen. Saubere Daten inklusive der passenden Metadaten machen es Organisationen einfacher einen Wert aus den Daten zu ziehen. Selbstredend muss ein modernes Data-Warehouse also nicht nur Daten aus vielen verschiedenen Kanälen und Quellen verarbeiten können, sondern auch die zugehörigen Metadaten. Dies betrifft auch verwandte Prozesse wie das Änderungsmanagement und die Systemdokumentation.

Hat ein Unternehmen die Verwaltung der wichtigen Metadaten erfolgreich bewältigt, profitiert davon nicht nur das Unternehmensmanagement, sondern auch die immer wichtiger werdenden Entwickler. Diese arbeiten fortan deutlich produktiver mit aktuellen und sauberen Datensätzen, auf die sie sich verlassen können.

Data Warehouse Lifecycle

Bild: WhereScape:

Die Data-Warehouse-Automatisierung hilft IT-Teams, Data Warehouse -Automation-Software kombiniert die Verwendung von Metadaten, Data Warehouse Methoden, Mustererkennung und mehr, um Entwicklern zu helfen, Data Warehouse Designs und Codierung durch den Einsatz von Data Warehouse-Design-Tools und zeitsparenden Entwicklungsassistenten und -vorlagen automatisch zu generieren. Insofern bietet Automatisierung viel mehr als bisher, indem sie viel schneller, mit weniger Projektrisiko und niedrigeren Kosten liefert und verwaltet. Zudem entfallen wiederholte Design-, Entwicklungs-, Bereitstellungs- und Betriebsaufgaben innerhalb des Data Warehouse Lebenszyklus.

Automatisierung des Data Warehouse ist notwendig

Bei immer mehr Daten und Datenquellen, ist die effektive Verwaltung des Data-Warehouse für viele IT-Abteilungen eine immer größer werdende Herausforderung. Doch wie auch in vielen anderen Bereichen des Rechenzentrums kann Automatisierung bei der Bewältigung dieser Herausforderung ein wichtiger Teil der Lösung sein. Denn das grundlegende Problem bei immer mehr Daten und komplexeren Prozessen ist, dass es einfach nicht mehr möglich ist die Dateninfrastruktur bei jeder neu hinzugefügten IT-Lösung oder Migration neu manuell zu verändern. Ein automatisiertes Data-Warehouse lässt sich hingegen relativ schnell und einfach verwalten – der Großteil der Prozesse ist ja automatisiert. Damit nimmt die Automatisierung eine große Last von den Schultern der IT und hat damit das Potenzial eine Big-Data-Strategie einfacher, billiger und konformer mit Vorschriften wie der DSGVO zu machen.

Modernisierung des Data Warehouse bedeutet zuerst: Automatisierung

Im Zeitalter von Big Data hat sich vielerorts Ernüchterung breitgemacht: Es gibt immer mehr Daten, Datenquellen und höhere Anforderungen an die Qualität der Rohdaten und deren Erkenntnisse. In der Realität ist die IT mehr damit beschäftigt Probleme beim Datenmanagement zu lösen, als Lösungen zu präsentieren. Gesucht wird vielerorts eine passende Datenstrategie, die die Verwaltung vereinfacht und dabei hilft einen Wert aus all den vorhandenen Daten ziehen zu können. Teil einer erfolgreichen Datenstrategie muss also Fundament ein modernes Data Warehouse sein. Unternehmen, die an einer Datenstrategie arbeiten, kommen nicht um die Modernisierung ihres Data Warehouse herum. Und eine der wichtigsten Aufgaben bei dieser Modernisierung ist die Automatisierung des Data Warehouse.

Weitere Informationen zum Thema:

datensicherheit.de, 15.06.2019
Mit Automatisierung Mehrwerte aus dem Internet der Dinge holen

datensicherheit.de, 14.03.2019
Studie der TH Köln: Big Data – Chancen und Risiken

]]>
https://www.datensicherheit.de/big-data-daten-strategien-automatisierung/feed 0
IT-Sicherheit: Passende Art Künstlicher Intelligenz auswählen https://www.datensicherheit.de/it-sicherheit-passende-art-kuenstlicher-intelligenz https://www.datensicherheit.de/it-sicherheit-passende-art-kuenstlicher-intelligenz#respond Tue, 13 Aug 2019 15:30:04 +0000 https://www.datensicherheit.de/?p=34178 Palo Alto Networks erörtert drei KI-Methoden

[datensicherheit.de, 13.08.2019] Künstliche Intelligenz (KI) oder Maschinelles Lernen (ML) sind laut Palo Alto Networks „mittlerweile zu Unterscheidungsmerkmalen geworden, die ein Indikator sein können, ob ein Sicherheitsanbieter mit den neuen Technologien Schritt zu halten vermag“. KI könne jedoch ein verwirrender Begriff sein, denn er werde in Verbindung mit einer ganzen Reihe von Methoden und Technologien genutzt. In der Cyber-Sicherheit gebe es „drei gängige Anwendungen, bei denen der Begriff KI auftaucht“. Unternehmen könnten dadurch erkennen, ob eine Sicherheitslösung tatsächlich KI verwendet, und vor allem, ob sie davon auch profitieren. Palo Alto Networks gibt in seiner aktuellen Meldung einen praxistauglichen Überblick.

Big-Data-Analytik

Die erste Anwendung ist demnach die sogenannte Big-Data-Analytik. Dabei würden statistische Analysen des Datenverkehrs von Websites und E-Mails oder anderer Netzwerkdaten verwendet, um Anomalien zu erkennen, die auf Sicherheitsbedrohungen wie Viren hinweisen könnten. Dieses Verfahren analysiere mehrere Datenformen, wie z.B. in E-Mails die Herkunft der Kommunikation, den eingeschlagenen Weg und den Betreff, „um vorherzusagen, ob es sich wahrscheinlich um eine Bedrohung handelt“.
Der Prozess sei jedoch recht einfach und identifiziert oft „False Positives“, wodurch legitimer Datenverkehr als bösartig eingestuft werde. Um dies zu vermeiden, würden die potenziellen Bedrohungen an menschliche Analysten weitergegeben, um wiederum eine Entscheidung zu treffen. „Dies ist keine ,richtige‘ KI, da die Anwendung letztendlich auf einem hohen Maß an menschlicher Entscheidungsfähigkeit beruht.“

Überwachtes Maschinelles Lernen

Eine schon eher veritable Form von KI sei das Maschinelle Lernen. Hierfür kategorisiere ein Algorithmus die Daten in verschiedene Gruppen. Beim überwachten Maschinellen Lernen werde der Algorithmus trainiert, Daten in Kategorien einzuteilen, „z.B. indem er sie mit kommentierten Bildern von Katzen und Hunden füttert, damit er lernt, diese in Zukunft zu erkennen“. Trainiert mit genügend Daten über die Arten der Kommunikation, die wie Cyber-Bedrohungen aussähen, könnten ML-Algorithmen dann lernen, zwischen Bedrohungen und legitimem Datenverkehr zu unterscheiden.
Überwachtes ML sei wie Big-Data-Analytik „mit Doping“. Es könne genaue Entscheidungen viel schneller treffen als der Mensch. Da die heutigen Bedrohungen aus oft Hunderten von Elementen bestünden, gelte: „Je mehr sich identifizieren und korrelieren lässt, desto besser ist die Qualität der Erkennung.“ Das sei so wichtig, denn Sicherheitspraktiker würden eine Aktion nur dann durchführen, wenn sie das Vertrauen hätten, das Problem richtig erkannt zu haben. „Die Angst, etwas falsch zu machen, bedeutet, dass in vielen Fällen ein Mensch die endgültige Entscheidung treffen muss. Die Fähigkeit, ML zu nutzen, um Cyber-Bedrohungen möglichst zuverlässig zu identifizieren, ist entscheidend.“ Dies gelte insbesondere, wenn automatisierte Maßnahmen eingesetzt werden sollten, „ohne dass die menschliche Validierung den Prozess verlangsamt“.

Unüberwachtes Maschinelles Lernen

Eine noch reinere Form der KI sei das unüberwachte ML. Hierbei analysiere ein Algorithmus Daten und finde seine eigenen Erkenntnisse, ohne trainiert zu werden. „Zum Beispiel, wenn Bilder online betrachtet werden, wird er sich selbst beibringen, dass einige Bilder Kühe und andere Zebras zeigen.“ Dies könne jedoch zeitaufwändig sein.
Wenn man einen unüberwachten Algorithmus des Maschinellen Lernens auf Sicherheitsdaten ansetzt, könne es Jahre dauern, bis man zu einem lohnenden Ergebnis kommt. Allerdings könnten die Erkenntnisse, die daraus hervorgehen, wie z.B. die Identifizierung bestimmter Codezeilen, die mit Viren oder Angriffen verbunden sind, wertvoll sein.

Kochen als einfache Analogie

„Es gibt einen anderen Weg, um über KI nachzudenken, einen, der vielleicht leichter zu merken ist.“ Eine Analogie könne – so Palo Alto Networks – mit dem Kochen hergestellt werden. Big-Data-Analytik sei wie das Zubereiten von Bohnen auf Toast. Es gebe nur zwei einfache Zutaten, „aber wir müssen sicherstellen, dass wir das beste Verhältnis von Bohnen zu Toast haben“. Die Datenanalyse suche nach Beispielen, bei denen das Gleichgewicht nicht stimmt und markiere die Anomalie, um von einem menschlichen Koch behoben zu werden.
Das überwachte ML ermögliche es uns, die Zutatenliste zu erweitern. Es sei wie ein gutes Curry mit vielen Permutationen von Gewürzen. Je mehr Zutaten es gibt, desto höher sei die Anzahl der Permutationen. Überwachtes Maschinelles Lernen mache das, was der durchschnittliche Koch macht: Dieser führe Tausende von Experimenten durch, um die beste Mischung aus Chili und Limette zu erhalten, und wisse dann, was gut schmeckt.

Unerwartetes herausfinden, aber viel Zeit benötigen…

Unüberwachtes ML könne inzwischen mit Rezepten des britischen Experimentalkochs Heston Blumenthal verglichen werden: Es gebe keine Begrenzung für die von ihm verwendeten Inhaltsstoffe und Methoden. „Er hat keine Vorurteile darüber, was akzeptabler Geschmack ist, denn wer bei klarem Verstand würde erwägen, Kies als Kochzutat zu verwenden?“ Heston habe kürzlich vorgeschlagen, „der Suppe Kieselsteine hinzuzufügen, um sie zu verdicken“. Es gebe wenig Einigkeit unter anderen Köchen oder Gästen darüber, „ob dies eine gute Idee ist“. Diese Unsicherheit würde bei der Erkennung von Bedrohungen, bei denen wir eine zuverlässige Antwort benötigen, nicht helfen.
Unüberwachtes Lernen werde nicht durch bestehende Wahrnehmungen eingeschränkt, „und das ist dessen Stärke, aber gleichzeitig kann es viele Iterationen dauern, bis wir ein Rezept entwickeln, das wir verwenden wollen“. Die Ergebnisse könnten viel Zeit in Anspruch nehmen und sehr unterschiedlich ausfallen. Das Positive sei, dass man etwas Erstaunliches finden könnte, woran unser menschliches Gehirn einfach nicht gedacht hätte.

KI kann völlig neues Niveau an Cyber-Sicherheit bieten

Unternehmen sollten nach Meinung von Palo Alto Networks prüfen, „ob eine KI-Cyber-Sicherheitslösung ihren Geschäftsanforderungen entspricht“. Sie müssten berücksichtigen, „wie viele Daten sie produzieren und wie sensibel und wertvoll diese sind“.
In der Analogie: Vielleicht bräuchten sie nur „Bohnen auf Toast“, vielleicht wollten sie ein „Curry“ oder gar ein „ganz neues Geschmackserlebnis“. KI könne ein völlig neues Niveau an Cyber-Sicherheit bieten, um den Betrieb zu rationalisieren. Die Herausforderung bestehe darin, zu entscheiden, „welches Rezept für das eigene Unternehmen am besten geeignet ist“.

Weitere Informationen zum Thema:

datensicherheit.de, 13.07.2019
Cyber-Abwehr: Erfolgsfaktor Künstliche Intelligenz

datensicherheit.de, 21.05.2019
Kryptowährungen und künstliche Intelligenz: Zweite Ausgabe des Deutsch-Französischen IT-Sicherheitslagebilds

datensicherheit.de, 18.09.2018
Künstliche Intelligenz zur Erhöhung der Sicherheit im Netzwerk

]]>
https://www.datensicherheit.de/it-sicherheit-passende-art-kuenstlicher-intelligenz/feed 0
Studie der TH Köln: Big Data – Chancen und Risiken https://www.datensicherheit.de/studie-th-koeln-big-data-chancen-risiken https://www.datensicherheit.de/studie-th-koeln-big-data-chancen-risiken#respond Thu, 14 Mar 2019 19:50:16 +0000 https://www.datensicherheit.de/?p=30590 Bürger fordern mehr Datenschutz

[datensicherheit.de, 14.03.2019] Wie stehen die Deutschen zu Big Data, künstlicher Intelligenz und digitaler Vernetzung? Sie fordern mehr Datenschutz und fühlen sich in ihrer Freiheit eingeschränkt – kümmern sich aber privat nur wenig um ihre Datensicherheit. Zugleich fürchten sie Big Data, die große Menge an Daten, die durch die Digitalisierung aller Lebensbereiche existieren und deren Verarbeitung – sind aber gerne bereit, die aus der Vernetzung resultierenden Vorteile in ihr Leben zu lassen. Dieses doppelte Paradoxon ist das Ergebnis einer Studie mit 1.000 Teilnehmern von Prof. Horst Müller-Peters vom Institut für Versicherungswesen der TH Köln mit Unterstützung des Goslar Instituts, Studiengesellschaft für verbrauchergerechtes Versichern e. V.

Datenschutz relevantes Thema

Datenschutz ist für die Deutschen quer durch alle Altersschichten ein relevantes Thema. Nur fünf Prozent der in der Studie Befragten nehmen den Datenschutz persönlich nicht wichtig. Und nur rund 16 Prozent interessiert es nicht, was mit ihren Daten geschieht. Zudem fühlt sich die Mehrheit von großen Internetkonzernen abhängig (56 Prozent), kann auf viele Dienste nicht verzichten (41 Prozent) und bezweifelt, dass sich Konzerne an die Datenschutzbestimmungen halten (52 Prozent).

„Die Bedeutung des Datenschutzes und das Gefühl, in der Freiheit beschränkt zu sein, stehen im deutlichen Gegensatz zum Verhalten vieler Befragter. Denn die Mehrheit von ihnen verwendet in großem Umfang Geräte oder Anbieter, die über die gesammelten Daten umfangreichen Einblick in das Privatleben erhalten“, sagt Müller-Peters. So nutzt ein Großteil der Befragten diverse mit dem Internet verbundene Geräte wie Computer, Smartphones, Tablets und internetfähige Fernseher. Fitnessarmbänder, Homeboxes (wie Alexa) und Smartwatches erweitern die Vernetzung. Im Schnitt setzen die Befragten 3,6 der aufgeführten Geräte ein.

Ebenfalls weit verbreitet ist die Nutzung von Online-Diensten wie Google (93 Prozent der Befragten), WhatsApp (82 Prozent), YouTube (79 Prozent) und Facebook (55 Prozent).

Die große Mehrheit verfügt zudem über einen eigenen Account bei Amazon, Google und eBay. Ein Drittel der Befragten schätzt, bei über 20 Internet-Diensten persönliche Daten hinterlegt zu haben.

Studienautor Prof. Horst Müller-Peters vom Institut für Versicherungswesen der TH Köln

Foto: Thilo Schmülgen/TH Köln

Studienautor Prof. Horst Müller-Peters, Institut für Versicherungswesen der TH Köln

Datenschutz-pragmatische Nutzer dominieren

„Auch wenn die Dienste und Geräte umfassend verwendet werden, hat der Einzelne zahlreiche Handlungsoptionen zur eigenen Datensicherheit. Doch diese werden nur von einer Minderheit umfassend eingesetzt“, erläutert Müller-Peters. So können nur acht Prozent der Befragten als „aktive Datenschützer“ bezeichnet werden. 22 Prozent sind Datenschutz-Phlegmatiker und gebrauchen nur sehr wenige geeignete Maßnahmen.
„Der größte Teil der Bevölkerung nutzt die Schutzmaßnahmen, die nicht zu viel Aufwand bedeuten, verhält sich also pragmatisch oder wenn man es negativ formulieren will: leicht fahrlässig“, so Müller-Peters.

Einstellung zu Big Data

Die Deutschen sind eher pessimistisch im Hinblick auf die Folgen vernetzter Technologien. So glauben 80 Prozent der Befragten, dass der Schutz der Privatsphäre dadurch immer schwieriger wird und 78 Prozent, dass neue Gefahren – etwa durch Datenmissbrauch – drohen. In der Summe überwiegen für 42 Prozent der Befragten die Risiken, während nur 22 Prozent primär die Chancen sehen. „Je mehr Wissen die Interviewten über die betreffenden Technologien hatten, umso eher wurden Chancen in Big Data wahrgenommen. Dies gilt aber nicht für alle Bereiche. Zum Beispiel glaubten die Befragten bei zunehmendem Wissen immer weniger daran, dass die Verarbeitung großer Datenmengen die Welt durch Meinungsvielfalt demokratischer machen wird“, erläutert Müller-Peters.

Die eher negative Einstellung gegenüber Big Data ändert sich, wenn nach konkreten Anwendungsfeldern gefragt wird,

  • die die Sicherheit erhöhen (53 Prozent Zustimmung zur Überwachung der Wohnung gegen Einbrecher, aber nur 15 Prozent Ablehnung),
  • der Gesundheit dienen (62 Prozent Zustimmung und nur elf Prozent Ablehnung zur Überwachung von Herzschlag und Blutdruck zur Herzinfarkt-Prognose)
  • lästige Arbeiten übernehmen (42 Prozent Zustimmung für eine automatische Regelung der Heizung gegenüber 26 Prozent Ablehnung)
  • oder im Auto assistieren (72 Prozent Zustimmung versus sieben Prozent Ablehnung zur verkehrsabhängigen Navigation).

„Die grundlegende Skepsis gegenüber Big Data kippt, wenn konkrete, nutzenstiftende Anwendungen genannt werden. Viele davon erfordern eine weitgehende Überwachung des Einzelnen, was aber keinen Einfluss auf die Haltung zu haben scheint. Alleine der empfundene Nutzen, kaum aber die Sorge um die Privatsphäre, entscheiden über Befürwortung oder Ablehnung konkreter Einsatzfelder“, so Müller-Peters.

Studiendesign

Für die Studie wurden 1.000 Interviews mit Teilnehmerinnen und Teilnehmern im Alter über 18 Jahren durchgeführt. Davon 500 in einer bevölkerungsrepräsentativen Zufallsstichprobe per Telefoninterview und 500 in einer bevölkerungsrepräsentativ quotierten Stichprobe per Online-Befragung. (Zur Beschreibung der Methode, zur Genauigkeit der Ergebnisse und zu Grenzen der Repräsentativität bei Befragungen allgemein siehe Seite 130 des untenstehenden Links.)

Die Studie ist Teil der Publikation „Big Data: Bürgerschreck oder Hoffnungsträger? Zum Nutzen und Schutz von Daten des souveränen Bürgers in seinen Lebenswelten“, herausgegeben von Prof. Dr. Susanne Knorre von der Hochschule Osnabrück, Prof. Dr. Fred Wagner von der Universität Leipzig und Prof. Horst Müller-Peters von der TH Köln. Sie ist entstanden mit Unterstützung des Goslar Instituts, Studiengesellschaft für verbrauchergerechtes Versichern e. V., eine Initiative der HUK-Coburg und wird in Kürze im Springer-Verlag publiziert.

Weitere Informationen zum Thema:

TH Köln
Big Data: Chancen und Risiken aus Sicht der Bürger , Auszug aus der Studie

datensicherheit.de, 27.01.2017
Verbraucherzentrale: Datenschutz und Big Data nicht gegeneinander ausspielen

datensicherheit.de, 09.10.2015
Big Data: Leitlinien für den Einsatz

]]>
https://www.datensicherheit.de/studie-th-koeln-big-data-chancen-risiken/feed 0
EU-DSGVO: Datenschutz als Chance https://www.datensicherheit.de/eu-dsgvo-datenschutz-als-chance https://www.datensicherheit.de/eu-dsgvo-datenschutz-als-chance#respond Fri, 30 Nov 2018 22:09:15 +0000 https://www.datensicherheit.de/?p=29485 Diskussion wird von Unternehmen häufig unter dem Vorzeichen der Einschränkung der Handlungsfreiheit und dem Haftungsrisiko geführt

Von unserem Gastautor Sadrick Widmann, CPO bei cidaas.

[datensicherheit.de, 30.11.2018] Da wie auch in der „Orientierungshilfe der Aufsichtsbehörden zur Verarbeitung von personenbezogenen Daten für Zwecke der Direktwerbung unter Geltung der Datenschutz-Grundverordnung (DS-GVO)“ nochmal deutlich wird, steht Werbung egal ob in postalischem, telefonischem oder digitalem Forum immer unter dem Vorbehalt der Einwilligung der Konsumenten.

Hier wird ein wichtiger Hinweis für Unternehmen gegeben: „Werden personenbezogene Daten unmittelbar bei der betroffenen Person erhoben, z. B. für Kauf -und Dienstleistungsverträge, Prospektanforderungen oder Gewinnspiele, ist diese umfassend nach Art. 13 Abs. 1 und 2 DS – GVO u. a. über die Zwecke der Verarbeitung der Daten zu unterrichten. Eine schon geplante oder in Betracht kommende Verarbeitung oder Nutzung der Daten für Zwecke der Direktwerbung ist daher der betroffenen Person von Anfang an transparent darzulegen“.

Das in einer modernen Big Data gestützten Erhebung von Kundedaten, die dem Kunden eine größtmögliche Transparenz und Sicherheit gibt, auch eine Chance für Unternehmen liegt, eigene Prozesse sicherer, kommunikativer und produktiver zu gestalten wird hierbei von Unternehmen oft übersehen.

Vor allem mittelständische Unternehmen, welche den rechtlichen Anforderungen mit einer gleichzeitig verbesserten User Experience in Zukunft gerecht werden, können sich Wettbewerbsvorteile sichern. Hierbei kommt dem Erfassen, Verwalten und Kommunizieren der „Digitalen Identität“ von Kunden, Partnern, Händler und Mitarbeitern eine Schlüsselrolle zu. Eine zentralisierte Datenschutz- und Sicherheitspolitik durch eine moderne Benutzerverwaltung (Consent Management) im Unternehmen ist daher ein Muss.

Die digitale Identität bietet dabei Unternehmen die Chance Kunden oder auch Händlern personalisierte Dienstleistungen und Services anzubieten, zum andern gewährt sie die Möglichkeit des Schutzes und der kundenfreundlichen Verwaltung von personenbezogenen Daten.

Eine entsprechende Customer Identity and Access Management (CIAM) Software Lösung ermöglicht es den Dialog mit Kunden, Unternehmen und Maschinen über alle Devices individuell und gleichzeitig DSGVO konform zu steuern und falls erforderlich auch den Anforderungen der Zahlungsdiensterichtlinie PSD2 (Payment Services Directive) gerecht zu werden.

Kernstück der EU-DSGVO ist: Ein Nutzer muss identifizierbar sein und seine Einwilligung zur Verwendung von Daten erteilen und diese jederzeit widerrufen können. Das Einhalten der neuen Datenschutzvorschrift, die gemäß Art. 5 Abs. 1 d) fordert, dass personenbezogene Daten sachlich richtig und erforderlichenfalls auf dem neusten Stand sein müssen, wird durch ein CIAM-System, wie cidaas, schnell und rechtskonform umsetzbar, da der Kunde in einem Benutzer Selfe Service seine Daten direkt verwalten kann. Durch ein einfaches Benutzer-Management können Kundenprofile zudem einfach gelöscht und somit dem Recht auf Löschung (Art. 13 EU-DSGVO) nachkommen werden.

Dieser sichere und individuelle Kundendialog ist für eine Vielzahl von Branchen relevant.:

  • Banken und Versicherungen
  • e-Commerce
  • Gesundheitswesen
  • Bildungswesen
  • Öffentliche Verwaltungen
  • Industrie 4.0

Sicherheit der Daten und die Authentifikation der Identität essentiell

Dies betrifft im Übrigen die reale, wie auch in der digitalen Welt. Unter Authentifizierung versteht man das Anmelden bei einem System, sei es zum Beispiel digital zu einem Bankkonto, Onlineshop oder Mitarbeiterportal. Oder auch physisch zu einem Geschäftsraum, wobei die Identität des Benutzers festgestellt und geprüft wird. Identität ist der eindeutige Identifikator für eine Person, Organisation, Ressource oder einen Service. Eine moderne, auf Big Data Technologie basierenden Customer Identity and Access Management (CIAM) Software verwaltet nicht nur die Daten, sondern bietet auch das entsprechende Authentifizierungstool und ermöglicht zum Beispiel bei der Mitarbeiterverwaltung auch die Verteilung von Rollen und Zugriffsrechten.

Aber auch beim Schutz von Zugängen zu Onlineshops muss eine sogenannte „starke Authentifizierung“ sichergestellt werden. Die EU-Datenschutzgrundverordnung (EU-DSGVO) verbietet zwar nicht direkt die Authentifizierung mit Nutzername und Passwort. Aber es wird ausdrücklich gefordert, dass personenbezogene Daten vor unbefugtem Zugriff sicher sein müssen. Hierbei wird gleichzeitig die Benutzerfreundlichkeit wird immer wichtiger werden.

Eine Multi-Faktor-Authentifizierung sorgt durch User Profiling und biometrischen Faktoren für die hohe Sicherheit, wie sie in Art. 32 der EU-DSGVO gefordert wird.

Zur Identifikation und Authentifikation können verschiedene Verfahren eingesetzt und kombiniert werden

Im Einzelnen umfasst dies:

  • Gesichtserkennung: Identifiziert Benutzer mit zukunftsweisender, biometrischer Methode der Gesichtsmerkmale
  • Spracherkennung: Identifizierung über Stimme
  • TouchID: Identifizierung über Fingerabdruck
  • Muster: Identifizieren über ein vom Benutzer gezeichnetes Muster
  • Push-Benachrichtigung: Identifizierung über die Akkreditierung allein auf dem benutzten Gerät
  • TOTP: Ein einmaliger, zeitlich begrenzter Code, der zur Identifikation verwendet wird
  • Back-up code – Für den Fall, dass ein Benutzer sein Mobiltelefon nicht zur Hand hat,
  • FIDO U2F USB-basierte Sicherheitstechnologie
  • Email
  • SMS
  • IVR – Verifizierungscodes per Sprachanruf

Eine Zwei-Faktor-Authentifizierung (2FA) –von zum Beispiel Finger- oder Gesichtserkennung mit einem Passwort bietet hierbei die geforderte „starke Sicherheit“. Werden zudem durch starke Prognosefaktoren und Big Data Analysen der Nutzer mit hoher Sicherheit erkannt und mit Built-in Werkzeugen betrügerische Versuche oder Verdachtsfälle gestoppt, ist den Anforderungen des Datenschutzes genüge getan.

Anforderungen CIAM

Eine Customer Identity and Access Management (CIAM) Software Lösung ist problemlos für mittelständische Unternehmen einsetzbar. Hierbei sollten bei der Entscheidung für einen Tool verschiedene Punkte beachtet werden:

  • Skalierbarkeit – damit die Software ohne Aufwand an die unternehmerische Entwicklung angepasst werden kann.
  • Cloudsoftware gehostet auf deutschen Servern für DSGVO-Konformität und schnelle automatisierte Updates
  • Standards wie Social Login oder Single Sign On sollten ebenfalls zum Produktumfang gehören.
  • Einsetzbar in der Digitalen, wie auch in reale Welt – um ein umfassendes System zu haben. Denn Datenbetrug erfolgt nicht zuletzt auch oft durch Mitarbeiter.
  • Die einfache Integration in die bestehende Sicherheits- und CRM-Architektur.

Weitere Informationen zum Thema:

datensicherheit,de, 20.09.2018
DSGVO-Anforderungen: 87 Prozent der geprüften deutschen Webshops ungenügend

datensicherheit.de, 18.09.2018
Nach British Airways-Hack drohen der Fluggesellschaft DSGVO-Sanktionen

datensicherheit.de, 18.09.2018
DSGVO: „Wird schon gutgehen“ ist definitiv die falsche Einstellung

datensicherheit.de,  25.07.2018
DSGVO-Audits: Hohe Durchfallquote erwartet

datensicherheit.de, 19.07.2018
DSGVO: Hohe Bekanntheit bei geringer Wertschätzung

]]>
https://www.datensicherheit.de/eu-dsgvo-datenschutz-als-chance/feed 0
Stiftung Datenschutz gibt Band 2 der Reihe DatenDebatten heraus https://www.datensicherheit.de/stiftung-datenschutz-gibt-band-2-der-reihe-datendebatten-heraus https://www.datensicherheit.de/stiftung-datenschutz-gibt-band-2-der-reihe-datendebatten-heraus#respond Tue, 25 Jul 2017 20:54:10 +0000 https://www.datensicherheit.de/?p=26779 „Big Data im Gesundheitswesen: Chancen nutzen, Patientenrechte wahren“ erschienen

[datensicherheit.de, 25.07.2017] Zu den wohl wichtigsten Zukunftsthemen der umfassenden Digitalisierung und Vernetzung zählen sicher „Big Data“ und „eHealth“. Welche Entwicklungen in den nächsten Jahren in diesem Feld zu erwarten sind, soll der Sammelband „Big Data im Gesundheitswesen“ der Stiftung Datenschutz darstellen. Die zentrale Fragestellung sei dabei: Tragen digitale Gesundheitsangebote zur Steigerung der Lebensqualität bei oder führen sie zum Autonomieverlust des Bürgers und zwingen ihn zur Selbstoptimierung? In diesem zweiten Band der von der Stiftung Datenschutz herausgegebenen Reihe „DatenDebatten“ diskutieren renommierte Autoren kontrovers. Der Bundesminister für Gesundheit, Hermann Gröhe, hat ein Geleitwort verfasst. Das im Erich Schmidt Verlag Berlin erschienene Werk ist laut Stiftung Datenschutz nun im Handel erhältlich.

Gesundheitswesen berührt das Leben jedes Menschen unmittelbar

Im zweiten Band der Reihe „DatenDebatten“ beschreiben 13 Beiträge von Autoren wie Peter Schaar, Klaus Müller oder Thilo Weichert ihre Sicht auf die Chancen und Risiken der Digitalisierung des Gesundheitswesens.
„Das Gesundheitswesen berührt das Leben jedes Menschen unmittelbar. Dementsprechend hoch sind auch die Erwartungen, die mit dem Einsatz digitaler Technologien in der Medizin verbunden sind. Dazu haben wir Experten unterschiedlicher fachlicher Professionen und inhaltlicher Strömungen zu Wort kommen lassen“, erläutert Stiftungsvorstand und Herausgeber Frederick Richter.

Fluch und Segen zugleich: Digital verfügbare Gesundheitsdaten

Digital verfügbare Gesundheitsdaten und deren potenzielle Vernetzung ermöglichen neue Behandlungsmethoden und bergen eine große Chance für die medizinische Forschung. Die Autoren fragen in ihren Aufsätzen gleichermaßen nach den Möglichkeiten und Grenzen sowie nach den Kosten dieser „sozialen Revolution“, wie sie im Band benannt wird.

Selbstoptimierung, Medienkompetenz und Datenschutz…

So kritisiert etwa Klaus Müller, Vorstand des Verbraucherzentrale Bundesverbands, dass sich die meisten digitalen Angebote eher an gesunde Menschen richteten und die Selbstoptimierung unterstützten, als kranken Menschen zu helfen. Diesen Zustand gelte es durch zusätzliche Angebote zu verbessern.
Bezüglich der Unterstützung durch Apps, die gleichermaßen zur Selbstoptimierung wie zur Selbstausbeutung führen könnten, hält der Philosoph Björn Haferkamp von der Universität Bremen ein Plädoyer für mehr Medienkompetenz: Wie bei allen Technologien komme es beim Tracking demnach darauf an, dass Anwender die Fähigkeit zu einem ausgewogenen, reflektierten, balancierten Umgang lernen, aber auch darauf, dass Technik und Technikpolitik ihnen diese Freiheitsspielräume überhaupt ermöglichen.
Die Auswirkungen auf den Datenschutz betrachtet Peter Schaar: Der ehemalige Bundesdatenschutzbeauftragte beschreibt die besondere Bedeutung des Vertrauensverhältnisses zwischen Arzt und Patient und setzt sich außerdem mit dem Schutz personenbezogener Daten in der Telematikinfrastruktur auseinander. Abschließend hält er fest: Der Datenschutz bleibe, wenn man die Akzeptanz für eine leistungsfähige „eHealth“-Infrastruktur garantieren möchte, ein nicht zu vernachlässigender Faktor…

Weitere Informatione zum Thema:

Big Data im Gesundheitswesen: Chancen nutzen, Patientenrechte wahren
Hrsg. Stiftung Datenschutz, Band 2 der Reihe „DatenDebatten“

datensicherheit.de, 02.05.2017
Cloud Computing: Stiftung Datenschutz übernimmt neuen Zertifizierungsstandard

]]>
https://www.datensicherheit.de/stiftung-datenschutz-gibt-band-2-der-reihe-datendebatten-heraus/feed 0
Digitale Schätze: Der wahre Wert von Daten https://www.datensicherheit.de/digitale-schaetze-der-wahre-wert-von-daten https://www.datensicherheit.de/digitale-schaetze-der-wahre-wert-von-daten#respond Mon, 03 Apr 2017 11:46:26 +0000 http://www.datensicherheit.de/?p=26510 Verhalten von Cyberkriminellen ist von ökonomischen Abwägungen bestimmt

Von unserem Gastautor Jason Hart, CTO Data Protection bei Gemalto

[datensicherheit.de, 03.04.2017] Cyberkriminelle sind keine gewalttätigen Raubtäter, sondern handeln rational. Ihr Verhalten basiert auf ökonomischen Abwägungen, oder sie suchen nach dem „leichten Geld“: Geld bedeutet den Zugriff auf die richtigen Informationen und leicht bedeutet eine einfache Methode zur Liquidierung.

Problem der Datensicherheit häufig übersehen

Schnelle Beute in der digitalen Welt sind unzureichend gesicherte Systeme, die zudem noch leicht als angreifbar erkennbar sind und besonders wertvolle Informationen enthalten. Experten vergleichen Daten dabei mit Rohöl, dessen Wert ständig steigt und trotzdem von den Eigentümern unterschätzt wird. Häufig wissen Organisationen gar nicht, wie umfangreich ihre Daten eigentlich sind.

Tiefgreifende Datenanalyse von Big Data gibt umfassende Erkenntnisse und liefert einen großen Mehrwert. Details zu Kundenverhalten können durch Aggregation besser erfasst werden. Beispielsweise signifikante Verhaltensänderungen durch Wetterveränderungen auf den Produktabsatz. Nicht alle Variablen liefern nutzbar Ergebnisse, trotzdem lassen sich durch das Mergen von einzelnen Datensätzen bessere Grundlagen zur Analyse schaffen als durch verstreute Datenpools. Dadurch kann der Wert einzelner Datensätze deutlich steigern, wenn sie mit weiteren Informationen abgeglichen werden.

Jason Hart, CTO Data Protection bei Gemalto

Bild: Gemalto

Jason Hart, CTO Data Protection bei Gemalto

Im Einzelhandel setzt man bereits häufig auf Forschungseinrichtungen, um über verschiedene Marktsegmente Informationen zu erhalten und diese in Aktionen umzusetzen. Zudem arbeiten Institute daran, ihre Erkenntnisse zu vermarkten. In vielen anderen Branchen sieht man ebenfalls die Vorteile von Echtzeit-Analyse, um Preis und Angebot umgehend an den Bedarf anzupassen.

Oft vernachlässigt bei der Entwicklung ist das Thema Sicherheit und Schutz der wertvollen Informationen. Diese dürfen zwar nicht einfach weiterverkauft werden, aber die richtigen Datensätze versprechen Profit, und daher loten auch Kriminelle ihre Optionen aus: Die illegale Aggregation und Weitergabe von Analysedaten ist lukrativ und sollte unbedingt bedacht werden.

Unternehmen unterschätzen das Risiko

Immer wieder werden Kundendatenbanken Ziel von Cyberattacken. Und genau hier entsteht eine Problematik: Unternehmen und Kriminelle schätzen den Wert von gesammelten Daten unterschiedlich ein. Wenn die Angreifer bereits im Besitz von passenden Informationen sind, kann eine Datenbank mit scheinbar unvollständigen Daten eine Art goldenes Puzzle-Stück sein. Daher steigern sie ihren Aufwand für einen Angriff und Unternehmen unterschätzen das Risiko.

Es liegt an den IT-Abteilungen, Informationen zu schützen, deren wahrer Wert sich erst in der Zukunft herausstellen wird. Daher ist eine Risiko und- Wertanalyse unter Einbezug der zukünftigen Entwicklung ein wichtiger Schritt.

Grundsätzlich lässt sich eine Roadmap zum Schutz von Daten aufstellen, die speziell beim Umgang mit Big Data beachtet werden sollte:

  • Analyse der Information
    Zuerst geht es um die Erstellung Ist-Zustandes, allerdings unter Einbezug der zukünftigen Entwicklung und der aktuellen Gefahrenlage. Wo werden Daten verarbeitet und gespeichert? Welche Risiken und Angriffsvektoren entstehen? Unternehmen müssen wissen, was sie beschützen wollen, bevor sie ans Werk gehen.
  • Zwei-Faktor-Authentifizierung
    Jede Organisation sollte langfristig auf Zwei-Faktor-Authentifizierung setzen, da Passwörter und andere Zugangsdaten immer leichter entwendet werden können. Durch den Einsatz von Zwei-Faktor-Authentifizierung wird ein zusätzlicher Schutzwall aufgestellt, um unrechtmäßigen Zugriff zu unterbinden.
  • Verschlüsselung
    Neben den Zugriffsrechen sollten die Daten selber durch Verschlüsselung geschützt werden. Dadurch sind sensible Informationen gesichert, selbst wenn das Netzwerk kompromittiert wurde. Dieser Schutzschicht lässt sich überall realisieren, egal ob die Daten On-premise, in der Public-Cloud oder einer hybriden Lösung gespeichert werden. Unternehmen müssen immer davon ausgehen, dass sich Kriminelle Zugang zu Netzwerken verschaffen. Daher macht eine entsprechende Strategie für richtige Verschlüsselung Sinn.
  • Richtiges Management von Schlüsseln
    Neben einer passenden Strategie müssen auch die Chiffrierungsschlüssel richtig gehandhabt werden. Dazu eignen sich passende Hardwaremodule, sie sichern Schlüssel vor Missbrauch und sind zeitgleich leicht zu verwalten.
  • Aus- und Weiterbildung
    Um Vertrauen aufzubauen müssen Unternehmen Mitarbeiter und Kunden entsprechend schulen und sensibilisieren. Datenschutz und Datensicherheit sollten immer unter Berücksichtigung des „Faktor Mensch“ betrachtet werden. Nur wen man mit den eigenen Daten richtig umgeht, versteht man, wie man Daten im Unternehmen nachhaltig schützt. Daher ist die Miteinbeziehung der Belegschaft sehr wichtig.

Weitere Informationen zum Thema:

datensicherheit.de, 19.02.2017
IT-Sicherheit als Grundlage für Erfolg und Fortschritt

]]>
https://www.datensicherheit.de/digitale-schaetze-der-wahre-wert-von-daten/feed 0
Verbraucherzentrale: Datenschutz und Big Data nicht gegeneinander ausspielen https://www.datensicherheit.de/verbraucherzentrale-datenschutz-und-big-data-nicht-gegeneinander-ausspielen https://www.datensicherheit.de/verbraucherzentrale-datenschutz-und-big-data-nicht-gegeneinander-ausspielen#respond Fri, 27 Jan 2017 22:29:03 +0000 http://www.datensicherheit.de/?p=26323 vzbv-Positionspapier anlässlich des Europäischen Datenschutztages am 28. Januar 2017 publiziert

[datensicherheit.de, 27.01.2017] Der Verbraucherzentrale Bundesverband e.V. (vzbv) analysiert in seinem aktuellen Positionspapier „BIG DATA UND DATENSCHUTZ“ Gewinne und Gefahren für Verbraucher – sogenannte Big-Data-Technologien bergen demnach viele Chancen, aber auch große Risiken.

Data-Analysen verantwortungsvoll nutzen!

Der vzbv setzt sich dafür ein, dass Data-Analysen „verantwortungsvoll genutzt“ werden – nicht jedes beliebige Geschäftsmodell könne zulässig sein, wenn es gegen Prinzipien des Datenschutzes verstößt.
Indes: „Big-Data-Analysen können ein gewaltiger Gewinn für einzelne Verbraucherinnen und Verbraucher sein und zur Lösung gesellschaftlicher Probleme beitragen.“ Das digitale Auto beispielsweise sei mit der Infrastruktur und anderen Fahrzeugen vernetzt, um einen Stau rechtzeitig zu erkennen, Verkehrsinformationen zu beziehen oder Unfälle zu melden. Dies sei nicht nur bequem, sondern könne gleichzeitig die Sicherheit erhöhen und die Umwelt entlasten.
Aber es wird auch gewarnt: „Gleichzeitig bergen diese Technologien aber große Gefahren für den Datenschutz. Je mehr eine Person, ein Unternehmen oder ein Staat über uns weiß, umso einfacher ist es für sie, uns zu manipulieren und zu kontrollieren.“
Der vzbv hat anlässlich des Europäischen Datenschutztages am 28. Januar seine Einschätzung in einem Positionspapier zusammengefasst.

Freiheit meint auch Geheimhaltung

Der Einzelne müsse grundsätzlich selbst darüber entscheiden können, welche Daten er preisgibt und wie diese Daten verwendet werden dürfen. Zur persönlichen Freiheit gehöre es, Dinge zu tun und zu lassen, ohne dass andere davon wissen. Diese Freiheit sei in den vergangenen Jahren immer stärker ausgehöhlt worden: Vorlieben, Ansichten und Verhaltensweisen würden systematisch gesammelt und in Profilen zusammengefasst. Algorithmen entschieden bereits heute nicht nur welche Werbung Nutzer im Internet sehen, sondern könnten auch bestimmen, welchen Preis sie individuell für ein Produkt zahlen oder welche Informationen sie auf Nachrichtenseiten oder durch Suchmaschinen erhalten – und die zukünftigen Risiken gingen weit darüber hinaus.

Big Data: Chancen nutzen und gleichzeitig Risiken minimieren!

Nun dürfe aber nicht der Fehler begangen werden, Datenschutz und Big Data gegeneinander auszuspielen – die „Debatte darf nicht auf ein Entweder/Oder und somit auf ein Nullsummenspiel reduziert werden“.
Die Herausforderung laute, die Chancen von Big Data zu nutzen, aber gleichzeitig die Risiken zu minimieren. Die bestehenden Grundsätze des Datenschutzes, die in der Europäischen Union Grundrechtscharakter haben, müssten dabei weiterhin Bestand haben: Zweckbindung, Datensparsamkeit und Einwilligungsvorbehalt.

Datenschutz – Vertrauen – Erfolg

Gleichzeitig müsse klar sein, dass ein – begründetes – Vertrauen der Verbraucher „mittelfristig eine Grundvoraussetzung für den Erfolg von Big Data und entsprechenden datenintensiven Geschäftsmodellen ist“. In einer breit angelegten Umfrage des Vodafone Instituts für Gesellschaft und Kommunikation vom Januar 2016 spiegele sich das – oftmals zu Recht – geringe Vertrauen der Verbraucher in datenverarbeitende Dienste wider.
Beispielsweise vermieden es 56 Prozent der deutschen Befragten, sehr persönliche Dinge in E-Mails oder Textnachrichten zu schreiben, da sie befürchteten, dass Dritte darauf zugreifen könnten – und selbst wenn ihre Daten anonymisiert wären, würden sich nur 42 Prozent der Befragten noch wohl damit fühlen, diese Daten an die Gesundheitsforschung zu geben. Dies zeige, dass sogar die Erfolgschancen vorbildlicher oder datenschutzfreundlicher Dienste durch das geschwundene Vertrauen der Verbraucher in Mitleidenschaft gezogen werden könnten.
Im Gegensatz dazu wirke richtig verstandener und gut umgesetzter Datenschutz vertrauensbildend. So habe die Mehrzahl der Befragten angegeben, dass klare und einfache Darstellung von Datenschutzbestimmungen (76 Prozent) sowie die transparente Darstellung der Verarbeitungszwecke (57 Prozent) ihr Vertrauen in datenverarbeitende Unternehmen stärken würde.

Mitbestimmung bei der Datenverwendung gefordert

Der verantwortungsvolle Umgang mit den Daten der Nutzer, Offenheit und Transparenz bei der Verarbeitung personenbezogener Daten müssten die oberste Maxime bei der Anwendung von Big Data und die Entwicklung datenintensiver Geschäftsmodelle sein.
Nutzer dürften sich den Prozessen nicht schutzlos ausgesetzt fühlen. Sie müssten mitbestimmen können, ob und in welcher Form ihre Daten verarbeitet und analysiert werden und die Konsequenzen nachvollziehen können. Somit könne das Risiko von negativen Auswirkungen der Datenverarbeitung, wie Manipulation, Diskriminierung und Fremdbestimmung verringert werden.
Der Schutz von persönlichen Daten von Verbrauchern und das Recht auf Privatsphäre könne die Konsequenz nach sich ziehen, dass nicht jedes beliebige Geschäftsmodell realisiert werden könne. Doch wer dabei laut aufschreit, sollte sich dabei genau überlegen, ob es ratsam sei Geschäftsmodelle zulassen, bei denen die Verarbeitung von persönlichen Daten und ihre Zwecke nicht mehr kontrollierbar und Entscheidungen nicht mehr nachvollziehbar sind.
Auf die Frage, wie der Einzelne und die Gesellschaft dann vor Kontrolle und Manipulation geschützt werden sollten, könne bisher keiner eine Antwort liefern, der vor einem zu starken Datenschutz warnt.

Weitere Informationen zum Thema:

vzbv
„BIG DATA UND DATENSCHUTZ“

datensicherheit.de, 09.10.2015
Big Data: Leitlinien für den Einsatz

]]>
https://www.datensicherheit.de/verbraucherzentrale-datenschutz-und-big-data-nicht-gegeneinander-ausspielen/feed 0
Datenschutz als Wettbewerbsvorteil verstehen https://www.datensicherheit.de/datenschutz-als-wettbewerbsvorteil-verstehen https://www.datensicherheit.de/datenschutz-als-wettbewerbsvorteil-verstehen#respond Wed, 10 Feb 2016 21:15:28 +0000 http://www.datensicherheit.de/?p=25131 Bundesbeauftragte für den Datenschutz und die Informationsfreiheit plädiert für Vereinbarung von Datensparsamkeit, Zweckbindung und Big Data

[datensicherheit.de, 10.02.2016] Mit Blick auf die Themen „Big Data“ und „Industrie 4.0“ hat die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI), Andrea Voßhoff, darauf hingewiesen, wie wichtig nicht nur die Berücksichtigung, sondern auch die aktive Einbeziehung des Datenschutzes in diesen Themenfeldern ist.

Digitalisierung führt zu mehr digitalen Spuren

Im Zeitalter von „Big Data“ und dem „Internet der Dinge“ führe die sich immer weiter verbreitende Digitalisierung unseres Alltags dazu, dass wir mehr und mehr digitale Spuren hinterließen, warnt Voßhoff. Wenn in Zukunft beispielsweise das Surfverhalten einer Person mit den Informationen seines Smart-Cars, des Fitnesstrackers und den Bestellungen des vernetzten Kühlschranks kombiniert werden könnten, bestehe die Möglichkeit, ein aussagekräftiges Bild der Lebensumstände dieser Person zu zeichnen.

Datenschutz als Innovations-Motor

Umso wichtiger seien rechtliche Rahmenbedingungen, die nicht nur die Entwicklung innovativer Dienste und Geschäftsmodelle ermöglichten, sondern auch einen robusten Schutz der Privatsphäre garantierten, betont die BfDI.
Die Europäische Datenschutz-Grundverordnung sei hierzu ein wichtiger Schritt. Diese räume dem Grundrecht auf Datenschutz einen hohen Stellenwert ein und stelle sicher, dass wichtige Grundprinzipien des Datenschutzes wie Datensparsamkeit und Zweckbindung auch in der digitalen Welt ihren Platz hätten.
Dies bedeute indes nicht das Ende von Innovation, im Gegenteil, so Voßhoff: „Ich setze darauf, dass die strengen Regeln der Datenschutz-Grundverordnung einen Anreiz für die europäische Digitalwirtschaft darstellen, datenschutzfreundliche Anwendungen zu entwickeln und diese am Markt als Qualitätsprodukte zu platzieren.“
Als ein positives Beispiel verweist die BfDI auf das Forschungsprojekt „AN.ON-Next“ der Universität Regensburg. Bei diesem solle unter anderem versucht werden, Anonymisierungsverfahren über verschiedene technische Ansätze bereits auf Ebene der Internetzugangsprovider zu implementieren, um somit den Internetnutzern einen standardmäßigen Basisschutz bieten zu können. Gerade die Entwicklung von Anonymisierungs- und Pseudonymisierungsverfahren als „Privacy by Default“-Lösungen stellten einen wichtigen Beitrag zur Wahrung des Datenschutzes dar.
Voßhoff freut sich daher zu sehen, dass es entsprechende Bestrebungen gebe, „Wege zu finden, dass Menschen die Entscheidungshoheit über ihre Daten behalten können“. Sie hofft, dass viele Unternehmen die Chance erkennen, mit Projekten wie diesen den Datenschutz nicht mehr als wirtschaftliches Hemmnis, sondern vielmehr als Wettbewerbsvorteil zu betrachten und für sich nutzbar zu machen.

Weitere Informationen zum Thema:

datensicherheit.de, 10.02.2016
Bundeszentralamt für Steuern: Kontenabrufersuchen stark gestiegen

]]>
https://www.datensicherheit.de/datenschutz-als-wettbewerbsvorteil-verstehen/feed 0
Big Data: Leitlinien für den Einsatz https://www.datensicherheit.de/big-data-leitlinien-fuer-den-einsatz https://www.datensicherheit.de/big-data-leitlinien-fuer-den-einsatz#respond Fri, 09 Oct 2015 16:08:19 +0000 http://www.datensicherheit.de/?p=25025 Empfehlungen zur verantwortungsvollen Nutzung von Datentechnologien / Bitkom-Papier zeigt zahlreiche Anwendungsbeispiele

[datensicherheit.de, 09.10.2015] Der Digitalverband Bitkom hat Leitlinien für den Einsatz von Big Data Technologien in der Wirtschaft entwickelt. Sie geben den Anbietern und Anwendern konkrete Empfehlungen für eine verantwortungsvolle Nutzung von Big Data. So sollten die Daten der Betroffenen wirksam geschützt werden, die Datenverarbeitung nachvollziehbar sein und Datenanalysen einen Nutzen für diejenigen schaffen, die ihre persönlichen Daten zur Verfügung stellen. „Big Data Technologien ermöglichen enorme Fortschritte in wichtigen Bereichen wie der Medizin, der Energieversorgung oder im Verkehrswesen“, sagte Susanne Dehmel, Bitkom-Geschäftsleiterin Vertrauen & Sicherheit. „In der Wirtschaft schaffen Big Data Anwendungen neue Geschäftsmodelle und sind eine Quelle für künftiges Wachstum.“ Big Data Analysen erleichtern zum Beispiel die Therapie von Krebserkrankungen, helfen Infarktpatienten oder ermöglichen die Bereitstellung personalisierter Medikamente. Im Verkehr sind sie die Grundlage für eine effizientere Lenkung von Verkehrsströmen und die Entwicklung autonomer Fahrzeuge. Unternehmen profitieren, indem sie zum Beispiel Liefermengen und Arbeitszeiten optimieren oder Verkaufsräume und Sortimente verbessern können.

Big Data – enormen Chancen, aber auch neue ethische Fragen

„Big Data bietet enormen Chancen, wirft aber auch neue ethische Fragen auf, insbesondere bei der Vorhersage bestimmter Ereignisse“, betonte Dehmel. So können Big Data Systeme zwar nicht zweifelsfrei aber doch mit hoher Wahrscheinlichkeit vorhersagen, ob Menschen bestimmte Krankheiten bekommen, Kunden kreditwürdig bleiben oder Jugendliche zu Hartz-IV-Empfängern werden könnten. Das löst Ängste aus. Laut einer Bitkom-Umfrage finden es 82 Prozent der Internetnutzer in Deutschland unheimlich, dass ihre Entscheidungen durch neue Technologien der Datenauswertung vorhersehbar werden. Dehmel: „Wir müssen besser erklären, was mit Big Data möglich ist. Und wir brauchen eine offene gesellschaftliche Diskussion darüber, wozu wir diese Technologien einsetzen wollen – und auf worauf wir verzichten sollten.“ Ziel der Digitalwirtschaft sei es, bei allen Anwendungen die Privatsphäre der Menschen zu respektieren, Freiheitsrechte zu bewahren und Missbrauch zu verhindern. Diesem Ziel sollte ein  Dreiklang aus Gesetzen, Selbstverpflichtungen und Leitlinien der Wirtschaft dienen. Dabei müssten der Nutzen von Anwendungen und der Schutz persönlicher Daten immer wieder neu abgewogen werden.

Publikation zur Sensibilisierung und zum Anstoß für den gesellschaftlichen Diskurs

Mit der Publikation „Leitlinien für den Big-Data-Einsatz – Chancen und Verantwortung“ will der Bitkom informieren, sensibilisieren und einen Anstoß für den gesellschaftlichen Diskurs geben. Die Publikation enthält eine Reihe von Anwendungsbeispielen, die das große Potenzial der Technologie für die Gesellschaft insgesamt und jeden einzelnen Menschen aufzeigen. Die Bitkom Leitlinien für den Big Data Einsatz im Einzelnen:

  • Leitlinie 1 – Nutzen der Big-Data-Anwendungen prüfen
  • Leitlinie 2 – Anwendungen transparent gestalten
  • Leitlinie 3 – Bevorzugt anonymisierte oder pseudonymisierte Daten verarbeiten
  • Leitlinie 4 – Interessen der Beteiligten abwägen
  • Leitlinie 5 – Einwilligungen transparent gestalten
  • Leitlinie 6 – Nutzen für Betroffene schaffen
  • Leitlinie 7 – Governance für personenbezogene Daten etablieren
  • Leitlinie 8 – Daten wirksam gegen unberechtigte Zugriffe schützen
  • Leitlinie 9 – Keine Daten zu ethisch-moralisch unlauteren Zwecken verarbeiten
  • Leitlinie 10 – Datenweitergabe nach Interessenabwägung ermöglichen
  • Leitlinie 11 – Selbstbestimmtes Handeln ermöglichen
  • Leitlinie 12 – Politische Rahmenbedingungen vervollkommnen – Datenschutz und Datennutzen neu abwägen

An der Ausarbeitung der Leitlinien waren Fachexperten des Bitkom, seiner Mitgliedsunternehmen sowie aus Universitäten und Forschungseinrichtungen beteiligt.

Weitere Informationen zum Thema;

Bitkom, 15.09.2015
Positionspapier „Leitlinien für den Big-Data-Einsatz“

datensicherheit.de, 23.06.2015
Big Data: Akzeptanz bei Datenfairness

 

]]>
https://www.datensicherheit.de/big-data-leitlinien-fuer-den-einsatz/feed 0