Risiko – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Wed, 25 Feb 2026 16:33:25 +0000 de hourly 1 Cyberrisiko Vibe Coding https://www.datensicherheit.de/cyberrisiko-ki-vibe-coding https://www.datensicherheit.de/cyberrisiko-ki-vibe-coding#respond Wed, 25 Feb 2026 16:31:23 +0000 https://www.datensicherheit.de/?p=52864 Zunehmend generiert KI Programmcode und nimmt Entwicklern Arbeit ab. Doch bei Vibe Coding ist Vorsicht geboten: der Code ist oft fehlerhaft und für die OT-Sicherheit mit Risiken behaftet. Es ist aufwändig, Anlagen gegen Angriffe von außen und Störungen durch Coding-Fehler zu schützen. Doch der Aufwand lohnt sich.

Ein Kommentar von unserem Gastautor Eduardo Moreno, Executive Industry Consultant bei Hexagon

[datensicherheit.de, 25.02.2026] 2025 hat KI Schätzungen zufolge rund 40 Prozent des Codes auf der ganzen Welt geschrieben. Dieses sogenannte „Vibe Coding“, das viele Unternehmen als Produktivitätssprung feiern, kann auf Kosten der Cybersicherheit gehen.

Eduardo Moreno, Executive Industry Consultant bei Hexagon

Eduardo Moreno, Executive Industry Consultant bei Hexagon, Bild: Hexagon

So zeigt eine aktuelle Studie von Apiiro: Mit ChatGPT-5 oder Claude schreiben Entwickler drei- bis viermal mehr Code als Kollegen ohne KI-Unterstützung. Gleichzeitig schleusen sie die zehnfache Menge an Risiken ein: durch ungeprüfte Open-Source-Abhängigkeiten, falsch gesetzte Cloud-Berechtigungen oder versehentlich veröffentlichte Zugangsdaten.

Slopsquatting: Wenn die KI Pakete erfindet

Neuerdings machen sich Hacker DIE Achillesferse der KI zunutze: Halluzinationen. Beim sogenannten „Slopsquatting“ nutzen Angreifer aus, dass Chatbots in Codebeispielen manchmal Bibliotheken oder Pakete, also wiederverwendbare Code-Bausteine, empfehlen, die plausibel klingen, aber nicht existieren. Sie sammeln die Namen solcher erfundenen Pakete, registrieren sie in den üblichen Paket-Ökosystemen und füllen sie mit Schadcode. Wer den KI-Vorschlag unkritisch übernimmt, hat eine Hintertür für Hacker installiert.

Fast 20 Prozent der von Chatbots empfohlenen Pakete existierten nicht, zeigte eine Untersuchung von über 500.000 Code-Samples. Das testete der Sicherheitsforscher Bar Lanyado anhand des am häufigsten halluzinierten Paketnamens. Innerhalb von drei Monaten luden 30.000 User Lanyados „Trojaner“ herunter.

Fachkräftemangel als Brandbeschleuniger

Dass solche Kniffe funktionieren, liegt nicht nur an der KI. Viele Unternehmen können den Output schlicht nicht zuverlässig prüfen. Es fehlt an Routine im Security-Audit von Code und Abhängigkeiten, an sauberem Berechtigungsmanagement und an Prozessen, die Fehlkonfigurationen früh abfangen. Durch den Fachkräftemangel wird auch Grundwissen, etwa über Zugriffskontrollen, Malware-Erkennung und einem verlässlichen Patch-Management, zum raren Gut.

Neben Attacken von außen können auch schlechte Softwarequalität und alltägliche Codierungsfehler verheerend wirken: ein Update zur falschen Zeit, eine fehlerhafte Policy, eine Konfiguration, die im IT-Netz harmlos wirkt und in der Operational Technology (OT) alles kippt. Wie schnell aus einem Fehler ein Flächenbrand wird, zeigte sich im Juli 2024: Ein fehlerhaftes Update von Crowdstrike führte weltweit zu Ausfällen bei Fluggesellschaften, Banken und Krankenhäusern.

Gefahrenquelle OT

Am heikelsten wird es an der Schnittstelle zwischen der digitalen und physischen Welt: in der Operational Technology. Das Institute for Homeland Security an der Sam Houston State University dokumentierte Vorfälle wie einen Cybersecurity-Patch an einer Gasturbine, der das kontrollierte Herunterfahren über das Leitsystem verhinderte. In einem anderen Fall legte ein Netzwerk-Scan mehrere kritische Umspannwerke lahm, weil Steuergeräte den Scan als Denial-of-Service-Angriff interpretierten.

Neben knappen Ressourcen, zusätzlich verschärft durch den Fachkräftemangel, ist ein häufiger Auslöser für Angriffe auf OT-Umgebungen banal: Unternehmen exponieren industrielle Steuerungssysteme im Internet.

Resilienz ist die neue Prävention

Ressourcenknappheit, unsaubere Prozesse rund um den Betrieb von Anlagen, fehlende OT-Governance und schlicht Unachtsamkeit zählen zu den größten Quellen für Ausfälle, Fehlfunktionen und Angriffe von außen. Angesichts dieser komplexen Gemengelage muss Cybersicherheit weiter gedacht werden als „Hackerabwehr“.

Die Maßnahmen für Cyberresilienz sind in der Theorie bekannt, in der Praxis oft lückenhaft: saubere Backups, dokumentierte Konfigurationsstände, Change Detection, mehrere verlässliche Wiederherstellungspunkte.

Solche Prozesse aufzusetzen ist mühsam und zeitintensiv, weil sie eine hochkomplexe Welt abbilden, Unmengen an Daten benötigen und ständig aktualisiert werden müssen. Dafür entsteht am Ende ein digitaler Zwilling sämtlicher Assets im Unternehmen. Mit diesem lässt sich planen, was, wann, wo wie aktualisiert werden muss, es lassen sich Angriffsszenarien simulieren und auch ein KI-generierter Code kann in einer virtuellen Umgebung sicher getestet werden.

Fehler, Angriffe und Ausfälle lassen sich nicht zu 100 Prozent verhindern. Aber das Risiko für gravierende Schäden sinkt, wenn alle Assets über ihren Lebenszyklus digital abgebildet sind. Dann lassen sich potenzielle Einfallstore identifizieren, Systeme wieder herstellen und sicherheitsrelevante Policies überprüfen. Der initiale Aufwand lohnt sich immer.

Weitere Informationenzum Thema:

datensicherheit.de, 20.01.2026
OT-Sicherheit: Mittels KI Verunsicherung überwinden und Vertrauen begründen

]]>
https://www.datensicherheit.de/cyberrisiko-ki-vibe-coding/feed 0
Cybersicherheit – Wenn eine verzerrte Selbstwahrnehmung zum Sicherheitsrisiko wird https://www.datensicherheit.de/cybersicherheit-wahrnehmung-risiko-2026 https://www.datensicherheit.de/cybersicherheit-wahrnehmung-risiko-2026#respond Tue, 17 Feb 2026 16:47:51 +0000 https://www.datensicherheit.de/?p=52630 Ergebnisse einer aktuellen Studie zur Cybersicherheit zeigen: Zwischen der wahrgenommenen und der tatsächlichen Sicherheitslage klafft eine gefährliche Lücke. Und diese lässt sich nur mithilfe von Sichtbarkeit schließen.

Von unserem Gastautor Tiho Saric, Senior Sales Director bei Gigamon

[datensicherheit.de, 17.02.2026] Sind wir gegen Cyberangriffen bestmöglich aufgestellt? Eine Frage, die sich viele deutsche Sicherheits- und IT-Experten heute stellen – und mit Überzeugung mit „Ja!“ beantworten würden. Doch die Ergebnisse einer aktuellen Studie zeigen: Zwischen der wahrgenommenen und der tatsächlichen Sicherheitslage klafft eine gefährliche Lücke. Und diese lässt sich nur mithilfe von Sichtbarkeit schließen.

Tiho Saric, Senior Sales Director bei Gigamon

Tiho Saric, Senior Sales Director bei Gigamon, Bild: Gigamon

Wie kommt es, dass sich die meisten Sicherheits- und IT-Teams sicher sind, vor sämtlichen Cybergefahren gewappnet zu sein, während gleichzeitig knapp zwei Drittel der Unternehmen (63 Prozent) mindestens einmal Opfer eines erfolgreichen Angriffs wurden? Und warum ließ sich in 31 Prozent der Angriffsfälle die jeweilige Ursache nicht eindeutig identifizieren? Das deuten die Ergebnisse einer aktuellen Hybrid-Cloud-Security-Studie von Gigamon an. Demnach liegt die Antwort auf diese Fragen vermutlich weniger in der bewussten Selbstüberschätzung, sondern vielmehr in einem Mangel an Sichtbarkeit – also an der Fähigkeit, die eigene IT-Landschaft vollständig zu überblicken und bis ins kleinste Detail nachzuvollziehen, was tatsächlich im eigenen Netzwerk vor sich geht.

Cybersicherheit – Die Illusion der Kontrolle

Das Selbstvertrauen deutscher IT-Abteilungen reicht tief. So sind 85 Prozent der Sicherheits- und IT-Experten überzeugt, Malware auch in verschlüsseltem Datenverkehr erkennen zu können. 79 Prozent glauben, dass sie Datendiebstahl bemerken würden, selbst wenn er hinter einer Verschlüsselung stattfindet. Die Mehrheit der Experten (83 Prozent) hält ihre Tools für leistungsfähig genug, um mit der wachsenden Datenmenge und der sich weiterentwickelnden Bedrohungslage Schritt zu halten.

Doch diese Zuversicht steht auf wackeligen Beinen. Auch wenn Sicherheits- und IT-Experten von ihrem Team und ihrer technischen Ausstattung überzeugt sind, geben 56 Prozent zu, dass ihre Tools unter besseren Sichtbarkeitsbedingungen deutlich effektiver arbeiten könnten. Einer der Gründe für diese Einsicht liegt unter anderem in der Kompromissbereitschaft der Verantwortlichen. 95 Prozent sagen, dass sie sicherheitstechnisch Abstriche machen müssen, damit ihr Team überhaupt auf Sicherheitsvorfälle reagieren kann. So verzichtet ein Teil zum Beispiel auf vollständige Einsicht in die Infrastruktur oder auf hohe Datenqualität. Pragmatische Entscheidungen wie diese mögen kurzfristig helfen, schwächen aber langfristig die Verteidigungsfähigkeit.

Großes Selbstvertrauen trotz Blind Spots

Die größte Diskrepanz zwischen Anspruch, Einschätzung und Status quo zeigt sich vor allem beim Thema verschlüsselter Datenverkehr. 84 Prozent der Befragten geben an, Transparenz innerhalb dieses Traffics habe für sie höchste Priorität. Allerdings verzichten 37 Prozent aus Kostengründen auf dessen Entschlüsselung. Weitere 51 Prozent halten den Prozess für unpraktikabel, weil das Datenvolumen zu hoch sei. 73 Prozent vertrauen der Verschlüsselung bedingungslos.

Ein gefährlicher Widerspruch, denn genau in diesem vermeintlich sicheren Traffic verstecken Cyberangreifer immer häufiger gefährliche Malware. Laut einer Untersuchung von WatchGuard wird 94 Prozent solcher Schadsoftware über verschlüsselte Verbindungen eingeschleust. Darüber hinaus verschärfen neue Technologien wie KI den Wettlauf zwischen Angreifern und Unternehmen – zum Beispiel durch automatisierte Phishing-Kampagnen, geschickt getarnte Ransomware oder immer überzeugendere Deepfakes.

Eine weitere Herausforderung stellt die wachsende Komplexität moderner IT-Umgebungen dar. Mit jeder neuen Anwendung, jeder Cloud-Integration und jedem neuen Anwender – vor allem außerhalb des eigentlichen Netzwerks – wachsen Datenmenge und Angriffsfläche. Rund 30 Prozent der deutschen Sicherheits- und IT-Experten berichten, dass sich das Netzwerkvolumen nahezu verdoppelt hat. Trotzdem setzen viele Unternehmen auf eine Vielzahl spezialisierter Sicherheitslösungen. Anstatt Bedrohungen effektiv zu bekämpfen, erschweren sie sich dadurch allerdings nur ungewollt die Arbeit. Je mehr Tools im Einsatz sind, desto größer ist das Risiko, dass sicherheitsrelevante Informationen verloren gehen oder übersehen werden.

Zudem führt dieses Overtooling-Problem zu einem massiven Datenrauschen, in dem es Teams schwerfällt, echte Bedrohungen von harmlosen Ereignissen zu unterscheiden. Kurzum: Bei so viel Tech-Wildwuchs verwundert es kaum, dass immer mehr Sicherheits- und IT-Teams den Überblick verlieren. Folglich halten Teams und deren Sicherheitsarchitekturen häufig an statischen, reaktiven Ansätzen fest, statt zu einer proaktiven Strategie aufzusteigen.

Sehen heißt verstehen

Vor diesem Hintergrund lässt sich ohne ausreichende Transparenz kaum nachvollziehen, wo sich Schwachstellen bilden, wie sich Angreifer lateral im Netzwerk bewegen oder welche Aktivitäten tatsächlich legitim sind. Vollständige Sichtbarkeit, Datentiefe, Integration und verwertbare Insights sind hier mehr wert als die regelmäßige Einführung neuester Innovationen.

Um bestehende Lücken zu schließen, müssen IT-Teams ihr Augenmerk somit verstärkt auf Sichtbarkeit bis hinunter auf Netzwerkebene (Deep Observability) richten. Denn dort spielt sich ein Großteil der unentdeckten Aktivitäten ab. Sie müssen sämtliche Datenströme in Echtzeit beobachten, analysieren und verstehen können. Diese Fähigkeit umfasst ebenfalls verschlüsselten und auch lateralen Datenverkehr. Dafür werden alle relevanten Daten – sowohl klassische MELT- (Metrics, Events, Logs, Traces) als auch Netzwerk-Telemetriedaten – zentral gebündelt, kombiniert und ausgewertet.

Das Ergebnis: IT-Teams erhalten einen vollständigen Überblick über ihr Systemverhalten – von Anwendungen über Identitäten bis hin zu verdächtigen Aktivitäten und Verhaltensweisen.

Anomalien lassen sich schneller erkennen, Ursachen von Sicherheitsvorfällen präziser bestimmen, Schwachstellen schließen und Angriffe rechtzeitig stoppen. Diese Form der Echtzeit-Transparenz sorgt für Klarheit inmitten der Komplexität, unabhängig davon, wie viele Datenquellen, Identitäten oder Anwendungen sich im Netzwerk befinden. So bleiben Übersicht und Kontrolle bei den verantwortlichen Sicherheits- und IT-Teams, und Ressourcen lassen sich effizienter nutzen.

Fazit: Realismus ist die beste Verteidigung

Die deutsche IT-Sicherheitslandschaft leidet weniger an Inkompetenz als an Blind Spots. Viele Entscheider glauben, die Lage im Griff zu haben. Allerdings fehlt ihnen oft schlicht der Einblick in das, was tatsächlich passiert. Echte Cyberresilienz beginnt deshalb nicht mit weiteren Tools oder noch mehr Sicherheitsrichtlinien, sondern mit ehrlicher Selbsteinschätzung und vollständiger Transparenz. Wer seine Umgebung lückenlos versteht, kann Risiken realistisch bewerten, Angriffe frühzeitig erkennen und fundierte Entscheidungen treffen.

Denn am Ende gilt: Nur wer wirklich sieht, kann auch sicher handeln.

Weitere Informationen zum Thema:

datensicherheit.de, 20.01.2026
Vertrauen, Ethik und Resilienz im Fokus: Der CISO der Zukunft übernimmt Führungsrolle

]]>
https://www.datensicherheit.de/cybersicherheit-wahrnehmung-risiko-2026/feed 0
Risiko-Adaptive Datensicherheit berücksichtigt den Kontext https://www.datensicherheit.de/risiko-adaptiv-datensicherheit-beruecksichtigung-kontext https://www.datensicherheit.de/risiko-adaptiv-datensicherheit-beruecksichtigung-kontext#respond Tue, 09 Sep 2025 12:02:45 +0000 https://www.datensicherheit.de/?p=50071 Starre Sicherheitsrichtlinien sind für die digitale Welt von heute ungeeignet, weil sie auf eindeutige Anzeichen für eine Bedrohung der Datensicherheit angewiesen sind

[datensicherheit.de, 09.09.2025] „Adaptive Sicherheit ist der ,Goldstandard’ beim Schutz von Daten, weil sich die Sicherheitsmaßnahmen genau am Risiko orientieren. Dadurch lassen sie keine Lücken im Schutz, sind aber auch nicht so restriktiv, dass sie Mitarbeiter im Arbeitsalltag behindern“, erläutert Fabian Glöser, „Team Lead Sales Engineering Nordics, Central & Eastern Europe“ bei Forcepoint, in seiner aktuellen Stellungnahme. Er erörtert, wie sich das Risiko datenbezogener Aktivitäten überhaupt bestimmen lässt:

forcepoint-fabian-gloeser

Foto: Forcepoint

Fabian Glöser betont, dass Adaptive Datensicherheit als „Goldstandard“ auf solchen am Risiko orientierten Sicherheitsmaßnahmen basiert

IT-Aktivitäten können sowohl völlig harmlos als auch „brandgefährlich“ sein – zusätzliche Informationen sind zur Einschätzung der Sicherheitslage erforderlich

Starre Sicherheitsrichtlinien sind demnach für die digitale Welt von heute ungeeignet, weil sie auf eindeutige Anzeichen für eine Bedrohung der Datensicherheit angewiesen seien.

  • Glöser führt aus: „Nur wenn sie diese erkennen, können sie die entsprechende Aktivität blockieren, etwa den Upload von Dokumenten in die ,Cloud’, das Kopieren von Finanzdaten in eine E-Mail oder das Anfertigen eines Screenshots von technischen Zeichnungen.“ Das Problem hierbei sei: Jede dieser Aktivitäten könne sowohl völlig harmlos als auch „brandgefährlich“ sein – ohne zusätzliche Informationen lasse sich das nicht einschätzen.

Sogenannte Adaptive Datensicherheit berücksichtige daher den Kontext und sorge dafür, dass Richtlinien in Echtzeit an das tatsächlich bestehende Risiko angepasst würden.

Forcepoint: 4 zentrale Fragen zur Bewertung der Datensicherheit

Laut Forcepoint sind dies die vier wichtigsten Fragen, welche bei der Risikobewertung beantwortet werden müssen:

  1. „Um welche Daten handelt es sich?“
    Bei harmlosen Daten – wie frei zugänglichen Informationen, die beispielsweise auch auf der Firmenwebsite oder in Handbüchern zu finden sind, – bestünden keine Risiken und diese könnten problemlos mit Dritten geteilt werden. Personenbezogene Informationen, vertrauliche Finanzdaten oder wertvolles Geistiges Eigentum hingegen bedürften eines besonderen Schutzes.
    „Für eine Risikobewertung müssen Unternehmen daher eine Klassifizierung ihres gesamten Datenbestandes vornehmen, damit sie sensible Daten zuverlässig erkennen!“
  2. „Was passiert mit den Daten?“
    Unternehmen müssten genau wissen, was mit den Daten geschieht, um das Risiko einzuschätzen. Der Versand per E-Mail an einen firmeninternen Empfänger oder der Upload in den firmeneigenen „Cloud“-Speicher berge deutlich weniger Gefahren als der Versand an externe Empfänger beziehungsweise das Hochladen in eine fremde „Cloud“.
    „Auch andere Aktivitäten wie das Kopieren von Daten in einen öffentlichen ,Chatbot’ oder das Verpacken in passwortgeschützten Archiven sind Risikoindikatoren und können die Datensicherheit gefährden!“
  3. „Verhält sich der Benutzer normal?“
    Eine Verhaltensanalyse – auch „Behavioral Analytics“ genannt – helfe Unternehmen zu verstehen, wie normales Nutzerverhalten aussieht, so dass sie Abweichungen erkennen könnten, welche auf eine Bedrohung der Datensicherheit hindeuten.
    „Auffällig ist beispielsweise der Zugriff auf Daten von ungewöhnlichen Orten oder zu untypischen Zeiten oder der Download sehr großer Datenmengen, wenn der Benutzer sonst nur einzelne Files abruft!“
  4. „Mit welchem Gerät erfolgt der Zugriff?“
    Für eine Bewertung des Risikos sei auch eine genaue Kenntnis des Geräts notwendig, mit dem auf Daten zugegriffen wird. Handelt es sich um einen Firmenrechner, sei das Risiko deutlich geringer als beim Download von Dokumenten auf ein privates System.
    „Zudem sollten Unternehmen auch überprüfen, ob das Gerät auf dem neuesten Stand und mit einer Sicherheitssoftware ausgestattet ist!“

Lösungen für Datensicherheit mit Risiko-Adaptivem Ansatz berücksichtigen „Risk Score“

„Aus solchen und anderen Informationen berechnen Lösungen für Datensicherheit, die einen Risiko-Adaptiven Ansatz verfolgen, einen ,Risk Score’. Manche Lösungen berücksichtigen dabei weit über einhundert Indikatoren, die den ,Risk Score’ unterschiedlich stark beeinflussen“, so Glöser.

  • Der Upload unverfänglicher technischer Dokumente in die „Cloud“ erhöhe ihn beispielsweise nur leicht, das Kopieren von Kundenlisten auf einen USB-Stick hingegen stark.

Werden bestimmte Schwellenwerte überschritten, verschärften sich die Sicherheitsmaßnahmen automatisch – die Kundenliste könne dann etwa nur verschlüsselt auf dem externen Speichermedium abgelegt, der Versand per E-Mail würde komplett blockiert werden.

Mit klassischen Sicherheitslösungen stehen Security-Teams vor einem Dilemma

„Wichtig ist, dass der ,Risk Score’ auch wieder sinkt, wenn eine Zeit lang keine weiteren Indikatoren erkannt werden. Und dass die Sicherheitsmaßnahmen fein abgestuft sind, also über ,erlauben’ und ,blockieren’ hinausgehen.“ Möglich seien etwa Warnhinweise auf riskantes Verhalten, Freigabeprozesse oder das Einleiten einer Verschlüsselung für den Datenaustausch per E-Mail oder Speicherstick.

  • „Bei klassischen Sicherheitslösungen stehen Security-Teams üblicherweise vor einem Dilemma: Entweder gestalten sie die Richtlinien sehr restriktiv, um keine Sicherheitsvorfälle zu riskieren, und sorgen damit bei den Mitarbeitern für Frust, weil viele Aktivitäten rigoros geblockt werden. Oder sie definieren weniger strenge Richtlinien, um Mitarbeiter im Arbeitsalltag nicht einzuschränken, und laufen damit Gefahr, Lücken im Schutz zu lassen“, erklärt Glöser

Moderne Lösungen für Datensicherheit verfolgten deshalb einen Risiko-Adaptiven Ansatz: „Sie lassen die Mitarbeiter ungehindert arbeiten und verschärfen die Sicherheitsmaßnahmen erst dann, wenn mehrere Aktivitäten auf eine Bedrohung hindeuten oder einzelne Aktivitäten besonders sensible Daten betreffen.“

Weitere Informationen zum Thema:

Forcepoint
About Us / Delivering modern cybersecurity by proactively safeguarding critical data and IP

heise business service
Fabian Glöser: Team Lead Sales Engineering DACH, Forcepoint

datensicherheit.de, 13.03.2025
Moderne Cybersicherheit – Ein risikobasierter Ansatz als Königsweg / Schritthalten mit der steigenden Anzahl an Bedrohungen mit einen systematischen Schwachstellenmanagement

datensicherheit.de, 23.03.2018
BSA Global Cloud Computing Scorecard: Deutschland auf Platz 1 / Kommentar von Bruno Teuber, Senior Vice President EMEA Enterprise Sales bei New Relic

]]>
https://www.datensicherheit.de/risiko-adaptiv-datensicherheit-beruecksichtigung-kontext/feed 0
Überwachungskameras: Wenn Sicherheitstechnik zum -risiko wird https://www.datensicherheit.de/ueberwachungskameras-sicherheitstechnik-risiko https://www.datensicherheit.de/ueberwachungskameras-sicherheitstechnik-risiko#respond Sun, 03 Aug 2025 22:06:29 +0000 https://www.datensicherheit.de/?p=49430 Überwachungstechnik kann als Einfallstor für Kriminelle dienen – laut einer aktuellen Bitsight-Recherche senden weltweit rund 40.000 Kameras Bilder ungeschützt ins Netz

[datensicherheit.de, 04.08.2025] Eigentlich sollen Überwachungskamera Kriminelle abschrecken und im Schadensfall sachdienliche Hinweise zur Ermittlung eines Vorfalls liefern – in vielen Unternehmen hängen laut einer aktuellen Stellungnahme von LivEye jedoch Kameras, die über unsichere Netzwerke Bilder für alle einsehbar ins Internet streamen. Zu angemessenen Maßnahmen im Fall eines solchen Datenlecks und wie eine effektive Prävention aussehen kann, äußert sich Karsten Kirchhof, „Technical & Commercial Manager“ bei LivEye:

 liveye-ueberwachungskamera

Foto: LivEye

Potenziell unsichere Überwachungskamera: Feind guckt mit

Vertrauen ist gut, Kontrolle ist besser – insbesondere bei Überwachungstechnologie

Überwachungstechnik kann offensichtlich als Einfallstor für Kriminelle dienen – laut einer aktuellen Bitsight-Recherche senden weltweit rund 40.000 Kameras ihre Bilder ungeschützt ins Netz. Kirchhof warnt:

  • „Mit diesen Einblicken planen Einbrecher ihr Vorgehen und ein offener Mikrofonfeed lädt zur Wirtschaftsspionage ein.“

Im schlimmsten Fall bedienten Übeltäter gar Kritische Infrastruktur (KRITIS) – Wasserwerke oder Energieversorger – von außerhalb. Die NIS-2-Richtlinien nimmt indes im Schadensfall fortan verstärkt Geschäftsführer in die Verantwortung.

Live-Feed von Überwachungskameras quasi als informatives Abendprogramm

Kirchhof erläutert: „Installation und Einstellung von Sicherheitskameras übernehmen meist externe Dienstleister. Sobald ein Bild über den Schirm läuft, sehen die meisten Nutzer die Einrichtung als erledigt an. Oftmals vertrauen Installateure auf Herstelleranleitungen, die eine schnelle Inbetriebnahme per QR-Code anpreisen.“

  • Jedoch würden Einrichter die Kamera bei dieser Vorgehensweise meist mit dem ungeschützten Firmen-Netzwerk verbinden, welches das Sicherheitsfeature in einen leicht zugänglichen TV-Sender verwandele. „Entdecken Schaulustige den offenen Kanal, entsteht bereits ein Datenschutzverstoß seitens des sendenden Unternehmens. Dieser kann Geschäftsleiter je nach Schwere eine Strafe von zwei bis vier Prozent des Jahresumsatzes kosten!“

Finden skrupellose Konkurrenten die Schwachstelle, nutzten sie Bild- und Tonaufnahmen zur Spionage. Meist wüssten Betroffene nicht einmal um das Mikrofon, da diese Funktion zum Schutz der Mitarbeiter ausgeschaltet wird – „doch wenn ein Aufnahmegerät verbaut ist, kann auch von extern darauf zugegriffen werden“.

Spionage: Kriminelle können per Überwachungskamera Lieferzeiten ausforschen…

Gelangten sensible Informationen nach außen, schade dies auf mehreren Ebenen: „Mitbewerber gewinnen durch das Wissen einen Vorteil, die Reputation des eigenen Unternehmens wird angekratzt und die Rechte der Mitarbeitenden verletzt.“

  • Kirchhof berichtet: „In einem Fall bezifferte das Oberlandesgericht das Schmerzensgeld für Verstöße dieser Art auf 5.000 € pro Person.“ Zusätzlich entpuppten sich im Bereich der Diebstähle vermeintliche Insiderjobs bei genauer Betrachtung als gut durchgeplante Einbrüche.

Die Kriminellen erfassten durch offene Sicherheitskameras Lieferzeiten und griffen Ware ab, bevor Lagerarbeiter sie einräumen könnten. Ein weiterer Komfortfaktor für die „Langfinger“ stelle der erleichterte Zugriff auf Alarm- und Schließanlagen durch Verknüpfungen der Sicherheitstechnik dar.

Bei Inbetriebnahme einer Überwachungskamera unverzüglich neues Passwort einzurichten

„Wenn Geschäftsführer auf ein Datenleck aufmerksam werden, sollten sie den belasteten Kameras zunächst den Saft abdrehen, um das Ausströmen weiterer Bilder zu stoppen!“, legt Kirchhof nahe. Danach stehe ein ausgiebiger Check der Netzwerksicherheit an. Damit es gar nicht erst soweit kommt, rät der Experte zu einer gründlichen Prüfung vor dem Einbau:

  • Angefangen mit der Herkunft der Geräte, denn wo deutsche Markennamen draufstehen, müssten noch lange keine deutschen Produkte drin sein. „Diese unterliegen strengeren Vorlagen als vergleichbare Technologien aus dem nichteuropäischen Ausland.“ So verpflichte die EU Hersteller dazu, bei der Inbetriebnahme unverzüglich die Vergabe eines neuen Passworts zu verlangen. Um dieses Einfallstor zu schließen, vermieden Einrichter die Einbindung in das Produktionsnetzwerk. Jegliche Sicherheitstechnologien erhielten Anschluss an ein eigenes Netzwerk, dessen Zugang über Passwörter gesichert werde.

Wenn auf dem Firmengelände mehrere Gebäude stehen, bekäme jedes sein eigenes System, denn WLAN-Brücken zwischen den Häusern machten interne Absicherung obsolet. „Dazu vertrauen Firmenleitungen am besten auf interne IT-Profis. Denn je mehr Außenstehende über die Schutzmechanismen wissen, desto unnützer werden sie.“

Bei Updates melden sich Überwachungskameras bei ihrer Muttergesellschaft…

Selbst gesicherte Netzwerke hätten ihre Tücken: „Setzen Anwender auf Produkte, die nicht den europäischen Standards entsprechen, verliert der Schutz in Folge von Updates häufig seine Wirkung.“ Nach einer Aktualisierung meldeten die Geräte sich bei ihrer Muttergesellschaft, was den Zugang wieder öffne.

  • „Eine sichere Nutzung ist möglich, verlangt aber erheblichen Mehraufwand, da die Verbindungen nach jedem Update auf Lücken geprüft werden müssen“, so Kirchhof.

Die Herkunft der Geräte nehme zudem Einfluss auf den Gebrauch von modernen „Cloud“-Lösungen. Anbieter aus China oder den USA griffen in den meisten Fällen auf „Datenwolken“ aus dem eigenen Hoheitsgebiet zurück. „Wer auf Nummer sicher gehen will, sollte auf Hersteller zurückgreifen, die europäische Server zur Speicherung sensibler Informationen bespielen!“

Überwachungs- und Sicherheitstechnologie in der EU sollte fortan ab Werk sicher sein

Neue Regelungen wie die NIS-2-Richtlinien und das IT-Sicherheitsgesetz 2.0 gälten in der Branche als Lichtblicke. „Zum einen nimmt die EU seit 2024 die obersten Geschäftsebenen bei Verstößen in die Haftung.“

  • Damit nehme die Europäische Union Leitungen in die Verantwortung und erhöhe den Druck, Mindeststandards an IT-Sicherheit einzuhalten. Das überarbeitete IT-Gesetz nehme Komponenten aus autokratischen Drittstaaten ins Visier und verlange eine gründliche Prüfung vor dem Einsatz im deutschen Raum.

„Diese Entwicklungen lassen darauf hoffen, dass Sicherheitstechnologien in Zukunft von Werk an wirklich sicher sind und Firmen bei der Installation darauf achten, Lücken zu schließen.“

Weitere Informationen zum Thema:

LivEye
Das Unternehmen / Über die Sicherheitsfirma LivEye GmbH

SECURITYWEEK, Ionut Arghire, 11.06.2025
40,000 Security Cameras Exposed to Remote Hacking / Bitsight has identified over 40,000 security cameras that can be easily hacked for spying or other types of malicious activity.

datensicherheit.de, 17.07.2025
Videoüberwachung und Sicherheit: heyData untersuchte Kamerabeobachtung im Öffentlichen Raum / Eine neue heyData-Studie stellt dar, wie weltweit 21 Städte mit dem Thema Videoüberwachung umgehen – und welche Folgen dies für Gesellschaft und Freiheit hat

datensicherheit.de, 15.06.2025
ESET warnt vor Folgen: Tausende Überwachungskameras weltweit offen im Netz / Weltweit sind laut ESET rund 40.000 Überwachungskameras offen im Internet zugänglich – schlecht gesichert und manchmal sogar ohne Passwort

datensicherheit.de, 04.05.2023
Wenn IoT-Haustürkameras zu Phishing-Fallen werden / IoT-System zu einer möglichen Schwachstelle für seine Nutzer geworden

datensicherheit.de, 19.09.2017
Infiltration per Überwachungskamera: Bösartige Angriffe mit Infrarotlicht / Forscher der Ben-Gurion-Universität warnen vor Missbrauch

]]>
https://www.datensicherheit.de/ueberwachungskameras-sicherheitstechnik-risiko/feed 0
Fehlender Geschäftskontext: Trotz erhöhter Investitionen ausgebremstes Cyberrisiko-Management https://www.datensicherheit.de/fehlen-geschaeftskontext-erhoehung-investitionen-bremse-cyberrisiko-management https://www.datensicherheit.de/fehlen-geschaeftskontext-erhoehung-investitionen-bremse-cyberrisiko-management#respond Sat, 19 Jul 2025 22:15:08 +0000 https://www.datensicherheit.de/?p=49136 Laut „State of Cyber Risk 2025“ von Qualys und Dark Reading bleibt das betriebliche Cyberrisiko-Management vieler Unternehmen weiter unausgereift

[datensicherheit.de, 20.07.2025] Die aktuelle gemeinschaftliche Studie„State of Cyber Risk 2025“ – von Qualys und Dark Reading widmet sich der Problematik, dass trotz wachsender Ausgaben und zunehmender Relevanz in Vorstandsetagen das betriebliche Cyberrisiko-Management vieler Unternehmen unausgereift bleibt. Der Grund dafür ist demnach der fehlende geschäftliche Kontext. Empfohlen wird daher, die Betrachtungsweise der Cybersicherheit zu transformieren: Vom puren Kostenzentrum (Cost Center) hin zum relevanten Geschäftsfaktor (Business Driver).

qualys-new-dark-reading-report-2025

Abbildung: Qualys

Warnende Erkenntnis aus dem Bericht: Trotz wachsender Budgets steigt das Cyberrisiko bei vielen Unternehmen weiter!

Cyberrisiko: Zum Management müssen Techniker und Kaufleute gemeinsame Sprache finden

Zentrale Erkenntnisse der Umfrage zum Cyberrisiko-Management unter über 100 IT- und Security-Verantwortlichen laut Qualys:

  • Cyberrisiken nehmen zu
    71 Prozent der Befragten sähen steigende oder gleichbleibende Risiken – trotz steigender Budgets.
  • Formelle Programme – ohne Reife
    Zwar verfügten 49 Prozent über ein Cyberrisiko-Programm, doch nur 30 Prozent priorisierten Risiken auf Basis von Geschäftszielen.
  • Kapitalrendite (Return on Investment / ROI) bleibt aus
    Die meisten Sicherheitsinvestitionen zahlten sich nicht direkt erkennbar aus – fehlende Transparenz und Priorisierung bremsten die Wirkung.
  • Mangelhaftes Intelligentes Gerätebestandsmanagement (Asset Intelligence)
    Nur 13 Prozent könnten „Assets“ kontinuierlich inventarisieren, 47 Prozent arbeiteten noch mit manuellen Prozessen.
  • Kommunikationslücke zum Management
    Lediglich 14 Prozent verknüpften Cyberrisikoberichte mit finanziellen Kennzahlen – und nur 22 Prozent würden hierzu Finanzteams einbinden.
  • Wunsch nach Kontext statt „Common Vulnerability Scoring System“ (CVSS)
    Führungskräfte forderten Entscheidungen basierend auf geschäftlichen Risiken – keine technischen Bewertungen (scores).

Entgegen der Erwartung nimmt das Cyberrisiko bei vielen Unternehmen weiter zu

Cybersicherheit werde zunehmend als strategisches Thema wahrgenommen, doch in der praktischen Umsetzung klafften Lücken. Zwar verfügten fast die Hälfte der befragten Organisationen über formelle Risikoprogramme, doch nur ein Drittel davon priorisiere Risiken anhand geschäftlicher Ziele.

  • Die Studie fordert deshalb eine stärkere Orientierung an geschäftlichen Auswirkungen – beispielsweise an potenziellen Umsatzverlusten oder der Gefährdung sensibler Kundendaten.

Trotz wachsender Budgets steige das Cyberrisiko bei vielen Unternehmen weiter. Das liege vor allem daran, dass „Tools“ isoliert arbeiteten, die „Asset“-Transparenz lückenhaft sei und Priorisierungen oft an klaren strategischen Zielen vorbeigingen.

Bewertung des Cyberrisikos muss geschäftsrelevante Risikobetrachtung adressieren

Die Risikobewertung erfolge häufig noch auf Basis starrer „Scores“ wie CVSS, ohne den geschäftlichen Kontext zu berücksichtigen. Führungskräfte verlangten jedoch keine technischen „Dashboards“ mehr, sondern verständliche Antworten auf zentrale Fragen: „Wo liegen die größten Risiken? Wie hoch ist die mögliche Auswirkung? Welche Maßnahmen bringen den größten Nutzen?“

  • Hier nun soll das von Qualys vorgestellte Konzept eines „Risk Operations Center“ (ROC) ansetzen: Dieses vereine die kontinuierliche Erkennung, Bewertung und Steuerung von Risiken auf Basis kontextualisierter Echtzeitdaten. Das dazugehörige „Enterprise TruRisk Management“ (ETM) konsolidiere technische Informationen und übersetze sie in geschäftsrelevante Kennzahlen, um Entscheidungen fundiert treffen zu können.

Deshalb müssten Unternehmen ihr Risikomanagement strategisch neu ausrichten – weg vom Technikfokus, hin zur geschäftsrelevanten Risikobetrachtung. Das ROC-Modell biete hierfür eine strukturierte, unternehmensweite Lösung.

Weitere Informationen zum Thema:

Qualys, Juni 2025
Research Report / New Dark Reading Report: Most Cyber Risk Programs Still Falling Short

Qualys
Risk Operations Center (ROC) / Continuously assess, prioritize and mitigate risks in real-time with unified & contextualized risk management

datensicherheit.de, 01.07.2025
Unternehmen: Horizon3.ai-Cybersicherheitsreport 2025 zeigt weitere Zunahme von Angriffen / Unternehmen wissen zwar, dass ihnen Gefahren auflauern und haben meist auch Vorsichtsmaßnahmen getroffen – aber sie wissen oft dennoch nicht, ob sie einem Cyberangriff standhalten können

datensicherheit.de, 02.05.2025
Erkenntnisse aus dem Verizon Data Breach Investigation Report (DBIR) 2025 / Der Bericht macht die Notwendigkeit eines ganzheitlichen Sicherheitsansatzes deutlich

]]>
https://www.datensicherheit.de/fehlen-geschaeftskontext-erhoehung-investitionen-bremse-cyberrisiko-management/feed 0
Schwachstellen: Mehr Effizienz und Sicherheit durch automatisiertes Patch-Management https://www.datensicherheit.de/schwachstellen-sicherheit-patch-management https://www.datensicherheit.de/schwachstellen-sicherheit-patch-management#respond Thu, 08 May 2025 16:52:44 +0000 https://www.datensicherheit.de/?p=47589 Reaktive Sicherheitsansätze und komplexe und ineffiziente Patch-Prozesse erhöhen diese Risiken durch Schwachstellen

Ein Kommentar von unserem Gastautor Andre Schindler, General Manager EMEA und SVP Global Sales bei NinjaOne

[datensicherheit.de, 08.05.2025] Laut des ifo-Instituts arbeiten 24,5 Prozent der Beschäftigten in Deutschland zumindest teilweise von zu Hause aus. Diese Zahl ist in den letzten Jahren stabil geblieben und trotz mancher Diskussion ist das Thema Homeoffice in vielen Unternehmen fest etabliert. Im Zuge dessen hat sich die Anzahl von Endpunkten entsprechend erhöht und auch die Möglichkeit für potenzielle Schwachstellen für die IT-Systeme.

Bedrohungen rechtzeitig erkennen

Reaktive Sicherheitsansätze und komplexe und ineffiziente Patch-Prozesse erhöhen diese Risiken und viele Unternehmen haben Schwierigkeiten, Schwachstellen – bevor sie eine ernsthafte Bedrohung darstellen – zu erkennen. Deshalb sind effiziente und effektive Prozesse für das Patch- und Schwachstellenmanagement wichtiger denn je.  Nur so können IT-Teams einen proaktiven, risikobasierten Ansatz verfolgen, mit dem sie Schwachstellen erkennen, bewerten, priorisieren und beheben können, bevor sie eskalieren.

Automatisierung und Priorisierung senken das Risiko von Cyberangriffen

Durch automatisiertes Patch-Management wird die Belastung der IT-Abteilungen deutlich reduziert und Fehler im Zusammenhang mit umständlichen, manuellen Prozessen minimiert. Das händische Einspielen von Patches ist zeitaufwendig und birgt Sicherheitsrisiken, wohingegen automatisierte Patch-Management-Lösungen Zeit für die Erkennung, das Testen und die Bereitstellung kritischer Updates einsparen und so eine schnellere Reaktion auf eventuelle Schwachpunkte ermöglichen.

Priorisierung von Schwachstellen wichtig

Die gute Nachricht ist hier, dass nicht alle Schwachstellen das gleiche Maß an Bedrohung darstellen. Deshalb können sie priorisiert werden, was wiederum noch mehr Zeit und Ressourcen schont. Automatisierte Risikobewertungen ermöglichen IT-Abteilungen, zuerst die kritischsten Schwachstellen anzugehen und dadurch Gefährdung durch schwerwiegende Sicherheitsbedrohungen zu verringern.   Der Einsatz künstlicher Intelligenz kann den Patch-Prozess noch weiter optimieren. KI-gesteuerte Tools liefern IT-Teams kontextbezogene Empfehlungen dazu, welche Patches wann installiert werden sollten, wodurch der Aufwand für die Fehlerbehebung und die Systemausfallzeiten weiter minimiert werden.

Fazit

Ohne effektives Patch-Management bleibt die Bewältigung von Cybersicherheitsrisiken eine ständige Herausforderung. Durch die Automatisierung des Patch-Managements können Unternehmen nicht nur das Risiko von Cyberangriffen verringern, sondern auch Ressourcen in den IT-Abteilungen für strategische Aufgaben freisetzen. Dadurch wird das Unternehmen effizienter, produktiver und letztlich sicherer.

Weitere Informationen zmum Thema:

NinjaOne
Automate the hardest parts of IT

datensicherheit.de, 31.07.2020
Das VPN nicht überlasten – wie moderne Patchvorgänge auch Homeoffices abdecken

]]>
https://www.datensicherheit.de/schwachstellen-sicherheit-patch-management/feed 0
Neue Mitarbeiter: Vom Sicherheitsrisiko zum Verfechter der betrieblichen Cyber-Sicherheitsstrategie https://www.datensicherheit.de/mitarbeiter-unternehmen-sicherheit-risiko https://www.datensicherheit.de/mitarbeiter-unternehmen-sicherheit-risiko#respond Wed, 09 Apr 2025 15:39:23 +0000 https://www.datensicherheit.de/?p=47163 Miro Mitrovic gibt vier Tipps für Unternehmen beim Onboarding neuer Mitarbeiter zur Integration in die eigene Cyber-Verteidigung

[datensicherheit.de, 09.04.2025] Cyber-Bedrohungen entwickeln sich mit zunehmender Digitalisierung und Vernetzung rasant – mit den neuen Chancen erwachsen auch neue Risiken für die Sicherheit, dabei haben die meisten Cyber-Angriffe vorrangig eine menschliche Komponente. Miro Mitrovic, „Area Vice President DACH“ bei Proofpoint, betont in seiner aktuellen Stellungnahme, dass sich rund 90 Prozent der Cyber-Angriffe auf menschliches Fehlverhalten zurückführen lassen. Um dieser Herausforderung zu begegnen, müssten Unternehmen ihre neuen Mitarbeiter von Anfang an in ihre Sicherheitsstrategie einbinden. Ein effektives Onboarding-Programm für Cyber-Sicherheit sei entscheidend, um neue Kollegen in die Lage zu versetzen, verdächtige Aktivitäten zu erkennen und angemessen darauf zu reagieren. Mitrovic gibt hierzu nachfolgend vier Tipps, mit denen deutsche Unternehmen ihre neuen Mitarbeiter bereits beim Onboarding in ihre Cyber-Verteidigung integrieren können.

proofpoint-miro-mitrovic

Foto: Proofpoint

Miro Mitrovic: Ein flexibles Security-Awareness-Programm, das regelmäßig aktualisiert wird, ist darum unerlässlich!

Klare Definition eines Cyber-Vorfalls erforderlich

Mitrovic führt aus: „Ein wesentlicher Bestandteil jeder Einarbeitung sollte eine klare Definition dessen sein, was einen Cyber-Vorfall ausmacht – sei es eine ungewöhnliche Netzwerkaktivität, ein unbefugter Zugriffsversuch oder eine Phishing-Mail.“ Neue Mitarbeiter sollten ermutigt werden, verdächtige Aktivitäten sofort über die offiziellen Kanäle zu melden, damit das Sicherheitsteam schnell handeln kann. „Eine offene Kommunikationskultur, gepaart mit klaren Richtlinien, sorgt dafür, dass potenzielle Bedrohungen frühzeitig erkannt und entschärft werden.“

Cyber-Sicherheit sei keine exklusive Aufgabe der IT-Abteilung, sondern eine gemeinsame Verantwortung der gesamten Belegschaft. „Mit einem durchdachten Onboarding-Programm können Unternehmen nicht nur die Sicherheit ihrer Systeme verbessern, sondern auch eine nachhaltige Sicherheitskultur etablieren“, betont Mitrovic. Indem neue Mitarbeiter von Anfang an in die Sicherheitsstrategie eingebunden werden, könnten sie einen wertvollen Beitrag zum Schutz des Unternehmens leisten. Zu diesem Zweck gelte es die folgenden vier Tipps zu beachten:

1. Cyber-Sicherheitstipp: Kennwortsicherheit – die erste Verteidigungslinie stärken

Die Wahl eines sicheren Passworts sei eine der einfachsten und zugleich wirksamsten Maßnahmen, um unberechtigten Zugriff auf Unternehmenssysteme zu verhindern. Neue Mitarbeiter sollten lernen, einzigartige und komplexe Passwörter zu erstellen, die aus einer Kombination von Zahlen, Buchstaben und Sonderzeichen bestehen.

  • Ergänzend sollte die Multi-Faktor-Authentifizierung (MFA) verpflichtend eingeführt werden, um eine zusätzliche Sicherheitsebene zu schaffen.

„Eine fundierte Einführung in das Thema Passwortsicherheit vermittelt nicht nur die technischen Grundlagen, sondern schärft auch das Bewusstsein dafür, dass jeder Einzelne aktiv zur Abwehr von Cyber-Bedrohungen beitragen kann.“

2. Cyber-Sicherheitstipp: Phishing und E-Mail-Betrug – Taktiken der Cyber-Kriminellen erkennen

Phishing-Angriffe gehörten zu den häufigsten Methoden Cyber-Krimineller, um an sensible Informationen zu gelangen. „Ob durch gefälschte E-Mails, SMS oder Anrufe – die Angreifer setzen auf psychologische Tricks, um Vertrauen zu schaffen und Mitarbeitende zur Preisgabe vertraulicher Daten zu bewegen.“

  • Neue Kollegen sollten lernen, typische Warnsignale wie unerwartete Aufforderungen, verdächtige Links oder ein ungewöhnliches Branding zu erkennen.

Wichtig sei auch die Aufklärung über „Business Email Compromise“ (BEC) – eine raffinierte Methode, bei der sich Angreifer als Vorgesetzte oder Kollegen ausgeben. Grundsätzlich gilt laut Mitrovic: „Verdächtige Anfragen müssen immer persönlich über offizielle Kanäle bestätigt werden, bevor gehandelt wird!“

3. Cyber-Sicherheitstipp: Datenschutz und Gerätesicherheit – Schutz vertraulicher Daten

Der Schutz sensibler Unternehmensdaten beginne mit dem richtigen Umgang und der Sicherung von Geräten. Neue Mitarbeiter sollten umfassend über die Datenschutzrichtlinien des Unternehmens informiert werden.

  • Dazu gehöre auch die Aufforderung, nur von der Organisation genehmigte Software zu verwenden, Geräte bei Nichtbenutzung zu sperren und verlorene oder gestohlene Geräte unverzüglich der IT-Abteilung zu melden.

Darüber hinaus sollten die Benutzer in sicherem Online-Verhalten geschult werden, beispielsweise öffentliche WLAN-Netzwerke zu meiden und Website-Adressen auf Sicherheitsmerkmale wie „https://“ und das Schlosssymbol hin zu überprüfen. „Diese einfachen Schritte tragen wesentlich dazu bei, die Angriffsfläche des Unternehmens zu minimieren.“

4. Cyber-Sicherheitstipp: Neu entwickelte Bedrohungen – Vorbereitungen auf das Unbekannte

Cyber-Kriminelle setzten zunehmend auf ausgeklügelte Taktiken wie KI-gestützte Angriffe, sogenannte Deepfakes und die Manipulation von Kollaborationstools wie „Teams“ oder „Slack“.

  • Neue Mitarbeiter müssten für diese dynamischen Bedrohungen sensibilisiert werden und lernen, sich gegen täuschend echte Angriffe zu wappnen.

„Ein flexibles Security-Awareness-Programm, das regelmäßig aktualisiert wird, ist darum unerlässlich“, unterstreicht Mitrovic abschließend. Denn nur so könnten Unternehmen sicherstellen, dass ihre Mitarbeiter auf die neuesten Angriffsmethoden vorbereitet sind und schnell angemessen reagieren können.

Weitere Informationen zum Thema:

datensicherheit.de, 14.02.2025
Datenschutz-Schulungen: Ein Drittel der Unternehmen versäumt es, Mitarbeitern Aktualisierungen anzubieten / Zwar 87 Prozent der Unternehmen ihren Mitarbeitern Datenschutz-Schulungen an, aber nur 68 Prozent aktualisieren diese Materialien regelmäßig

datensicherheit.de, 09.12.2024
Mitarbeiterverhalten: CyberArk-Studie 2024 deckt Sicherheitsrisiken auf / Sicherheitsteams sollten Anwendung von Identity-Security-Kontrollen neu überdenken

datensicherheit.de, 18.05.2024
Cyber-Angriff mittels Deepfake-Phishing: Mitarbeiter sensibilisieren, CEO-Imitationen zu erkennen! / Anrufe und Textnachrichten sowie mindestens eine Sprachnachricht mit einer per Deepfake-Technologie gefälschten Stimme des CEO

datensicherheit.de, 26.11.2023
IT – Interner Täter: Mitarbeiter noch größere Gefahr als Hacker / In den vergangenen zwei Jahren mehr als ein Drittel aller Cyber-Sicherheitsvorfälle in Deutschland auf Fehlverhalten von Mitarbeitern zurückzuführen

datensicherheit.de, 04.04.2023
Selbstüberschätzung: Mitarbeiter gefährden Cyber-Sicherheit in Unternehmen / Mehr als die Hälfte der Erwachsenen in Deutschland der Meinung, überdurchschnittliche Kenntnisse in Sachen Cyber-Sicherheit zu besitzen

]]>
https://www.datensicherheit.de/mitarbeiter-unternehmen-sicherheit-risiko/feed 0
Cyber-Bedrohungen: G DATA warnt vor mangelndem Risikobewusstsein – insbesondere der KMU https://www.datensicherheit.de/cyber-bedrohung-risiko-bewusstsein-kmu https://www.datensicherheit.de/cyber-bedrohung-risiko-bewusstsein-kmu#respond Thu, 27 Mar 2025 12:29:08 +0000 https://www.datensicherheit.de/?p=46949 Offensichtlich eine fatale Fehleinschätzung: Zwei von fünf Arbeitnehmern halten ihr Unternehmen für kein lohnendes Cyber-Angriffsziel

[datensicherheit.de, 27.03.2025] Laut der aktuellen Studie „Cybersicherheit in Zahlen“ von G DATA CyberDefense, Statista und „brand eins“ halten 43 Prozent der Angestellten in Deutschland ihr Unternehmen für kein attraktives Angriffsziel. Indes: Cyber-Kriminalität kann jedes Unternehmen treffen – vom kleinen Handwerksbetrieb bis zum internationalen Konzern. Diese Umfrage zeigt demnach außerdem, dass das Bewusstsein der Mitarbeiter für Cyber-Risiken mit der Unternehmensgröße steigt – „insbesondere in KMU wird die Gefahr aber unterschätzt“.

g-data-andreas-luehning

Foto: G DATA CyberDefense

Andreas Lüning rät Unternehmen, auf eine über die Technik hinausgehende, die Menschen umfassende Cyber-Sicherheitsstrategie zu setzen

Mehr als die Hälfte der KMU-Belegschaften schätzen ihren Betrieb als uninteressantes Ziel für Cyber-Kriminelle ein

Für Cyber-Kriminelle zählt offenbar nicht, wie groß oder bekannt eine Firma ist, sondern wie leicht sie in deren IT-Systeme eindringen können. Im Kontrast dazu steht laut G Data die weitverbreitete Einschätzung, „kein interessantes Ziel für Angreifer“ zu sein, – diese Meinung werde von zwei von fünf deutschen Arbeitnehmern vertreten.

Besonders ausgeprägt sei diese gefährliche Fehleinschätzung in Unternehmen mit 100 bis 249 Mitarbeitern: „Mehr als die Hälfte der Belegschaft von KMU schätzen ihre Firma als uninteressantes Ziel für Cyber-Kriminelle ein“, so eine Erkenntnis aus der aktuellen Studie „Cybersicherheit in Zahlen“.

„Angreifer wählen ihre Ziele nicht nach Branche oder Größe, sondern nach Schwachstellen aus“, kommentiert Andreas Lüning, Gründer und Vorstand bei der G DATA CyberDefense AG. Dazu zählten verwundbare Strukturen, mangelhaft gesicherte Systeme und unaufmerksame Mitarbeiter. Er rät: „In jedem Unternehmen ist eine Sicherheitsstrategie sinnvoll, die nicht nur auf Technik setzt, sondern auch das Risikobewusstsein des gesamten Teams stärkt!“

Cyber-Gefahrenbewusstsein der Angestellten nimmt mit der Unternehmensgröße zu

Je größer das Unternehmen ist, desto eher werde es von den Mitarbeitern als Ziel für Cyber-Angriffe wahrgenommen. „In Firmen mit 250 bis 999 Beschäftigten hält gut die Hälfte der Befragten ihren Arbeitgeber für ein potenzielles Angriffsziel.“ In großen Unternehmen mit mehr als 1.000 Mitarbeitern sei das Bewusstsein für das Angriffsrisiko bei fast 70 Prozent der Beschäftigten vorhanden.

Dies sei darauf zurückzuführen, dass Konzerne häufig über regulierte Prozesse oder verpflichtende Sicherheitsmaßnahmen verfügten. „Dennoch ist auch hier noch Luft nach oben: Im Umkehrschluss bedeutet es nämlich, dass fast jeder dritte Beschäftigte in großen Firmen die Cyber-Bedrohung falsch einschätzt.“

Eine wirksame IT-Sicherheitsstrategie berücksichtige nicht nur technische Schutzmaßnahmen, sondern beziehe auch die Mitarbeiter mit ein. Informationssicherheit sei eine Teamaufgabe – alle Beschäftigten, vom Auszubildenden bis zur Geschäftsführung, sollten potenzielle Gefahren kennen und wissen, wie sie verantwortungsvoll handeln.

Weitere Informationen zum Thema:

G Data Cyber Defense
Cybersicherheit in Zahlen – das IT-Magazin / Wir machen Komplexes verständlich. Auf 104 Magazinseiten.

datensicherheit.de, 18.07.2024
Cyber-Sicherheit der KMU benötigt neue Ansätze: 4 Tipps von Utimaco / KMU sollten Cyber-Sicherheitsmaßnahmen so anpassen, dass sie auch künftig -Angriffen standhalten

datensicherheit.de, 24.03.2024
CyberRisikoCheck zu Positionsbestimmung der IT-Sicherheit für KMU / BSI möchte gemeinsam mit Partnern KMU dabei unterstützen, ihre Cyber-Resilienz zu erhöhen

datensicherheit.de, 24.10.2023
KMU-Studie zur IT-Sicherheit – ein Hürdenlauf für den Mittelstand / DriveLock und techconsult empfehlen deutschen KMU einfache und robuste Cyber-Sicherheit

datensicherheit.de, 10.03.2022
Schutz statt Nachlässigkeit: 5 einfache Tipps zur Stärkung der KMU-Cybersecurity / Bewusstsein, wie wichtig auch der KMU-Schutz vor Cyber-Attacken ist, noch lange nicht geschärft

]]>
https://www.datensicherheit.de/cyber-bedrohung-risiko-bewusstsein-kmu/feed 0
Colt: Test zur quantengesicherten Verschlüsselung im optischen Netz abgeschlossen https://www.datensicherheit.de/colt-abschluss-test-quantencomputer-verschluesselung https://www.datensicherheit.de/colt-abschluss-test-quantencomputer-verschluesselung#respond Tue, 25 Mar 2025 13:58:46 +0000 https://www.datensicherheit.de/?p=46867 Technologiepartner erforschen gemeinsam neue Möglichkeiten, um den von Quantencomputern ausgehenden Risiken für Verschlüsselung zu begegnen

[datensicherheit.de, 25.03.2025] Colt Technology Services, globaler Anbieter für digitale Infrastruktur, hat in seinem optischen Wavelength-Netzwerk einen erfolgreichen Test zur quantengesicherten Verschlüsselung durchgeführt. Dafür hat das Unternehmen mit verschiedenen Technologiepartnern zusammengearbeitet, darunter Adtran, Ciena, ID Quantique (IDQ), Nokia und Toshiba, um nach eigenen Angaben zusätzliche Dienstleistungen für globale Unternehmen anzubieten, die sich auf eine quantengesicherte Zukunft vorbereiten.

Colt Quantenverschlüsselung

Colt Quantenverschlüsselung © Colt/Just_Super Secured

Auf Basis des erfolgreichen Tests will Colt nun neue maßgeschneiderte Lösungen entwickeln, die Unternehmen vor den Risiken schützen, die Quantencomputer für die Entschlüsselung klassischer Verschlüsselungsmethoden darstellen. Die neuen quantengesicherten Verschlüsselungslösungen würden entsprechend den individuellen Anforderungen der Colt-Kunden angepasst und installiert. Sie erweiterten und ergänzten das bestehende Portfolio von Colt im Bereich der optischen Verschlüsselung. Zu diesen neuen Lösungen gehören:

  • Quantengesicherte Verschlüsselung für Wavelength-Services von Colt in Metro-, nationalen und internationalen Netzwerken
  • Quantengesicherte Verschlüsselung für das private Netzwerk eines Kunden in Metro-, nationalen und internationalen Netzwerken

Für Colt ist der Test nach eigenem Bekunden ein bedeutender Schritt zur Erprobung neuer Technologien, um zukünftige Herausforderungen für seine globalen Kunden zu lösen, sowie für die Integration verschiedener Partner. Colt könne somit quantengesicherte Netzwerkfunktionen herstellerunabhängig anbieten. Dadurch erhielten Kunden eine größere Auswahl an Lösungen für ihre aktuellen und künftigen Anforderungen.

Starkes Wachstum im Quantenmarkt von 2023 bis 2035 erwartet

Für den Quantenmarkt wird von 2023 bis 2035 eine jährliche Wachstumsrate (CAGR – Compound Annual Growth Rate) von 23 bis 25 Prozent prognostiziert. Branchen wie Finanzdienstleistungen, Verteidigung und Gesundheitswesen würden zu den ersten gehören, die von dem umfassenden Problemlösungspotenzial der Quantentechnologie profitierten. Gleichzeitig müssten sich Unternehmen vor den Risiken schützen, die von Quantencomputern ausgingen. Dazu gehören der „Jetzt sammeln, später entschlüsseln“-Ansatz, bei dem Angreifer zunächst Daten mit der Absicht zusammentragen und speichern, um sie später zu entschlüsseln, also sobald die Quantentechnologie ausgereift ist. Wichtig sei hierbei auch die Vorbereitung auf den „Q-Day“, also den Zeitpunkt, an dem Quantencomputer voraussichtlich in der Lage sein werden, klassische Verschlüsselungsmethoden zu brechen.

Buddy Bayer, Chief Operating Officer von Colt Technology Services, sagt: „Der Schutz von Daten vor künftigen Risiken ist eine große Herausforderung für Unternehmen. Das gilt besonders für die Bedrohung durch die komplexe und unbekannte Quanten-Technologie. Unser Test hat einige der bekanntesten Partner, fortschrittlichsten Technologien und größten technischen Experten der Branche mit einem einzigen gemeinsamen Ziel zusammengebracht: eine Lösung zu finden, damit unsere Kunden einer Quantenzukunft mit Zuversicht entgegensehen können. Gemeinsam haben wir dieses Ziel erreicht.“

Technischen Spezifikationen des Tests

  • Im Rahmen des Tests wurden verschiedene quantengesicherte Verschlüsselungsmethoden für den Datenverkehr über das optische Wavelength-Netz von Colt getestet. Dazu gehörten: Quantum Key Distribution (QKD), Pre-Shared Key (PSK) mit symmetrischer Schlüsselverteilung und Post-Quantum Cryptography (PQC).
  • Colt testete diese unterschiedlichen, aber komplementären Quantensicherheitsfunktionen in seinem Netz zwischen London und Frankfurt auf einer Strecke von 1.361 km und in seinem Metro-Netz zwischen zwei Colt Points of Presence (PoPs) in der Londoner City sowie einem PoP in Slough auf einer Strecke von 88 km.
  • Der Quantum-Key-Distributionstest fand zwischen London City und Slough in Großbritannien statt. Mehrere Partnerlösungen evaluierten Quantum-Key-Distributionsszenarien sowohl in Point-to-Point- als auch in Trusted-Node-Topologien. Colt testete die Szenarien unter Verwendung von Dual-Fiber-Pair- als auch Single-Fiber-Pair-Netzwerken. Im Single-Fiber-Pair-Szenario transportierte Colt sowohl Quantenkanal- als auch Datendienste auf demselben Faserpaar.

Colt erwartet, dass seine Finanzdienstleistungskunden zu den ersten gehören werden, die von den neuen Lösungen profitieren könnten, da diese Branche bereits Vorreiter beim Einsatz der Quantentechnologie seien. Deloitte Insights geht davon aus, dass die Investitionen der Finanzdienstleistungsbranche in Quantencomputing-Funktionen zwischen 2022 und 2032 mit einer jährlichen Wachstumsrate von 72 Prozent wachsen werden, von 80 Millionen US-Dollar im Jahr 2022 auf 19 Milliarden US-Dollar im Jahr 2032. Zu den Anwendungsfällen in der Branche gehören das Risikomanagement, die Aufdeckung und Eindämmung von Betrug, die Portfolio-Optimierung und Marktanalyse, die Preisgestaltung für komplexe Derivate, der Hochfrequenzhandel und die Sicherung von Finanzgeschäften.

Buddy Bayer ergänzt: „Mit diesem erfolgreichen Test halten wir nicht nur mit der Zukunft der Cyber-Sicherheit Schritt, wir sind sogar führend in der Entwicklung. Unser Engagement für Innovation und Sicherheit versetzt unsere Kunden in die Lage, selbstbewusst durch das Quantenzeitalter zu navigieren und ihre Daten durch die fortschrittlichsten Verschlüsselungstechnologien zu schützen.“

Weitere Informationen zum Thema:

datensicherheit.de, 27.02.2025
AWS stellt Quantencomputer-Chip „Ocelot“ vor

]]>
https://www.datensicherheit.de/colt-abschluss-test-quantencomputer-verschluesselung/feed 0
Schatten-KI und EU AI Act: Unternehmen müssen sich den Herausforderungen zeitnah stellen https://www.datensicherheit.de/schatten-ki-eu-ai-act-unternehmen-muss-herausforderungen-stellung https://www.datensicherheit.de/schatten-ki-eu-ai-act-unternehmen-muss-herausforderungen-stellung#respond Tue, 28 May 2024 11:51:36 +0000 https://www.datensicherheit.de/?p=44763 Philipp Adamidis nimmt Stellung zu Aspekten der erfolgreichen KI-Transformation

[datensicherheit.de, 28.05.2024] Die Fortentwicklung Künstlicher Intelligenz (KI) schreitet offensichtlich mit großen Schritten voran. Ein Beispiel dafür ist nach Ansicht von Philipp Adamidis, „CEO“ und Mitgründer von QuantPi, die in diesen Tagen erschienene neueste Version von „ChatGPT“, welche auch kostenlos zur Verfügung stehe. In seiner aktuellen Stellungnahme geht er aber auch darauf ein, dass gleichzeitig die Skepsis gegenüber dieser neuen Technologie nach wie vor groß sei. Adamidis versteht sich als Pionier auf dem Gebiet vertrauensvoller KI und erörtert die Chancen und Risiken:

Schatten-KI als ernsthaftes Sicherheitsproblem für Unternehmen

Adamidis betont: „KI wird nun endgültig Teil des Arbeitsalltags vieler Menschen. Ich bin sicher, dass der Produktivitätsboost in ganz unterschiedlichen Arbeitsbereichen enorm sein wird.“ Zugleich nähmen allerdings auch die Risiken zu: Der Einsatz sogenannter Schatten-KI, d.h. unautorisierter KI-Tools, werde sich zu einem ernsthaften Sicherheitsproblem für Unternehmen entwickeln. Er warnt ferner: „Doch auch wenn Unternehmen KI einkaufen oder selbst entwickeln, werden die Tools in den meisten Fällen nicht gründlich genug getestet und sind somit ein erhebliches Sicherheits- und Compliance-Risiko.“

Zudem stelle der „EU AI Act“ Organisationen in der kommenden Zeit vor große Herausforderungen. Die alles beherrschende Frage lautet demnach: „Wie gelangen wir zu einer sicheren und verantwortungsbewussten Nutzung von KI?“ man dürfe sich hierbei nicht allein auf die Hersteller und Anbieter von KI-Tools verlassen. „Für Transparenz, Erklärbarkeit und Kontrolle werden wir alle gemeinsam sorgen müssen“, so Adamidis.

Richtlinien für den KI-Umgang unerlässlich

Er hebt hervor, dass klare Richtlinien für den KI-Umgang unerlässlich seien. Ferner sollten Unternehmen dazu in der Lage sein, die eingesetzten KI-Tools selbst zu überprüfen. Nur dann könnten die notwendigen Schutzmaßnahmen ergriffen werden, um die rechtlichen und ethischen Standards des eigenen Unternehmens sicherzustellen. Dies klinge für viele Unternehmen natürlich erst einmal utopisch.

Gerade kleine und mittlere Unternehmen (KMU) verfügten in der Regel nicht über die personellen und finanziellen Ressourcen, um komplexe KI-Systeme zu benchmarken – von sogenannten Start-ups ganz zu schweigen. Die gute Nachricht sei jedoch: Mithilfe innovativer Software-Lösungen ließen sich selbst höchst komplexe „Large Language Models“ inzwischen einfach und ressourcenschonend überprüfen. Auf diese Weise hätten Unternehmen die sichere und verantwortungsbewusste KI-Transformation selbst in der Hand.

Überblick über alle eingesetzten KI-Systeme nebst Risikoklasse

Zum Thema „AI Act“ der EU kommentiert Adamidis: „Der Faktor Zeit ist ganz entscheidend: Unternehmen sollten möglichst rasch einen detaillierten Maßnahmenplan erarbeiten und umsetzen, ansonsten drohen empfindliche Geldbußen!“ Die Bußgelder könnten sich auf bis zu sieben Prozent des erzielten Umsatzes belaufen.

Eine der größten Aufgaben sei es zweifellos, sich einen Überblick über alle eingesetzten KI-Systeme zu verschaffen und die jeweilige Risikoklasse zu ermitteln. Dabei seien diverse Sonderbestimmungen und Ausnahmeregelungen zu beachten. Aber auch die umfangreichen Dokumentations- und Transparenzpflichten sollten nicht unterschätzt werden. „Spezialisierte Risikomanagement-Plattformen erleichtern es glücklicherweise, im Dickicht der Vorschriften und Regelungen den Überblick zu behalten und die technischen und administrativen Herausforderungen zu meistern.“ Das viel gefürchtete Compliance-Chaos lasse sich also mit relativ geringem Aufwand vermeiden.

Verantwortungsvoller KI-Umgang erfolgsentscheidend

Adamidis beobachtet seit geraumer Zeit mit Sorge, dass viele Akteure im KI-Bereich das Thema Vertrauenswürdigkeit zwar werbewirksam auf die Fahnen schrieben, es jedoch in der Praxis nicht immer mit der nötigen Sorgfalt behandelten: „Dadurch ist gerade in jüngster Zeit viel Vertrauen verspielt worden!“

Abschließend stellt er klar: „Dass OpenAI das gesamte Sicherheits-Team aufgelöst hat, halte ich für ein fatales Signal. Denn eines muss uns doch klar sein: Wenn es uns nicht gelingt, zu einem verantwortungsvollen Umgang mit der neuen Technologie zu gelangen und dadurch das Vertrauen der Menschen zu gewinnen, wird die größte technologische Revolution seit der Einführung des Internets unweigerlich scheitern.“

Weitere Informationen zum Thema:

datensicherheit.de, 24.05.2024
KI im Gesundheitswesen: it’s.BB e.V. lädt zur nächsten Awareness-Veranstaltung ein / Rechtliche und technische Herausforderungen des KI-Einsatzes im Fokus

datensicherheit.de, 09.05.2024
Nationale Zuständigkeiten für die KI-Verordnung: Datenschutzkonferenz fordert Aufsicht aus einer Hand / Die DSK empfiehlt, als Marktüberwachungsbehörden nach der KI-VO den Bundesbeauftragten für den Datenschutz und die Informationsfreiheit sowie die Landesdatenschutzbehörden zu benennen

datensicherheit.de, 06.05.2024
DSK-Orientierungshilfe für Unternehmen und Behörden zum datenschutzkonformen KI-Einsatz / Die Orientierungshilfe „Künstliche Intelligenz und Datenschutz“ richtet sich an Unternehmen, Behörden und andere Organisationen

]]>
https://www.datensicherheit.de/schatten-ki-eu-ai-act-unternehmen-muss-herausforderungen-stellung/feed 0