Edge-Computing – datensicherheit.de Informationen zu Datensicherheit und Datenschutz https://www.datensicherheit.de Datensicherheit und Datenschutz im Überblick Tue, 25 Mar 2025 11:08:39 +0000 de hourly 1 https://wordpress.org/?v=5.6.16 Intelligente Produktion: Smarte Roboter erobern die Fabrik​ https://www.datensicherheit.de/produktion-smarte-roboter-fabrik https://www.datensicherheit.de/produktion-smarte-roboter-fabrik#respond Tue, 25 Mar 2025 11:08:17 +0000 https://www.datensicherheit.de/?p=46837 Vier Beispiele für das Zusammenspiel von KI und Edge Computing

[datensicherheit.de, 25.03.2025] Die intelligente Fabrik ist längst Realität – und auch der „unwissende“ Roboter von einst gehört mehr und mehr der Vergangenheit an und werden durch sogenannte „smarte Roboter“ nach und nach ersetzt. Eine solche Fabrik zeichnet sich durch die Kombination verschiedener Technologien aus, die nahtlos ineinandergreifen. NTT DATA erklärt, welche Rolle KI und Edge Computing dabei spielen. ​

Jochen Gemeinhardt, Head of Production & Supply Chain bei NTT DATA DACH

Jochen Gemeinhardt, Head of Production & Supply Chain bei NTT DATA DACH, Bild: NTT DATA

Seit mehr als einem halben Jahrhundert sortieren, schrauben, nieten, schweißen und lackieren Industrieroboter in den Fabriken dieser Welt. Bislang folgten sie dabei streng vorgegebenen Bewegungsabläufen, doch inzwischen kann Künstliche Intelligenz (KI) die mechanischen Helfer flexibler, effizienter und zuverlässiger machen.

Smarte Roboter und die Optimierungspotenziale

Vor allem im Zusammenspiel mit einem digitalen Zwilling, der die gesamte Produktionsumgebung abbildet, ergeben sich erhebliche Optimierungspotenziale in den unterschiedlichsten Anwendungsbereichen. NTT DATA stellt vier Beispiele vor.

  • Präzise und adaptive Robotersteuerung. In naher Zukunft werden Roboter dank Künstlicher Intelligenz und moderner Sensortechnologie flexibler, autonomer und vollständig ins Industrial Metaverse integriert sein. Mit Hilfe von hochauflösenden Kameras, KI-gestützter Bildverarbeitung, Edge-Computing und Generative AI (GenAI) können sie ihre Umgebung in Echtzeit analysieren und flexibel auf jede noch so unvorhergesehene Situation reagieren. Insbesondere GenAI hilft den Robotern, kreative Lösungen etwa bei Produktionsstörungen oder Materialengpässen zu entwickeln und selbstständig Alternativen auszuwählen. Durch die Integration ins Industrial Metaverse werden zudem physische und digitale Produktionswelten noch stärker miteinander verknüpft: Digitale Zwillinge ermöglichen es beispielsweise, Produktionsprozesse in Echtzeit zu überwachen und zu simulieren, ohne den laufenden Betrieb zu stören. Unternehmen können so fundierte Entscheidungen treffen und ihre Effizienz steigern. Edge-Computing liefert die nötige Rechenleistung für die Datenverarbeitung und Entscheidungsfindung direkt vor Ort, der aktuelle Mobilfunkstandard 5G wiederum sorgt für eine extrem schnelle und zuverlässige Datenübertragung mit geringer Latenz, wie sie Echtzeitanwendungen benötigen.
  • Qualitätskontrolle in Echtzeit. In der modernen Produktion ermöglicht die Kombination von KI, Edge-Computing und Industrial Internet of Things (IIoT) eine völlig neue Art der Qualitätskontrolle. KI-gestützte Bildverarbeitung und Mustererkennung sorgen dafür, dass Produktionsfehler – etwa falsch montierte Bauteile, Oberflächenfehler wie Kratzer und Risse, Farbabweichungen oder fehlende Komponenten – in Echtzeit erkannt werden. Dazu sammeln Sensoren, die direkt an den Produktionsanlagen und -linien installiert sind, kontinuierlich Daten, die über das IIoT-Netzwerk an lokale Edge-Computing-Systeme übermittelt werden. GenAI wird auch in der Qualitätskontrolle eine wichtige Rolle spielen: Wenn Roboter in der Produktion auf unbekannte oder unregelmäßige Objekte stoßen, können sie diese nicht nur erkennen, sondern auch selbstständig eine Lösung für das Problem finden. So kann der Roboter ein ihm unbekanntes Bauteil anhand von Datenbanken oder Bildern aus dem Internet identifizieren und herausfinden, wie es richtig gehandhabt werden muss, um Beschädigungen oder Produktionsunterbrechungen zu vermeiden.
  • Vorausschauende Wartung. Die vorausschauende Wartung wird durch den Einsatz der genannten Technologien „revolutioniert“. Sensoren an kritischen Maschinenkomponenten wie Lagern, Motoren und Hydrauliksystemen überwachen kontinuierlich Betriebsparameter wie Temperatur, Vibrationen, Geräusche und Druck. Diese Daten werden in Echtzeit analysiert, um den Zustand der Maschinen zu überwachen und Abweichungen anzuzeigen, die auf einen Verschleiß oder drohenden Ausfall hindeuten. Mit GenAI lassen sich noch fortschrittlichere Wartungslösungen realisieren. GenAI kann nicht nur Anomalien erkennen, sondern auch Vorschläge zur Optimierung der Maschinenparameter entwickeln – mit dem Ziel, den Verschleiß zu minimieren und die Lebensdauer zu verlängern. Droht ein Defekt, schlägt die Technologie zudem in Echtzeit alternative Reparaturstrategien vor.
  • Optimierte Lagerhaltung und Energieeffizienz. Ein weiterer Vorteil ist die automatisierte Bestandsüberwachung. Sensoren erfassen kontinuierlich den Bestand an Materialien und Bauteilen, sodass die Lagerbestände automatisch aktualisiert und angepasst werden. Ein intelligentes Bestandsmanagement in Echtzeit kann verhindern, dass Teile fehlen oder unnötig vorgehalten werden, was Lagerkosten und Kapitalbindung reduziert. In Verbindung mit vorausschauender Wartung und Qualitätskontrolle in Echtzeit trägt ein solches Bestandsmanagement dazu bei, Produktionsprozesse noch reibungsloser zu gestalten. Werden Maschinenausfälle vermieden und Produktionsfehler sofort erkannt, lassen sich Verzögerungen vermeiden und die Lagerhaltung optimal auf den aktuellen Bedarf abstimmen. Eine effiziente Gestaltung des Materialflusses minimiert unnötige Lagerbewegungen und -prozesse, sodass darüber hinaus erhebliche Energieeinsparungen erzielt werden können. Dies trägt direkt zur Reduzierung des CO₂-Ausstoßes bei und hilft Unternehmen, ihre Nachhaltigkeitsziele zu erreichen und gleichzeitig die Betriebskosten zu senken.

„Industrieroboter werden durch Kombination von KI, Generative AI und Edge-Computing zu autonomen, flexiblen Systemen und leiten eine neue Ära der Produktionsoptimierung ein. Mit Integration in das Industrial Metaverse und unterstützt durch digitale Zwillinge können Unternehmen umfangreiche Simulationen durchführen, die zuverlässige Vorhersagen und Prozessanpassungen erlauben – ohne Unterbrechung der realen Produktion. Diese

Technologien ermöglichen nicht nur eine dynamische Optimierung von Produktionsparametern und die Reduktion des Energieverbrauchs, sondern führen auch zu einem Paradigmenwechsel im operativen Betrieb und Geschäftsmodell. Produktionsprozesse werden immer dezentraler, anpassungsfähiger und datengesteuerter, während Unternehmen gleichzeitig neue Wertschöpfungspotenziale durch flexible Fertigungslinien und datenbasierte Geschäftsmodelle erschließen. Dadurch schaffen sie eine adaptive, effiziente und nachhaltige Fertigungsumgebung, die optimal für künftige Anforderungen gewappnet ist“, erklärt Jochen Gemeinhardt, Head of Production & Supply Chain bei NTT DATA DACH.

]]>
https://www.datensicherheit.de/produktion-smarte-roboter-fabrik/feed 0
Zero Trust: Sicherheit auch für 5G und Edge Computing https://www.datensicherheit.de/zero-trust-sicherheit-5g-edge-computing https://www.datensicherheit.de/zero-trust-sicherheit-5g-edge-computing#respond Tue, 28 Nov 2023 16:52:00 +0000 https://www.datensicherheit.de/?p=43803 Architekturen im Wandel durch neue Serviceanforderungen

Von unserem Gastautor Nathan Howe, VP of Emerging Technology bei Zscaler

[datensicherheit.de, 28.11.2023] 5G und Edge Computing sind die Grundlage für die nächste Stufe der digitalen Transformation. Für die Sicherheit der Datenströme sorgt dabei das Prinzip Zero Trust. Während 5G die Verbindungsgeschwindigkeit erhöht und Daten zehnmal schneller als bislang möglich verarbeitet, verringert Edge Computing die Latenz, da das Computing nahe an den User oder das Endgerät rückt. Daten werden dort, wo sie generiert werden und damit dezentral am Rande des Netzwerks, auch verarbeitet. Diese leistungsstarke Symbiose könnte langfristig sogar die traditionellen Netzwerkstrukturen ersetzen.

Nathan Howe, Strategic Transformation Director EMEA bei Zscaler

Nathan Howe, VP of Emerging Technology bei Zscaler, Bild: Zscaler

Edge Computing – vom Konzept zum akzeptierten Modell entwickelt

Edge Computing hat in den letzten Jahren eine beeindruckende Transformation durchlaufen und sich von einem Konzept zu einem akzeptierten Modell entwickelt, für das erste Anwendungsfälle bestehen. Damit es so weit kommen konnte, war zuerst einmal ein Umdenken erforderlich, das für die Entstehung von Services an der Egde stattfinden musste. Die sichere Verarbeitung der Daten in der Nähe deren Entstehung steht im Mittelpunkt und geht derzeit auch mit einem weiteren Trend einher: Unternehmen achten nicht mehr nur auf Datenresilienz, sondern auch auf Daten-Residence.

Jüngste geopolitische Ereignisse verdeutlichen die Notwendigkeit von sicheren Diensten und verstärken den Wunsch nach lokaler Datenvorhaltung. Anstelle der Anforderung nach allgegenwärtiger Konnektivität über das Internet setzt derzeit ein gegenläufiger Trend nach garantierter Servicequalität ein, auch wenn das Internet nicht verfügbar sein sollte. Diese Trends nach geringer Latenz, Daten-Resilienz und -Residenz in Verbindung mit neuen Funktionsanforderungen führen zu einem Wandel technischer Architekturen und geben Edge Computing-Anwendungen Rückenwind.

Architekturen im Wandel durch neue Serviceanforderungen

Diese Revision geht mit einer Abkehr vom herkömmlichen zentralisierten Modell der Anwendungsvorhaltung hin zu verteilten Architekturen einher. Moderne Anforderungen führen zu einer grundlegenden Überarbeitung der technischen Infrastruktur, um den Übergang von monolithischen Anwendungen zu einem verteilten Modell zu ermöglichen. Die Cloud hat diesen Fortschritt eingeläutet, denn in einem ersten Schritt wurden Anwendungen aus dem Rechenzentrum in die Cloud verlagert. Im nächsten Schritt erfolgt der Sprung zu einem verteilten Modell, bei dem bestimmte Funktionalität ausschließlich an bestimmten Orten abgefragt und vorgehalten wird. Dafür ist eine neue Effizienz hinsichtlich der Ausfallsicherheit, die Datenverfügbarkeit und insbesondere geringere Latenzzeiten erforderlich, die durch die performante Funkdatenübertragung per 5G ermöglicht wird.

Nachdruck erhält die Edge-Diskussion ebenfalls durch eine verstärkte Nachfrage nach Services. Unternehmen rücken von der Vorhaltung eigener Infrastrukturen ab und sind zu Gunsten einer gesteigerten Agilität und Flexibilität bereit, mehr Dienstleistungen zu beziehen. Ein Beispiel dafür: Anstelle des eigenen WiFi-Netzwerks kann ein Service für die Datenübertragung genutzt werden, der über 4G- oder 5G-Konnektivität bereitgestellt wird und bei dem die Anbindung zum Internet über ein öffentliches Netz anstelle des privaten Netzwerks tritt. Wird über einen solchen Service nachgedacht, müssen sich die Verantwortlichen ebenfalls Gedanken über die Absicherung der Datenströme machen.

Zero Trust macht die sichere Kommunikation möglich

Laut dem National Institute of Standards and Technology (NIST) basiert das zugrundeliegende Prinzip von Zero Trust darauf, kein implizites Vertrauen aufgrund von Netzwerkelementen oder Benutzerkonten allein aufgrund ihres physischen oder ihres Standorts im Netzwerk oder aufgrund des Besitzes eines Endgeräts zu gewähren. Bei diesem Ansatz wird die gesamte Kommunikation erst einmal als unsicher oder feindlich erachtet. Sie wird so lange nicht erlaubt, bis sie durch Identitäts-basierte Richtlinien überprüft werden konnte. Auf diese Weise kann unerlaubter Zugang auf Applikationen, Workloads oder laterale Bewegungen von Angreifern unterbunden werden.

Der Übergang zu verteilten Architekturen mit Edge Computing als Kernstück erfordert die Integration von Zero Trust-Prinzipien zur Sicherheit. Das Zero Trust-Konzept bietet sich aufgrund seiner Netzwerk-Agnostik an, auch auf Trägerbereichen wie 5G und 4G eingesetzt zu werden, um einen sicheren Betrieb zu gewährleisten. Workloads können auf diese Weise an der Edge operieren, ohne dem gesamten Internet ausgesetzt zu werden. Lediglich autorisierte und verifizierte Entitäten können für den Datenaustausch miteinander in Verbindung treten, wenn ein Zero Trust-Sicherheitsbroker zwischengeschaltet wird, der für die Umsetzung der definierten Zugriffsrichtlinien Sorge trägt.

Am Wendepunkt zum Infrastruktur-losen Betrieb

Unternehmen sehen sich heute einerseits der Forderung nach neuer verteilter Funktionalität ausgesetzt. Andererseits müssen sie Regularien und Compliance-Auflagen in Punkto Sicherheit in Einklang bringen. Es besteht der Auftrag, moderne Infrastrukturen resilient gegen Ausfälle und Datenverlust aufzubauen. Der technologische Fortschritt von 5G im Schulterschluss mit dem Zero Trust-Sicherheitsrahmen ermöglicht die Umsetzung von Edge Computing und gibt einen Ausblick auf zukünftige Szenarien.

Von der Inanspruchnahme von Services und Dienstleistungen ist es dann nur ein kleiner Sprung zum völlig Infrastruktur-losen Betrieb. Das könnte in absehbarer Zeit eine Abkehr von den traditionellen Infrastrukturabhängigkeiten bedeuten. In einem Infrastruktur-losen Betrieb würden User von verschiedenen Geräten aus nahtlos auf Dienste zugreifen, ohne an bestimmte Netzwerke oder dedizierte Infrastrukturen gebunden zu sein. Dazu setzen sie auf öffentliche Netzwerke für die Konnektivität und verlassen sich auf Zero Trust-Sicherheit für die Integrität der Datenströme.

Dieser Paradigmenwechsel umfasst nicht nur technologische Fortschritte, sondern markiert auch ein grundlegendes Umdenken in der Art und Weise, wie Unternehmen zukünftig ihr Angebot zur Verfügung stellen. Alle nicht zum Kerngeschäft gehörenden Funktionen werden ausgelagert an Dienstleister – von der Konnektivität bis hin zur Produktion. Durch den Fokus auf die Geschäftsziele anstatt Technologie-zentrierter Perspektiven können Unternehmen technologische Fortschritte auf ihre Geschäftsziele abstimmen und effektiv nutzen. Dieser Perspektivenwechsel ist in absehbarer Zeit in Sicht.

Weitere Informationen zum Thema:

datensicherheit.de, 25.11.2019
Zero Trust: Warum die Zeit gerade jetzt dafür reif ist

]]>
https://www.datensicherheit.de/zero-trust-sicherheit-5g-edge-computing/feed 0
Internet of Things: Die Risiken und Nebenwirkungen von Cloud-Computing https://www.datensicherheit.de/cloud-computing-internet-things-risiken https://www.datensicherheit.de/cloud-computing-internet-things-risiken#respond Mon, 14 Dec 2020 14:03:57 +0000 https://www.datensicherheit.de/?p=38443 Herkömmliche Ansätze sind aufgrund ihrer zentralisierten Struktur anfällig

Von unserem Gastautor Dirk Schuma, Sales Manager Europe bei Opengear

[datensicherheit.de, 14.12.2020] Das Internet of Things (IoT) setzt niedrige Latenzzeiten und eine sichere Datenübertragung voraus. Herkömmliches Cloud-Computing ist aufgrund seiner zentralisierten Struktur allerdings anfällig. Opengear, Anbieter von Out-of-Band-Managementlösungen zum Schutz kritischer Infrastrukturen, erklärt welche Gefahren hier lauern können.

  • Medizinische Geräte, Industrierobotik oder autonome Fahrzeuge: Die Zahl der mit dem Internet verbundenen Geräte wächst täglich und ein Ende ist nicht in Sicht. Neben den vielen Vorteilen, die diese zunehmende Vernetzung mit sich bringt, stellt IoT Unternehmen aber auch vor einige Herausforderungen. Gerade wenn sie wegen der Einfachheit und schnellen Skalierbarkeit einen Teil ihrer Daten in die Cloud verlagern. Denn bei herkömmlichen Cloud-Architekturen wird die Datenverarbeitung in riesigen Rechenzentren zentralisiert. Dadurch kommt es in drei Punkten zu erheblichen Nachteilen:
  • Probleme mit der Geschwindigkeit: Je länger es dauert, bis Daten verarbeitet werden, desto weniger relevant sind sie. Autonome Fahrzeuge beispielsweise müssen Entscheidungen im Millisekunden- oder Hundertstelbereich treffen und benötigen die notwendigen Daten deshalb in Echtzeit. Wenn Daten allerdings erst sehr weite Strecken zu zentralen Cloud-Rechenzentren zurücklegen, von denen dann eine Antwort zurückkommt, vergeht unnötig viel Zeit. Vor allem dann, wenn es Verzögerungen in der Leitung gibt. Ein entscheidender Faktor für kurze Latenz und schnelle Reaktionen ist räumliche Nähe.
    Bedrohungen für die Datensicherheit. Durch die ständige Übertragung von Daten zwischen der Cloud und den IoT-Geräten und damit stärkere Belastung des Netzwerks steigt einerseits das Risiko von Cyber-Angriffen, andererseits erhöht sich die Wahrscheinlichkeit eines Ausfalls. Cloud-Computing ist aufgrund der zentralisierten Struktur zudem anfälliger für DDoS-Attacken.
  • Hoher Bedarf an Bandbreite: Werden Daten nicht direkt am Ort ihres Entstehens gefiltert und verarbeitet, sondern in die zentrale Cloud-Architektur geschickt, treibt das den Bedarf an kostspieliger Bandbreite und damit die Betriebskosten nach oben. Jedes neu hinzugefügte IoT-Gerät verschlechtert die Bilanz.
Dirk Schuma, Sales Manager Europe bei Opengear

Dirk Schuma, Sales Manager Europe bei Opengear, Bild: Opengear

„Bei Edge-Computing werden im Gegensatz zum Cloud-Computing die Daten dezentral am Rand des Netzwerks verarbeitet. Latenzzeiten werden damit minimiert, die Echtzeitverarbeitung riesiger Datenmengen ermöglicht und die Bandbreitennutzung reduziert. Wenn die Rechenlast aber von großen Rechenzentren an Edge-Standorte verlagert wird, müssen Unternehmen ihre Netzwerkstrategie an die neue Situation anpassen, um so eine ständige Verfügbarkeit und höchste Sicherheit zu gewährleisten“, erklärt Dirk Schuma, Sales Manager Europe bei Opengear. „Gerade Micro-Datenzentren in entlegenen Gegenden müssen zuverlässig arbeiten, sicher und robust sein. Dazu kommt, dass meist kein oder nur ungenügend ausgebildetes Personal vor Ort ist, das bei Pannen und Ausfällen eingreifen kann.“ 

Ein smartes Out-of-Band-Management (OOB) stellt sicher, dass die für Edge-Computing erforderliche Netzwerkstabilität und Ausfallsicherheit gewährleistet wird. OOB erlaubt Administratoren, kritische IT-Komponenten wie Switches und Router sowie Sicherheits-Appliances wie Firewalls und Encryption-Tools remote und unterbrechungsfrei zu verwalten. Fällt das primäre Netzwerk aus, bietet OOB über Mobilfunk (4G, LTE) oder andere Optionen eine Failover-Lösung, um die Business Continuity zu gewährleisten. Der sichere Zugriff auf die Protokolldateien der betroffenen Geräte hilft zudem, die Hauptursachen eines Ausfalls zu identifizieren und Recovery-Maßnahmen zeitnah einzuleiten. In den allermeisten Fällen erübrigt sich dadurch der Vor-Ort-Besuch eines Service-Technikers. Sollte er doch notwendig sein, weiß der Techniker im Voraus, welche Ersatzteile notwendig sind, um das Problem zu beheben.

Weitere Informationen zum Thema

datensicherheit.de, 20.05.2020
Umfrage: Netzwerkausfälle gefährden Geschäftsprozesse

Opengear
Secure Remote Access and IT Infrastructure Management

]]>
https://www.datensicherheit.de/cloud-computing-internet-things-risiken/feed 0