Aktuelles, Branche, Studien - geschrieben von dp am Montag, November 11, 2024 11:24 - noch keine Kommentare
JFrog-Analyse zur Gefährdung Maschinellen Lernens: Kritische Schwachstellen in ML-Frameworks entdeckt
Analyse soll verdeutlichen, wie wichtig robuste Sicherheitsmaßnahmen beim Entwickeln und Betreiben von ML-Anwendungen sind
[datensicherheit.de, 11.11.2024] Sogenanntes Maschinelles Lernen (ML) wird heute in der Software-Entwicklung als unverzichtbar angesehen, ermöglicht dieses doch schnellere Erkennung, verbesserte Automatisierung und datenbasierte Anwendungen. Indes soll es laut einer aktuellen JFrog-Untersuchung eine Reihe von Schwachstellen in verbreiteten ML-Frameworks geben, welche demnach Unternehmen potenziellen Angriffen aussetzen. Die zugrundeliegende Analyse soll verdeutlichen, wie wichtig robuste Sicherheitsmaßnahmen beim Entwickeln und Betreiben von ML-Anwendungen sind. Die dokumentierten Schwachstellen beträfen die wichtigsten ML-Plattformen und machten deutlich, wie böswillige Akteure durch gezielte Angriffstechniken die Vertraulichkeit, Integrität und Verfügbarkeit produktiver ML-Systeme gefährden könnten.
Kritische Schwachstellen in „PyTorch“ und „TensorFlow“: Potenzielle Einstiegspunkte, um ML-Umgebungen zu kompromittieren
Die Open-Source-Bibliothek „PyTorch“ enthalte Schwachstellen wie „CVE-2022-41978“ und „CVE-2023-43645“, welche es Angreifern ermöglichten, schädliche Daten einzuschleusen, Sicherheitsmaßnahmen zu umgehen und unbefugt auf Ressourcen zuzugreifen. „Konkret ermöglicht ,CVE-2022-41978‘ Angreifern die Ausführung von Befehlen durch manipulierte Deserialisierung, indem während des Ladens des Modells schädlicher Code eingebracht wird, der die Integrität gefährdet.“ „CVE-2023-43645“ betreffe eine Path-Traversal-Schwachstelle im „TorchServe“-Server von „PyTorch“, durch die Dateien überschrieben oder beliebige Skripte auf dem Host-System ausgeführt werden könnten.
Auch „TensorFlow“ weise kritische Sicherheitslücken auf, darunter „CVE-2023-32457“, welche einen potenziellen Angriffsvektor für Modell-Deserialisierungs-Angriffe darstelle. Diese Schwachstelle erlaube bösartig gestalteten „TensorFlow“-Modellen, eine Speicherbeschädigung herbeizuführen, was Systemabstürze oder die Ausführung nicht autorisierten Codes zur Folge haben könne. „Das Risiko bei der Modell-Deserialisierung wird hier besonders deutlich: Unsachgemäß behandelte Daten in diesem essenziellen Prozess können als Einstiegspunkte dienen, um ML-Umgebungen zu kompromittieren.“
Schwachstellen in ONNX: Angriffe könnten gesamte ML-Workflows beeinträchtigen
Darüber hinaus weisen JFrog-Sicherheitsforscher auf Schwachstellen in ONNX-Modellen (Open Neural Network Exchange) hin. Durch uneingeschränkte Datei-Operationen beim Laden des Modells könnte das System manipuliert werden, wodurch Angreifer auf Systemdateien zugreifen oder diese verändern könnten. „Solche Schwachstellen bergen das Risiko unbefugter Datenzugriffe oder sogar einer vollständigen Kompromittierung des Systems.“
Die Forscher beschreiben außerdem die Methoden, mit denen Angreifer die Sicherheitslücken ausnutzen könnten, und fokussierten dabei Bedrohungen für die Lieferkette von ML-Diensten. „Durch Angriffe auf den Deserialisierungsprozess – ein wesentlicher Schritt beim Laden und Initialisieren von Modellen – kann bösartiger Code eingeschleust werden, der bei der Bereitstellung des Modells ausgeführt wird.“ Solche Angriffe hätten das Potenzial, gesamte ML-Workflows zu beeinträchtigen und Schwachstellen entlang des Software-Entwicklungszyklus zu schaffen.
Sicherheitsmaßnahmen für ML-Einsatz unverzichtbar
„Die Analyse macht deutlich, dass Organisationen beim Einsatz von ML-Diensten auf signifikante Sicherheitsrisiken achten müssen.“ Die aufgedeckten Schwachstellen betonten die Notwendigkeit eines besonderen Fokus auf Modell-Deserialisierung und die Absicherung der Lieferkette.
„Da ML weiterhin viele Sektoren durchdringt, wird das Schließen dieser Sicherheitslücken entscheidend, um sensible Daten zu schützen und robuste, sichere ML-Umgebungen aufrechtzuerhalten.“ Unternehmen sollten deshalb konsequent auf „DevSecOps“-Praktiken setzen und sicherstellen, „dass Sicherheitsmaßnahmen integraler Bestandteil der Bereitstellung und Verwaltung von ML-Modellen bleiben, um potenzielle Angriffsmöglichkeiten wirksam einzudämmen“.
Weitere Informationen zum Thema:
JFrog, Shachar Menashe & Or Peles & Natan Nehorai & Ori Hollander & Uriya Yavnieli, 04.11.2024
BLOG HOME / Machine Learning Bug Bonanza – Exploiting ML Services
Aktuelles, Experten, Veranstaltungen - Sep. 17, 2025 20:50 - noch keine Kommentare
Zehn Jahre Datenschutz im Wandel: Prof. Dr. Dieter Kugelmann lädt zu Wissenschaftlichem Symposium am 10. Oktober 2025 ein
weitere Beiträge in Experten
- Open Source: Drei von vier Unternehmen in Deutschland bereits Nutzer
- Warnung zum Semesterstart: Verbraucherzentrale Hamburg kritisiert überteuerte Nachsendedienste
- Data Act: Geltung verschafft Nutzern von IoT-Systemen mehr Rechte
- Data Act seit 12. September 2025 endgültig in Kraft – doch viele Fragen bleiben offen
- Bundesweiter Warntag 2025: BBK zieht erste positive Bilanz
Aktuelles, Branche - Sep. 16, 2025 15:39 - noch keine Kommentare
Daten als Beute auf Vorrat: Cyberkriminelle setzen auf Fortentwicklung der Quantencomputer
weitere Beiträge in Branche
- GhostRedirector missbraucht Google: ESET entdeckte Manipulation von Suchergebnissen
- CEO DEEPFAKE CALL: Bei Anruf Awareness-Training zum Thema Vishing
- Human Risk Management: KnowBe4-Whitepaper verfolgt ganzheitlichen Ansatz
- OT-Monitoring: Die fünf größten Herausforderungen und Lösungsansätze
- KI-Vishing: Bekannte Stimmen werden zum Sicherheitsrisiko
Aktuelles, Branche, Umfragen - Juli 9, 2025 19:03 - noch keine Kommentare
DigiCert-Umfrage: Manuelle Zertifikatsprozesse führen zu Ausfällen, Compliance-Fehlern und hohen Verlusten im Unternehmen
weitere Beiträge in Service
- Threat Hunting: Bedeutung und Wertschätzung steigt
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen
- TeleTrusT-Umfrage: „IT-Sicherheit im Home Office“
Kommentieren