Aktuelles, Branche, Gastbeiträge - geschrieben von cp am Mittwoch, Januar 28, 2026 15:31 - noch keine Kommentare
KI-Agenten und IT-Sicherheit: Zwei Seiten einer Medaille
Für viele Unternehmen steht derzeit die Frage im Raum, ob KI-Agenten auch in sensiblen Bereichen wie der Cybersicherheit eingesetzt werden sollen. Während stetig wachsende Bedrohungen, Überlastung von Mitarbeitern und Fachkräftemangel dafür sprechen, gibt es auch große Vorbehalte. Um Entscheidungen von KI-Assistenten nachvollziehen zu können, sind Sichtbarkeit im Netzwerk und eine zuverlässige Datengrundlage oberste Priorität. Auf der anderen Seite könnten Unternehmen überdies von böswilligen Agenten angegriffen werden – auch hier hilft nur, genau hinzusehen.
Von unserem Gastautor Tiho Saric, Senior Sales Director bei Gigamon
[datensicherheit.de, 28.01.2026] Es gibt aktuell wohl kaum ein größeres Unternehmen, das sich nicht auf die ein oder andere Weise mit Agentic AI beschäftigt. Von der neuen autonomen und proaktiven Arbeitsweise von KI erwarten sie sich immense Produktivitätssteigerung und die Entlastung von Mitarbeitern. Doch wenn KI nun nicht mehr nur generiert, sondern auch entscheidet, wirft dies neue Fragen der Verantwortlichkeit und Nachvollziehbarkeit auf. Außerdem könnten sich durch Agentic-AI-Einsatz von Hackern neue Gefahrenquellen ergeben.

Tiho Saric, Senior Sales Director bei Gigamon, Bild: Gigamon
Chancen durch eigene KI-Agenten
Einer Studie zufolge bewerten 68 Prozent der befragten deutschen Unternehmen den Fachkräftemangel im Bereich IT-Sicherheit als zusätzliches Cyber-Risiko. Cloud Security (52 Prozent) und Cyber Threat Intelligence (40 Prozent) seien dabei die meistgesuchten Kompetenzen. Warum sich also nicht Hilfe in Form von KI suchen? Gerade bei den genannten Kompetenzen läge eine solche Unterstützung nahe. Es müssen enorme Datenmengen untersucht, Muster erkannt und Anomalien gefunden werden – ideal für Machine Learning.
KI-gestützte Systeme zur automatisierten Bedrohungserkennung können bereits heute Anomalien nahezu in Echtzeit identifizieren, aus vergangenen Sicherheitsvorfällen lernen und ihre Reaktionsstrategien eigenständig anpassen. Darüber hinaus könnten autonome KI-Agenten künftig auch die Incident Response aktiv unterstützen, etwa indem sie kompromittierte Endpunkte sofort isolieren, ohne dass ein menschliches Mitglied des Sicherheitsteams dies freigeben muss.
Auch bei der Alarmbewertung (Alert Triage) bieten KI-Agenten großes Potenzial. Herkömmliche Sicherheitslösungen erzeugen häufig zahlreiche Fehlalarme, die von Analysten manuell geprüft und priorisiert werden müssen. Diese zeitaufwändige Aufgabe könnte in Zukunft ein KI-basierter Assistent übernehmen. So ließe sich nicht nur die sogenannte „Alert Fatigue“ deutlich verringern, sondern das Sicherheitsteam hätte mehr Kapazitäten für strategische und präventive Aufgaben.
Gefahren durch böswillige Agenten
Neben ihrem Einsatz zur Vorbeugung von Sicherheitsbedrohungen werden die vielfältigen Möglichkeiten künstlicher Intelligenz auch für gewieftere Cyberangriffe genutzt. Offensive AI ist kein neues Schlagwort, und wir sehen seit einiger Zeit, dass beispielsweise Phishing-E-Mails immer professioneller werden und dank zusehends besserer KI-Übersetzung nicht mehr so leicht anhand schlechter Rechtschreibung erkannt werden können.
Generative KI unterstützt zwar klassische Angriffsvektoren, je gezielter aber eine Attacke ausfallen soll, desto mehr manueller Aufwand ist auf Seiten der Kriminellen notwendig – etwa, wenn es um die Informationsbeschaffung zum Spear-Phishing geht. Durch den Einsatz spezialisierter Agenten wäre es möglich, solche personalisierten Angriffe automatisiert und damit in viel größerer Zahl durchzuführen, wodurch natürlich das Risiko insgesamt steigt.
Auf einer technischeren Ebene könnten spezialisierte KI-Systeme beispielsweise unablässig nach Schwachstellen scannen und selbstständig Exploits erstellen. Dies würde die Zeit für Zero-Day-Angriffe erheblich verkürzen.
Optimierte Sichtbarkeit zur Unterstützung von guten und Abwehr von bösen KI-Agenten
Um die Ergebnisse von autonomen KI-Systemen besser nachvollziehen zu können, ist es wichtig, deren Arbeitsweise zu verstehen und Unsicherheiten so weit wie möglich zu beseitigen. Schließlich kommt ein nicht unerheblicher Teil der Skepsis gegenüber KI genau dadurch zustande. Zu Beginn des Erfolgs von KI-Chatbots galten die zugrunde liegenden Large Language Models (LLMs) als undurchsichtige Blackboxes: Aus ihren Antworten ließ sich kaum ableiten, wie und warum ein bestimmtes Ergebnis zustande kam. Ein wesentlicher Grund dafür ist und bleibt (zumindest bei proprietären Modellen) die Intransparenz der Trainingsdaten.
Open-Source-Modelle schaffen hier zumindest teilweise Abhilfe, da ihre Trainingsdaten offenliegen und nachvollzogen werden können. Darüber hinaus ermöglichen Verfahren wie Low-Rank Adaptation (LoRA) und Fine-Tuning, Modelle relativ einfach an spezialisierte Anwendungsfälle anzupassen.
Trotz dieser Fortschritte bleibt eine zentrale Unsicherheit bestehen: Die inneren Abläufe neuronaler Netze sind bis heute nicht vollständig erklärbar und enthalten immer ein stochastisches Element. Umso wichtiger ist es, dass sowohl die Trainingsdaten der KI-Agenten als auch die Daten, die sie im laufenden Betrieb verarbeiten, transparent und möglichst detailliert dokumentiert sind. Andernfalls könnten sich bestehende Unsicherheiten gegenseitig verstärken, was die Zuverlässigkeit und Vertrauenswürdigkeit der Agenten erheblich beeinträchtigen würde.
Bei drohenden KI-Angriffen im großen Stil ist ein umfassendes Monitoring der eigenen Systeme essenziell, um schon bei den ersten Anzeichen für einen Angriff sofort reagieren zu können. So können tiefgehende Analysen auf Netzwerkebene dabei unterstützen, ungewöhnlichen Traffic zu identifizieren, der auf eine Kompromittierung hindeuten könnte. Dafür sind allerdings spezialisierte Lösungen notwendig.
Das Konzept Deep Observability
In modernen IT-Umgebungen mit Cloud-, Hybrid- und Container-Infrastrukturen stößt klassische Observability zunehmend an ihre Grenzen. Zwar liefert sie wertvolle Einblicke über Metriken, Logs und Traces, doch viele sicherheitsrelevante oder netzwerkbezogene Vorgänge bleiben dabei unsichtbar. Deep Observability schließt genau diese Lücke: Die Technologie erweitert den Beobachtungshorizont, indem sie Daten direkt aus dem Netzwerkverkehr und tieferen Systemschichten erfasst. Durch die Verknüpfung von Netzwerk-Telemetrie, Anwendungsmetriken und Sicherheitsinformationen entsteht ein umfassendes, kontextbasiertes Verständnis des gesamten Systemverhaltens, das es auch erlaubt, Anomalien, die auf ausgefeilte KI-Angriffe hindeuten könnten, besser zu erkennen.
Technisch basiert Deep Observability auf spezialisierten Datenpipelines, die Rohdaten aus verschiedenen Quellen sammeln, anreichern, entschlüsseln und an Analyseplattformen weiterleiten. Zwar verarbeitet auch Deep Observability – wie herkömmliche Lösungen – Metriken, Events, Logs und Traces (MELT). Der entscheidende Unterschied liegt jedoch in der Tiefe: Entsprechende Systeme machen auch den kompletten Netzwerkverkehr sichtbar, einschließlich lateraler Kommunikation zwischen Instanzen – bis hinunter auf die Ebene einzelner Datenpakete. Im OSI-Modell deckt Deep Observability somit die Schichten 7 bis 3 ab – von der Anwendungsebene bis zur Netzwerkschicht.
Fazit
Sowohl zur Unterstützung eigener KI-Agenten, wie auch zur Abwehr von agentischen Angriffen, bietet Deep Observability eine zuverlässige Grundlage. Der tiefe Blick ins Unternehmensnetzwerk versorgt eigene Lösungen mit einer soliden, granularen Datengrundlage. Auf der anderen Seite lassen sich so aber auch Anomalien schnell und zuverlässig identifizieren, die Symptome eines Angriffs sein könnten.
Weitere Informationen zum Thema:
datensicherheit.de, 21.05.2025
Hybrid-Cloud: KI zwingt deutsche Unternehmen Abstriche bei der Sicherheit zu machen
Aktuelles, Branche, Gastbeiträge - Jan. 28, 2026 15:31 - noch keine Kommentare
KI-Agenten und IT-Sicherheit: Zwei Seiten einer Medaille
weitere Beiträge in Experten
- Cohesity-Studie zur Cyberresilienz deutscher Unternehmen
- Digitale Souveränität: Mehrheit sieht Übernahme wichtiger Unternehmen in Deutschland kritisch
- Basis für Alarmketten: Neues Drohnen-Lagezentrum in Bayern
- eco-Position zu Regierungskonsultationen: Deutschland und Italien gemeinsam als digitaler Stabilitätsanker Europas
- Hüftgelenksarthrose: KI-Vorhersage des Erfolgs einer Hüft-OP
Aktuelles, Branche - Jan. 28, 2026 16:17 - noch keine Kommentare
Video-KI: Europas strengste Datenschutz-Regeln prägen die Zukunft
weitere Beiträge in Branche
- KI-Agenten und IT-Sicherheit: Zwei Seiten einer Medaille
- 149 Millionen gestohlene Benutzernamen: Erneut umfangreicher Datendiebstahl aufgedeckt
- Data Privacy Week 2026: Datenschutz ein europäischer Wettbewerbsvorteil
- Post-Quantum-Readiness: Akuter Anspruch für die Datensicherheit der Zukunft
- Strategische Prioritäten für Unternehmen 2026: Informationssicherheit, Compliance und Datenschutz
Aktuelles, A, Experten, Service, Wichtige Adressen - Jan. 13, 2026 1:08 - noch keine Kommentare
Registrierung bei ELEFAND: Krisen- und Katastrophenvorsorge bei Auslandsaufenthalten
weitere Beiträge in Service
- DigiCert-Umfrage: Manuelle Zertifikatsprozesse führen zu Ausfällen, Compliance-Fehlern und hohen Verlusten im Unternehmen
- Threat Hunting: Bedeutung und Wertschätzung steigt
- Umfrage: 71 Prozent der IT-Entscheidungsträger besorgt über Mehrfachnutzung von Passwörtern
- Fast die Hälfte der Unternehmen ohne geeignete Sicherheitsrichtlinien für Remote-Arbeit
- Umfrage: Bedeutung der Konsolidierung von IT-Sicherheitslösungen



Kommentieren