Schwachstellenmanagement:
Wachstumsimpulse und Herausforderungen der Agentic AI
Agentic AI stellt einen transformativen Fortschritt für das Schwachstellenmanagement dar, sie bringt Geschwindigkeit, Skalierbarkeit und adaptive Intelligenz in einen Bereich, der seit langem mit Komplexität, Überlastung und Ineffizienzen zu kämpfen hat. Die Akzeptanz wächst, denn Unternehmen erkennen ihr Potenzial, allerdings hängt ihr Erfolg davon ab, dass ein Gleichgewicht zwischen Automatisierung und Kontrolle gefunden wird.

Traditionelles Schwachstellenmanagement umfasst mehrere arbeitsintensive Schritte, darunter Scannen, Triage, Priorisierung, Recherche und Behebung. Agentic AI ist nicht nur die neueste Entwicklung im Bereich der intelligenten Automatisierung, sondern birgt die Möglichkeit, Bedrohungen nicht nur zu erkennen und zu priorisieren, sondern auch autonom darauf zu reagieren, um deren Risiken abzumildern. Unternehmen setzen zunehmend auf diese Technologie, denn ihre Einführung birgt Chancen, bringt jedoch auch Herausforderungen mit sich.
Das Thema Schwachstellen und die zu Beginn beschriebenen Aufgaben werden oft zwischen verschiedenen Teams innerhalb des Unternehmens aufgeteilt, nämlich IT-Sicherheit und IT-Betrieb. Dies ist nicht besonders hilfreich für die aktuelle Situation. Im 2025 State of Vulnerability Remediation Report gaben 46 Prozent der Befragten an, dass die Behebung von Sicherheitslücken eine gemeinsame Aufgabe der IT-Sicherheits- und IT-Betriebsteams ist. Dies kann zu Reibungen zwischen den Teams führen, da sie oft konkurrierende Prioritäten verfolgen. IT-Sicherheitsteams müssen sicherstellen, dass alle Systeme abgesichert werden. IT-Teams haben oft umfassendere Anforderungen, um neue Funktionen bereitzustellen und deren schnelle und effiziente Ausführung zu gewährleisten.
Beim Einsatz von Agentic AI im Schwachstellenmanagement kann diese Kluft überbrückt werden, indem sie folgende Aufgaben automatisiert:
- Kontinuierliche Erkennung von Schwachstellen: Durch die rund um die Uhr stattfindende Überprüfung von Umgebungen auf bekannte Schwachstellen sowie den Einsatz adaptiver Modelle, die neue Schwachstellen erkennen, können Schwachstellen viel schneller erkannt und behoben werden.
- Bewertung und Priorisierung von Schwachstellen: Durch die Abwägung mehrerer Faktoren wie Schweregrad der Bedrohung, Wahrscheinlichkeit der Ausnutzung, technischer Kontext und Auswirkungen auf das Geschäft, um die dringendsten Maßnahmen zu empfehlen (oder einzuleiten), spart Agentic AI den Sicherheitsteams viele Arbeitsstunden und kann viel schneller reagieren, um kritische Probleme zu beheben.
- Minderung und Behebung von Schwachstellen: Durch die automatische Anwendung von Patches oder die Isolierung betroffener Systeme unter Beibehaltung von Prüfpfaden zur Überprüfung können Schwachstellen mit Maschinengeschwindigkeit behoben werden.
Eine intelligente Automatisierung kann beide Teams also entlasten und die durchschnittliche Zeit bis zur Behebung (MTTR) verkürzen, was zu einer widerstandsfähigeren Sicherheitslage führt. Unternehmen, die Agentic AI in ihren Prozessen zum Management von Bedrohungen und Risiken einsetzen, verzeichnen eine deutliche Verbesserung der Behebungs- und Erkennungsraten. In dem Bericht „Automating Risk Reduction in the AI Era” gaben 77 Prozent der Befragten an, dass Agentic AI ihre durchschnittliche Erkennungszeit (MTTD) deutlich verbessert hat, 65 Prozent berichteten zudem von einer deutlichen Verbesserung ihrer durchschnittlichen Behebungszeit (MTTR).
Drei Herausforderungen für Agentic AI beim Schwachstellenmanagement
Die folgenden drei Herausforderungen beschreiben zusammengefasst, warum Agentic AI derzeit noch nicht flächendeckend eingesetzt wird:
- Mangelndes Vertrauen in KI: Der Bericht der Enterprise Strategy Group nennt dies als die am häufigsten genannte Herausforderung. Beinahe die Hälfte (49 %) der Befragten äußerten mangelndes Vertrauen in die Entscheidungsfindung durch agentenbasierte KI. Sicherheitsteams zögern oft, autonomen Systemen freie Hand zu lassen, insbesondere in kritischen Umgebungen. Eine falsche Entscheidung, z. B. ein falscher Patch oder eine falsche Isolierung, könnte sogar den Betriebsablauf stören.
- Sicherheitsrisiken durch KI: Agentic AI selbst kann zum Ziel werden. Wenn sie kompromittiert wird, könnte ein KI-Agent mit Systemrechten ausgenutzt werden, um erheblichen Schaden anzurichten.
- Transparenz und Verantwortlichkeit: Black-Box-KI-Modelle machen es schwierig, nachzuvollziehen, warum eine bestimmte Entscheidung getroffen wurde. Dies führt zu Bedenken hinsichtlich der Compliance und der Auditierung.
Um Agentic AI sicher und effektiv einzusetzen, sollten Unternehmen einen maßvollen und transparenten Ansatz verfolgen. Wenn sie klein anfangen, also mit risikoarmen Assets und nicht allzu kritischen Systemen beginnen, dann haben die Teams genügend Zeit die Leistung und Zuverlässigkeit ausgiebig zu testen. Wichtig ist, dass sie die menschliche Aufsicht behalten. Bei der Bewertung der Ergebnisse sollten Security Analysten zu Rate gezogen werden, insbesondere während der frühen Einführungsphase. Sicherheitsteams sollten mit halbautonomen Lösungen starten, die einzelne Teile des Gesamtprozesses automatisieren. Darüber hinaus müssen sie auch für Transparenz gegenüber den anderen Abteilungen sorgen. Einblicke bieten vor allem KI-Tools, die sich über detaillierte Protokolle und entsprechende Dokumentationen erklären lassen. Begründungen und Maßnahmen, die von der KI vorgeschlagen werden, gehören überprüft, um das notwendige Vertrauen aufzubauen oder im Zweifel Anpassungen vorzunehmen. Alle Ergebnisse der KI müssen nachverfolgt und messbar gemacht werden. Verbesserungen in Bezug auf Genauigkeit und Sicherheit gehören regelmäßig bewertet. Dies hilft, den Wert der Einführung von Agentic AI zu belegen und Hindernisse frühzeitig zu erkennen. Als letzter Punkt sollten Rollback-Optionen sicherstellen, dass bei einem Auftreten von Fehlern, die IT-Teams die Maßnahmen der KI zurücknehmen und eigene Lösungen ausrollen können. Durch die Einführung all dieser beschriebenen Sicherheitsvorkehrungen können Unternehmen schrittweise Vertrauen in Agentic AI aufbauen und gleichzeitig das Betriebsrisiko minimieren.
Fazit
Um Agentic AI sicher und effektiv einzusetzen, sollten Unternehmen einen maßvollen und transparenten Ansatz verfolgen. Sie sollten klein anfangen und mit risikoarmen Assets oder nicht kritischen Systemen beginnen, um die Leistung und Zuverlässigkeit zu testen. Die menschliche Aufsicht ist das A und O. Deshalb sollten Analysten zur Validierung mit einbezogen werden, insbesondere während der frühen Einführungsphase. Eine Möglichkeit ist, mit halbautonomen Lösungen zu starten, die einzelne Teile des Gesamtprozesses automatisieren.
Darüber hinaus ist es unverzichtbar, Transparenz zu gewährleisten. Wenn erklärbare KI-Tools verwendet und detaillierte Protokolle über KI-Aktionen eingeführt werden, erleichtert dies den Austausch zwischen IT-Sicherheits- und IT-Teams. Die Ergebnisse müssen nachverfolgbar bleiben und gemessen werden können. Agentic AI kann bei der regelmäßigen Verbesserung von Genauigkeit, Geschwindigkeit und Sicherheit helfen. Dies hilft, den Wert der Einführung von Agentic AI zu belegen und Hindernisse frühzeitig zu erkennen. Allerdings sollten auch Rollback-Optionen vorgehalten werden. Besonders um Fälle von KI-Fehlern zu vermeiden, eignet sich ein manueller Übersteuerungs- oder Rollback-Mechanismus. Durch die Einführung all dieser Sicherheitsvorkehrungen können Unternehmen schrittweise Vertrauen in Agentic AI aufbauen und gleichzeitig das Betriebsrisiko minimieren.



Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.