Absicherung:
Sicherheit für autonome OT-Systeme
Die Integration von KI-gesteuerten Entscheidungen in betriebstechnische Systeme (OT) erweckt den Eindruck von mehr Kontrolle, schnelleren Reaktionszeiten und gesteigerter Effizienz. Dieses Gefühl von Kontrolle könnte aber eine risikoreiche Illusion sein. Um zu verstehen, warum das so ist, lohnt sich ein Blick auf die so wichtigen kritischen Infrastrukturen.
Viele KRITIS-Anlagen nutzen autonome Systeme: Intelligente Stromnetze, Fertigungsstraßen und Wasseraufbereitungsanlagen stützen sich alle auf vernetzte Sensoren und KI für autonome Entscheidungen. Doch mit der zunehmenden Automatisierung steigt auch die Komplexität, so dass es immer schwieriger wird, die von den Maschinen getroffenen Entscheidungen zu verstehen oder zu überprüfen.
Je mehr Automatisierungsebenen hinzugefügt werden, desto mehr Komponenten sind miteinander verbunden – man denke nur an Sensoren, KI-Algorithmen, Kommunikationsnetzwerke und Steuerungssysteme – und desto exponentieller wächst die Anzahl. Jede neue Ebene bringt mehr Variablen, Abhängigkeiten und potenzielle Fehlerquellen mit sich. KI-Modelle selbst arbeiten oft als „Blackbox“ und treffen Entscheidungen auf der Grundlage von Mustern und Daten, die nicht immer transparent sind. Außerdem passen sich diese Systeme ständig an und lernen in Echtzeit, was ihre Unberechenbarkeit erhöht. Gebündelt machen all diese Faktoren es schwieriger, die Entscheidungen, die innerhalb des Systems getroffen werden, vollständig zu erfassen, zu verfolgen oder zu überprüfen. Das erhöht die Komplexität nur noch weiter.
Die Rolle von KI in OT-Umgebungen
KI verändert OT-Umgebungen, indem sie Echtzeit-Analysen, vorausschauende Wartung, dynamische Reaktionsmechanismen und systemweite Orchestrierung ermöglicht.
Einige Beispiele für die Anwendung von KI sind:
Prognostische Wartung: In der Fertigung prognostizieren KI-Modelle Maschinenausfälle auf der Grundlage von Metriken wie Vibrationsanalyse und Wärmebildtechnik und reduzieren so Ausfallzeiten.
Erkennung von Anomalien: Im Energiesektor überwacht die KI Spannung und Frequenz, um Anomalien in der Netzleistung zu erkennen, bevor es zu Ausfällen kommt.
Autonome Kontrollsysteme: In der Wasseraufbereitung passen KI-Algorithmen die Dosierung von Chemikalien und den Betrieb von Ventilen dynamisch auf der Grundlage von Sensordaten an.
Diese Implementierungen sind Teil von Industrie 4.0. Dort automatisieren cyber-physische Systeme nicht nur Prozesse und steigern die Effizienz, sondern verwischen auch die Grenzen zwischen IT und OT. Traditionell waren OT-Systeme aus Sicherheitsgründen isoliert, abgekapselt und von externen Netzwerken abgeschottet. Mit dem Aufkommen von intelligenten Sensoren, Cloud Computing und vernetzten Geräten (Smart Edge) verschwimmen diese Grenzen jedoch zunehmend. IT und OT sind immer enger miteinander verwoben, was neue Chancen, aber auch neue Risiken mit sich bringt, da die Systeme immer stärker miteinander verbunden und voneinander abhängig werden.
Um nachvollziehen zu können, wo Automatisierung in der OT zum Einsatz kommt, einige Beispiele:
Energie: KI sagt den Lastbedarf voraus, optimiert die Energieverteilung und leitet den Strom im Falle von Störungen autonom um. Einige Unternehmen nutzen KI und intelligente Netze, um Energieangebot und -nachfrage dynamisch auszugleichen.
Fertigung: Intelligente Roboter übernehmen die Qualitätskontrolle, ordnen Bestände selbstständig neu an und korrigieren ineffiziente Produktionsabläufe selbst. Bosch setzt für die Qualitätssicherung an seinen Produktionslinien intelligente Roboter ein, die mit Computer Vision ausgestattet sind und Fehler in Echtzeit aufspüren.
Kritische Infrastrukturen: KI regelt Verkehrsampeln auf der Grundlage von Stauungsdaten und steuert Schleusentore von Dämmen, um den Wasserstand auszugleichen. In den Niederlanden gibt es ein Deltawerk, ein gewaltiges System von Dämmen, Schleusen und Barrieren, das das tiefer gelegene Land vor Überflutungen durch die Nordsee schützen soll. Die Schleusentore des Sperrwerks können autonom betrieben werden, um den Durchfluss zu regulieren und einen sicheren Wasserstand aufrechtzuerhalten. Die Notwendigkeit des Schutzes vor Sturmfluten wird dabei mit der Ermöglichung von Gezeitenbewegungen und Schiffsverkehr in Einklang gebracht. Sensoren überwachen kontinuierlich den Meeresspiegel, die Wetterbedingungen und die strukturelle Integrität und speisen die Daten in fortschrittliche Steuerungsalgorithmen ein, die entscheiden, wann die Tore geschlossen oder geöffnet werden müssen.
Das Paradoxon der Autonomie
Zwischen dem empfindlichen Gleichgewicht aus menschlicher Kontrolle und maschineller Unabhängigkeit liegt das Paradoxon der Autonomie. Autonome Systeme sind so konzipiert, dass sie ohne ständiges menschliches Eingreifen funktionieren, um die Effizienz und Reaktionsfähigkeit zu verbessern. Dadurch wird jedoch der Mensch in den Hintergrund gedrängt, so dass weniger direkte Kontrolle besteht. In der Zwischenzeit entwickeln sich KI-gesteuerte Systeme ständig weiter und passen ihre Entscheidungsmodelle in einer Weise an, die unvorhersehbar und schwer nachzuvollziehen sein kann. Erschwerend kommt hinzu, dass viele Sicherheitsvorkehrungen nach wie vor fest programmiert sind und auf veralteten Annahmen beruhen, die der dynamischen Natur des modernen KI-Verhaltens nicht gerecht werden. Infolgedessen kann gerade die Autonomie, die für mehr Sicherheit und Kontrolle sorgen soll, paradoxerweise neue Risiken und Unwägbarkeiten mit sich bringen, was den dringenden Bedarf an anpassungsfähigen Überwachungsmechanismen verdeutlicht, die mit den sich weiterentwickelnden Technologien Schritt halten.
Die Gefahren der bedrohlichen Autonomie
Autonomie führt eine neue Bedrohungsklasse ein: Systeme, die von Angreifern manipuliert, getäuscht oder umfunktioniert werden können. Hacker müssen ein System nicht mehr zerstören, sondern nur noch dessen Entscheidungslogik verwirren oder vergiften. Beispiele hierfür sind:
KI-Verwirrungsangriffe: Eine sensorgespeiste KI in einem Stromnetz erhält gefälschte Eingaben, die sie veranlassen, Lasten falsch zu berechnen und Unterbrecher unnötig auszulösen.
Exploits zur Überoptimierung: In einer intelligenten Fabrik verschieben Angreifer auf subtile Weise die Eingabewerte und veranlassen die KI, die Produktqualität unwissentlich zu verschlechtern, während sie die Effizienz steigern.
Kaskadierende Ausfälle: Vernetzte autonome Entscheidungen in Verkehrs- und Energienetzen können zu einem systemischen Zusammenbruch führen, wenn ein Knoten unvorhersehbar ausfällt.
Was OT-CISOs mit dem Wissen um diese Risiken jetzt tun sollten:
1. Nachvollziehbarkeit einfordern: CISOs sollten Erklärbarkeit einfordern, indem sie sicherstellen, dass KI-gesteuerte Systeme erklärbare KI-Modelle (XAI) verwenden. Wenn eine KI kritische Entscheidungen trifft, wie z. B. das Abschalten einer Turbine, ist es wichtig, die Gründe für diese Aktionen zu verstehen. Erklärbarkeit schafft Vertrauen, hilft bei der Diagnose von Problemen und unterstützt die Einhaltung von Vorschriften, indem sie KI-Entscheidungen transparent und nachvollziehbar macht. Obendrein sollten CISOs sicherstellen, dass KI-gesteuerte Systeme erklärbare KI-Modelle (XAI) enthalten. Wenn sich eine Maschine abschaltet, müssen Sicherheitsverantwortliche umgehend wissen, warum dies geschehen ist.
2. In „rote Teams“ für KI-Modelle investieren: In OT-Umgebungen simulieren sogenannte „rote Teams“, die sich mit KI-Modellen befassen, nicht nur Cyberangriffe, sondern berücksichtigen auch die physischen Auswirkungen auf industrielle Prozesse und die Sicherheit, insbesondere wenn OT kritische Infrastrukturen wie Stromnetze, Fertigungsstraßen und Wassersysteme steuert. Diese Teams bewerten, wie KI-gesteuerte Entscheidungen manipuliert werden könnten, um Betriebsunterbrechungen, Anlagenschäden oder sogar Sicherheitsrisiken zu verursachen. CISOs sollten in rote Teams investieren, die sowohl Cyber- als auch physische Schwachstellen testen, um einen robusten, widerstandsfähigen und sicheren autonomen Betrieb zu gewährleisten. Diese spezialisierten Teams simulieren gegnerische Angriffe oder Manipulationsszenarien auf KI-Systeme.
3. Überwachung von Abweichungen implementieren: Das bedeutet kontinuierliche Überwachung des Modells auf Abweichungen vom Basisverhalten zu ermöglichen. Operational Drift Monitoring ist der Prozess der kontinuierlichen Verfolgung und Analyse von Änderungen im Verhalten oder der Leistung eines operativen Systems im Laufe der Zeit. In OT-Umgebungen hilft es, Abweichungen von erwarteten Mustern zu erkennen, sei es aufgrund von Geräteverschleiß, Konfigurationsänderungen oder aufkommenden Sicherheitsbedrohungen. Durch frühzeitiges Erkennen dieser Abweichungen können Unternehmen Ausfälle verhindern, Ausfallzeiten reduzieren und die Systemintegrität und -sicherheit aufrechterhalten.
4. Einbindung von HITL-Kontrollen (Human-in-the-Loop): Human-in-the-Loop-Kontrollen (HITL) helfen CISOs sicherzustellen, dass kritische KI-Entscheidungen, insbesondere in Umgebungen, in denen viel auf dem Spiel steht, von menschlichen Bedienern überprüft und verifiziert werden. Dieser Ansatz kombiniert die Geschwindigkeit und Effizienz der KI mit menschlichem Urteilsvermögen und menschlicher Kontrolle und verringert so das Risiko von Fehlern oder unbeabsichtigten Folgen. HITL trägt dazu bei, Sicherheit, Verantwortlichkeit und das Vertrauen in automatisierte Systeme aufrechtzuerhalten, deren Entscheidungen in der Realität erhebliche Auswirkungen haben können.
Fazit:
Sichere Autonomie ist keine Illusion, wenn sie routinemäßig hinterfragt und getestet wird
IT-Sicherheitsverantwortliche sollten nie dem Irrtum unterliegen, dass Sichtbarkeit gleich Kontrolle ist. Autonomie sollte man wie Drittpartei-Risiken behandeln: regelmäßig überprüfen, ausgiebig testen und stets über einen menschlichen Übersteuerungsmechanismus verfügen. Im Zeitalter von Industrie 4.0 geht es beim Thema Kontrolle nicht mehr darum, Befehle zu erteilen, sondern sicherzustellen, dass die dahinter stehenden Absichten verstanden und sicher ausgeführt werden.
Wir befinden uns am Eintritt in ein Zeitalter, in dem autonome Entscheidungen physische Ergebnisse steuern. In dem Maschinen Stromflüsse, Chemikaliendosierungen und Roboterarme regulieren. Die Illusion der Kontrolle ist nicht etwa gefährlich, weil die Autonomie versagt, sondern weil sie im Stillen und manchmal auf katastrophale Weise versagt. Um zukunftssicher zu sein, müssen CISOs im OT-Bereich alle Annahmen über Sichtbarkeit, Vertrauen und Kontrolle in intelligenten OT-Systemen kritisch hinterfragen und offen für Veränderungen sein.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.