Die voranschreitende Durchdringung von Anwendungen mit Künstlicher Intelligenz (KI) in Produkten und Dienstleistungen tritt in die nächste Phase des digitalen Zeitalters ein. Damit werden KI-Anwendungen immer mehr zur Grundlage für wirtschaftliche Aktivitäten, sogar unabdingbar für den wirtschaftlichen Erfolg. Diese möchte der Gesetzgeber regulieren, um Risiken vorzubeugen.
Schon heute spielt sich Vieles aus der physischen Welt hinsichtlich Informationsverarbeitung und -speicherung in der digitalen Welt ab. Spätestens mit dem kommerziellen Einzug von großen vortrainierten KI-Modellen reiht sich die Denkarbeit und Generierung von Neuem dazu. Damit eröffnet sich analog zum physischen Raum auch ein neuer Risikovektor im digitalen Raum, den es zu minimieren gilt. Daher erfordert das Sicherheitsdesign einen systematischen Ansatz, der alle Aspekte des Themas abdeckt.
Gesetzliche Risikoeinstufung von KI-Anwendungen
Die EU-KI-Verordnung (EUKIVO) fußt auf einem risikobasierten Ansatz und definiert vier KI-Risikostufen. Zu den inakzeptablen KI-Anwendungen gehören solche, die eine Bedrohung fundamentaler Menschrechte darstellen. Der wesentliche Regulierungsgegenstand sind jedoch solche KI-Anwendungen, die als „Hohes Risiko“ eingestuft werden. Solch eingestufte KI-Anwendungen haben einen wesentlichen Einfluss auf fundamentale Rechte wie dem Zugang zu privaten und öffentlichen Dienstleistungen. Der Großteil der KI-Anwendungen dürfte sich jedoch auf die weiteren zwei Stufen „Limitiertes Risiko“ (Transparenzverpflichtungen) und „Minimales Risiko“ verteilen, was wiederrum außerhalb des Regulierungsraums der EUKIVO liegt.
KI kann mit verschiedenen Methoden umgesetzt werden. Geht man einigen KI oder ML-Definitionen nach, so kristallisieren sich schnell vier wesentliche Lernstrategien heraus: überwachtes Lernen, unüberwachtes Lernen, semi-überwachtes Lernen und das Reinforcement Learning, welches insbesondere zum Erfolg von solchen Applikationen wie ChatGPT letztendlich beigetragen hatte. Mit diesen Strategien lassen sich verschiedene KI-Fähigkeiten erzeugen, wie die Fähigkeit Bilder zu erkennen und Objekte zu identifizieren oder Text zu generieren. Diese Fähigkeiten fließen in Anwendungen ein wie der Sprachsteuerung oder dem automatisierten Fahren. Obwohl verschiedene Anwendungsszenarien sich so umsetzen lassen, könnten einige unter den Regulierungskontext der EUKIVO zugeordnet sein, während andere Szenarien mit derselben zugrundeliegenden Technologie nicht darunterfallen. So fühlt es sich wenig wie ein KI-Roulette an.
Länder auf der ganzen Welt entwerfen und implementieren Gesetze zur KI-Regulierung und damit einhergehend Anforderungen an eine KI-Governance, die der Geschwindigkeit und Vielfalt, der sich ausbreitenden KI-gestützten Technologien angemessen sind. Zu den gesetzgeberischen Bemühungen gehören die Entwicklung umfassender Gesetze, gezielte Gesetze für bestimmte Anwendungsfälle sowie freiwillige Richtlinien und Standards. Für globalagierende Unternehmen müssen hier mehrere Gesetzesgrundlagen betrachtet werden. Nicht nur die geopolitische Lage, sondern auch branchenorientierte Regulierungen müssen gegebenenfalls berücksichtigt werden. Das kann korrelieren, muss es aber nicht. Darüber hinaus treibt die Komplexität solcher Systeme die Konzentration relevanter Daten und die begrenzte praktische Erfahrung den Anreiz Anreize für potenzielle Angreifer. Dies verschärft den Eindruck nach einem KI-Roulette. Das muss es aber nicht, denn die meisten globalen Bestrebungen zur KI-Regulierung möchten Qualitätsstandards durchsetzen und somit Sicherheit schaffen. Im europäischen Markt bietet die EUKIVO mit den anderen digitalen Gesetzen eine umfangreiche Grundlage für eine horizontale Compliance-Betrachtung. Auch wenn sektorale gepaart mit geopolitischen Gegebenheiten einen großen Komplexitätsraum aufmachen, so sind auch Synergieeffekte stets vorhanden. Einer der grundlegenden Pfeiler für Qualität stellt zum Beispiel Sicherheit dar. Hierfür gibt es schon etablierte systematische Ansätze, die dabei unterstützen solche Anforderungen zu erreichen.
Systematischer Sicherheitsansatz
Dafür kann der typische Ansatz der Bedrohungsanalyse für sichere Software (auch genannt „Threat Modeling“) genutzt werden. Nun jedoch auch mit dem Fokus auf die KI-Komponenten und -Spezifika.
Die Modellierung von Bedrohungen dient dazu, Bedrohungen und Abhilfemaßnahmen zu identifizieren, zu kommunizieren und zu verstehen, wenn es darum geht, etwas von Wert zu schützen. Ein Bedrohungsmodell ist eine strukturierte Darstellung aller Informationen, die die Sicherheit einer Anwendung beeinflussen. Im Wesentlichen ist es eine Sicht auf die Anwendung und ihre Umgebung durch die Brille der Sicherheit.
Threat Modeling wird oft auf abstrakter Ebene durch vier Fragen erklärt – das Four Question Framework.
- Womit haben wir es zu tun (What are we working on)?
- Was kann dabei schief gehen (What can go wrong)?
- Haben wir einen Plan, um diese Fallstricke zu überwinden (What are we going to do about it)?
- Wie können wir unsere Maßnahmen bewerten (Did we do a good job)?
Als Starthilfe hierfür können Wissensdatenbanken über Taktiken und Techniken von Angreifern helfen, die auf realen Angriffsbeobachtungen und realistischen Demonstrationen von KI-Red-Teams und Sicherheitsgruppen basieren. Zu erweitern ist dies jedoch auf das eigene KI-System und deren speziellen Anwendungsanforderungen und -herausforderungen.
Die Threat-Modellierung wird am besten kontinuierlich während eines Projektes angewendet. Der Prozess ist auf den verschiedenen Abstraktionsebenen im Wesentlichen derselbe, auch wenn die Informationen im Laufe des Lebenszyklus immer granularer werden. Idealerweise sollte bereits in der Konzept- oder Planungsphase ein übergeordnetes Bedrohungsmodell erstellt werden, das dann im Laufe des Lebenszyklus verfeinert wird. Je mehr Details zum System hinzugefügt werden, desto mehr neue Angriffsvektoren werden geschaffen und aufgedeckt. Der laufende Prozess der Bedrohungsmodellierung sollte diese Bedrohungen untersuchen, diagnostizieren und beseitigen.
Die Risikobewertung ist Teil des Risikomanagementsystems, das in Artikel 9 der EUKIVO erwähnt wird. Um sicherzustellen, dass ein KI-System kein hohes Risiko darstellt, ist eine sorgfältige Bewertung der Cyber-Sicherheitsrisiken erforderlich, die die Anforderungen auf Systemebene mit den einzelnen Komponenten verknüpft. Diese Aufgabe beinhaltet die Identifizierung und Behebung spezifischer Risiken, indem die übergreifenden regulatorischen Cybersicherheitsanforderungen in spezifische Vorgaben für die Komponenten des Systems übersetzt werden.Es ist jedoch zu empfehlen, dass eine Bedrohungsanalyse (auch tiefergehend) nicht nur für Hochrisiko-KI-Systeme durchgeführt wird, sondern auch für die darunterliegenden Risikoklassen. Man minimiert dadurch potenzielle Angriffsszenarien, die Auswirkungen auf die eigene Integrität haben könnten.
Fazit
Die Erfüllung von EUKIVO-Anforderungen ist in der Tat mit Aufwand verbunden. Jedoch bietet die geschaffene Transparenz über Qualitätsanforderungen eine Chance auf Wettbewerbsfähigkeit. Diese sollten auch in der Umsetzung von den KI-Anwendungen außerhalb des Regulierungsbereichs eine Grundlage bieten, um qualitativ hochwertige Produkte und Dienstleistungen zu entwickeln. Dabei muss bei das Rad nicht völlig neu entwickelt werden, denn bestehende Sicherheitsmethoden können für die neuen Herausforderungen nachgenutzt werden. Letztendlich ist die Erfüllung von Sicherheitsanforderungen und Qualitätsstandards von KI-Anwendungen in Produkten und Dienstleistungen ein Zeugnis von Vertrauenswürdigkeit. Damit wird die Wettbewerbsfähigkeit im Zeitalter der Digitalisierung untermauert und wahrer Nutzen geschaffen, der in den eigenen Geschäftserfolg einmünzt.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.