KI-Governance in der Praxis:
Risikoklassifikation nach AI Act unter Berücksichtigung von Erwägungsgrund 53
Mit dem Inkrafttreten des AI Act rückt die Frage in den Fokus, wie KI-Systeme rechtssicher und effizient klassifiziert werden können. Die Unterscheidung zwischen Minimal- und Hochrisikosystemen ist dabei mehr als eine formale Vorgabe. Die Auslegungshilfen des Erwägungsgrunds 53 zeigen, dass die Praxis oft mehr Interpretationsspielraum lässt als gedacht – und dass eine strukturierte Bewertung unerlässlich ist.
Die korrekte Risikoklassifizierung von KI-Systemen entscheidet maßgeblich über Entwicklungskosten, Compliance-Aufwand und Marktzugang. Während Minimalrisikosysteme nur grundlegende Transparenzpflichten erfüllen müssen, unterliegen Hochrisikosysteme umfangreichen Governance-Anforderungen. Der Kostenunterschied kann 30 bis 60 Prozent der Projektkosten ausmachen – nachträgliche Korrekturen verteuern das System zusätzlich (Schätzung basiert auf Studien von Branchenexperten). Erkennt ein Unternehmen die Hochrisiko-Einstufung erst nach der produktiven Systemimplementierung, entstehen nicht nur zusätzliche Compliance-Kosten, sondern auch erhebliche Aufwände für die technische Nachrüstung sowie potenziellen Sanktionen nach AI Act.
Der Erwägungsgrund 53 des AI Act bietet wichtige Orientierung für diese Abgrenzung, lässt in der Praxis jedoch diverse Interpretationsspielräume zu. Entscheidende Faktoren wie Anwendungskontext, technische Transparenz und regulatorische Auslegung bleiben unzureichend konkretisiert. Diese Rechtsunsicherheit erfordert eine strukturierte Einzelfallprüfung, deren methodisches Vorgehen anhand eines konkreten Praxisbeispiels vereinfacht dargestellt werden soll.
Rechtlicher Rahmen: Artikel 6 und Erwägungsgrund 53 im Detail
Artikel 6 des AI Act in Verbindung mit Anhang III bildet die Grundlage für die Risikoklassifikation. Systeme gelten als Hochrisiko, wenn sie entweder in Anhang III explizit gelistet sind oder als Sicherheitskomponente unter harmonisierten EU-Rechtsvorschriften fallen. Erwägungsgrund 53 ergänzt diese Systematik durch wichtige Auslegungshilfen und verdeutlicht, dass auch nicht explizit gelistete Systeme als Hochrisiko einzustufen sind, sofern sie die Rechte natürlicher Personen erheblich beeinträchtigen können oder das Ergebnis der Entscheidungsfindung wesentlich beeinflussen.
Zur Abgrenzung von Hoch- und Minimalrisiko nennt Erwägungsgrund 53 auch Negativbeispiele: Systeme, die ausschließlich eng begrenzte, rein vorbereitende Aufgaben wie einfache Datenkonvertierung übernehmen oder nur geringfügig auf Entscheidungen einwirken, fallen typischerweise in die Minimalrisikokategorie. Entscheidend für die Bewertung sind dabei vier Kernkriterien: der Anwendungskontext mit Blick auf die Grundrechte, der Autonomiegrad bei Entscheidungsprozessen, die technische Transparenz der Systemfunktionen sowie die potenzielle Tragweite für Betroffenenrechte.
Fallstudie: Recruiting-KI als unterschätztes Hochrisikosystem
Ausgangslage
Ein Unternehmen plant die Einführung einer KI-gestützten Recruiting-Plattform, die Bewerbungsunterlagen automatisch analysieren, Kandidatenrankings erstellen und über einen Chatbot erste Screening-Interviews durchführen soll. Die IT-Abteilung argumentiert zunächst, es handele sich um ein reines Assistenzsystem, da keine finalen Personalentscheidungen getroffen, sondern nur Routinetätigkeiten beschleunigt würden. Diese Einschätzung erweist sich jedoch als trügerisch und kostspielig, wie eine strukturierte Analyse nach Erwägungsgrund 53 zeigt.
Kontextanalyse mit Fokus auf Grundrechtsrelevanz im Beschäftigungsbereich
Das System operiert im Beschäftigungskontext, einem der sensitivsten gesellschaftlichen Bereiche. Der Zugang zu Beschäftigung betrifft unmittelbar die wirtschaftliche Existenzgrundlage, soziale Teilhabe und berufliche Entwicklung der Betroffenen. Gleichzeitig spielen Gleichbehandlung und Diskriminierungsschutz eine entscheidende Rolle. Bereits diese Kontextanalyse deutet auf eine hohe Grundrechtsrelevanz hin, die eine vertiefte Prüfung erforderlich macht.
Autonomiegrad und Entscheidungseinfluss
Die Assistenzfunktion entpuppt sich bei genauerer Betrachtung als autonomer Entscheidungsprozess. Das System führt eine automatische Vorselektion durch und schließt aussortierte Kandidaten faktisch von weiteren Schritten aus. Das HR-Personal sieht ausschließlich die vom Algorithmus vorselektierten Profile und kann die algorithmischen Entscheidungen nicht systematisch überprüfen. Zusätzlich ist ein Automation Bias nicht auszuschließen. Dieser hohe Autonomiegrad führt zu einem wesentlichen Einfluss auf den gesamten Auswahlprozess und widerspricht damit der ursprünglichen Charakterisierung als passives Assistenzsystem.
Technische Transparenz und Bias-Risiken
Das auf historischen Bewerberdaten trainierte Machine-Learning-Modell weist eine geringe Transparenz auf. Weder für das HR-Personal noch für die Bewerbenden ist die Entscheidungslogik nachvollziehbar, was die Nachprüfung einzelner Bewertungen unmöglich macht. Besonders problematisch ist das hohe Risiko unbewusster Bias-Übertragung aus den Trainingsdaten. Historische Einstellungsentscheidungen können systematische Benachteiligungen bezüglich Geschlecht, Alter oder Herkunft bevorzugen, ohne dass dies erkannt oder korrigiert werden kann.
Rechtliche Einordnung nach Anhang III
Anhang III Nummer 4(a) erfasst explizit KI-Systeme für die „Einstellung oder Auswahl natürlicher Personen, insbesondere für die Analyse und Filterung von Bewerbungen sowie die Bewertung von Bewerbern“. Das geplante System fällt damit zweifelsfrei unter die Hochrisikoklassifikation, unabhängig davon, ob es als Assistenzsystem wahrgenommen wird.
Methodisches Vorgehen: Strukturierte Einzelfallprüfung
Eine systematische Einzelfallprüfung folgt einem vierstufigen Prozess, der von der Anwendungsbereichsanalyse über die Funktionsanalyse und Risikoabschätzung bis zur rechtlichen Klassifikation reicht.
In der ersten Stufe werden der Einsatzbereich und die betroffenen Stakeholder identifiziert, die Grundrechtsrelevanz bewertet und kritische Anwendungskontexte geprüft.
Die zweite Stufe dokumentiert die Systemfunktionen und Entscheidungslogik, bewertet den Autonomiegrad und analysiert die menschlichen Einflussmöglichkeiten.
Die dritte Stufe konzentriert sich auf die Risikoabschätzung durch Identifikation potenzieller Bias-Quellen, Bewertung der Auswirkungen von Systemfehlern und Assessment der Transparenz- und Erklärbarkeitsanforderungen.
Die abschließende vierte Stufe führt den Abgleich mit den Anhang-III-Kategorien durch, wendet die EG-53-Kriterien an und dokumentiert die Entscheidungsgrundlage vollständig. Diese strukturierte Herangehensweise gewährleistet eine nachvollziehbare und rechtssichere Klassifikation.
Assessment-Tools für die praktische Umsetzung
Etablierte Frameworks
Am Markt gibt es mehrere etablierte Tools, die bei der Umsetzung helfen. Dazu zählen allgemeine KI-Prüfkataloge, die eine grobe Klassifikation mit strukturierten Prüffragen zu Hochrisiko-Anforderungen und einer Zuordnung zu relevanten regulatorischen Artikeln bieten, beispielsweise der Fraunhofer IAIS AI Assessment Catalog. Solche Tools unterstützen insbesondere bei der technischen Dokumentation und werden kontinuierlich an neue regulatorische Vorgaben angepasst. Ergänzend dazu gibt es Frameworks wie das ALTAI-Framework der EU High-Level Expert Group, die sich auf ethische und organisatorische KI-Governance konzentrieren, indem sie Bewertungen anhand grundlegender Prinzipien vertrauenswürdiger KI ermöglichen. Diese eignen sich besonders für Workshops mit Stakeholdern und Change-Management-Prozesse. Standardisierte Rahmenwerke zur Bewertung der Werte-Konformität von KI-Systemen zielen darauf ab, international anerkannte Vertrauenslabels für KI zu etablieren. Modelle zur Messbarkeit ethischer Werte ermöglichen es Anbietern und Prüfern, Systeme umfassend zu evaluieren. Weitere Frameworks unterstützen Unternehmen beim Aufbau von Compliance-Strukturen gemäß EU AI Act, einschließlich Risikoklassifizierung, Auditierung und Integration in bestehende Managementsysteme. Hier finden sich auch sektorspezifische Prüfverfahren und Konformitätskriterien in der Entwickelung, um perspektivisch Zertifizierungen nach regulatorischen Vorgaben zu ermöglichen.
Alternative Assessment-Instrumente
Neben den etablierten Tools gibt es noch weitere Instrumente von zumeist privatwirtschaftlichen Anbietern, die die Prüfung erleichtern. Sie bieten umfassende Funktionen zur Erkennung und Minderung von Bias, einschließlich zahlreicher Fairnessmetriken und Algorithmusimplementierungen. Diese Instrumente sind besonders hilfreich für die technische Umsetzung von Nicht-Diskriminierungsanforderungen und bieten praktische Lösungsansätze für identifizierte Probleme. Andere Angebote kombinieren Interpretierbarkeit, Fairness-Assessment und Fehleranalyse und eignen sich optimal für Entwicklerteams, die ohnehin im entsprechenden Ökosystemen arbeiten.
Für interdisziplinären Teams aus Recht, Compliance und IT bieten sich wiederum Tools an, die eine interaktive Visualisierung und Analyse von Machine-Learning-Modellen ermöglichen – ganz ohne Programmierkenntnisse. Einem globalen Ansatz folgen Policy-Tools und -Frameworks, die internationale Vergleichsmöglichkeiten verschiedener AI-Governance-Ansätze bieten.
Integrierter Tooling-Ansatz
Für eine ganzheitliche Bewertung empfiehlt sich die Kombination verschiedener Tools. Beispielsweise sollte die rechtliche Compliance-Prüfung durch AI-Act-spezifische Tools mit einer technischen Bias-Analyse ergänzt werden. Organisatorische Governance-Reife lässt sich durch ethische und regulatorische Frameworks bewerten, während branchenspezifische Anforderungen durch spezialisierte Tools (z.B. im Kredit Risiko) abgedeckt werden können. Diese Mehrschichtenstrategie gewährleistet sowohl rechtliche Konformität als auch eine risikoarme KI-Integration.
Fazit und Handlungsempfehlungen
Die vermeintlich klaren Risikoklassifizierungen des AI Act erweisen sich in der praktischen Anwendung als interpretationsbedürftig. Erwägungsgrund 53 bietet eine wichtige Orientierung, ersetzt aber nicht die strukturierte Einzelfallanalyse. Besondere Vorsicht ist bei Systemen geboten, die als reine Assistenzsysteme konzipiert werden, aber faktisch wesentlichen Einfluss auf Entscheidungsprozesse nehmen. Das Recruiting-Beispiel zeigt exemplarisch, wie schnell scheinbar harmlose Tools zu einer hochregulierten Compliance-Herausforderung werden können. Unternehmen sollten daher bereits in der Konzeptionsphase eine strukturierte Risikobeurteilung durchführen und standardisierte Frameworks nutzen. Unternehmen profitieren nicht nur rechtlich, sondern auch betriebswirtschaftlich davon, die Klassifikationsentscheidung vollständig nachvollziehbar zu evaluieren und zu dokumentieren. Bei Zweifeln sollte externe Rechtsberatung hinzugezogen werden, da die Kosten einer Fehleinschätzung die geplanten Kosten um ein Vielfaches übersteigen können.
Durch die stufenweise (bis 2027) vollständige Anwendbarkeit des AI Act erschließt sich die Bedeutung einer kalkulierten Risikoklassifikation. Unternehmen, die strukturierte Bewertungsprozesse etablieren, verschaffen sich wichtige Compliance-Vorteile und reduzieren regulatorische Risiken. Die Entwicklung branchenspezifischer Leitlinien durch die EU-Kommission wird mittelfristig für mehr Rechtssicherheit sorgen. Bis dahin bleibt die systematische Einzelfallprüfung nach den hier dargestellten Kriterien eine valide Absicherung.



Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.