
KI-Governance in der Praxis: Risikoklassifikation nach AI Act unter Berücksichtigung von Erwägungsgrund 53
Minimal oder hoch? Der Erwägungsgrund 53 des AI Acts der EU zielt unter anderem darauf ab, KI-Systeme in Risikoklassen einzuteilen. So sollen KI-Systeme mit Minimal-Risiko von Hoch-Risiko abgrenzen lassen. In der Praxis stößt dies jedoch auf erhebliche Interpretationsspielräume. Entscheidend sind der Kontext, die technische Intransparenz (bzw. Transparenz) und die regulatorische Auslegung – der AI Act konkretisiert diese Faktoren allerdings nur unzureichend.
Die fehlende Klarheit stellte Unternehmen vor Compliance-Herausforderungen. Zugleich wird dadurch der Bedarf an branchenspezifischen Leitlinien sowie dynamischen Anpassungsmechanismen (von Minimal-Risiko zu Hoch-Risiko) deutlich. Doch bis diese vorliegen, bleibt die Klassifizierung von KI-Systemen eine Einzelfallentscheidung mit hoher Rechtsunsicherheit. Ein Problem für Unternehmen, denn die Klassifizierung eines KI-Systems hat einen erheblichen Einfluss auf dessen Entwicklungskosten. Zum einen, weil der Aufwand für die Umsetzung von Compliance-Anforderungen bei Minimal-Risiko im Vergleich zu Hoch-Risiko deutlich geringer ist. Zum anderen drohen zusätzliche Aufwände für Compliance und weitere Entwicklungskosten, wenn ein KI-System erst nachträglich als Hoch-Risiko klassifiziert wird. Mögliche Sanktionen drohen perspektivisch ebenfalls.
Dieser Artikel stellt dar, weshalb von einer Einzelfallprüfung in keinem Fall abzuraten, sondern diese zu befürworten ist. Anhand eines konkreten Beispiels wird gezeigt, wie eine solche Prüfung nach dem Erwägungsgrund 53 erfolgen kann und welche Tools dabei unterstützen können.


