AI-Governance als strategischer Rahmen der digitalen Transformation

Ab August 2026 gilt der EU AI Act vollumfänglich (Der Omnibus ist nicht verabschiedet. Solange er nicht formal angenommen ist, bleibt der 2. August 2026 die rechtlich verbindliche Frist). Unternehmen müssen ihre KI-Systeme inventarisieren, klassifizieren und steuern. Was nach einem strukturierten Projekt klingt, erweist sich in der Praxis als grundlegend schwieriger: Die Grenze zwischen KI und konventioneller Software ist fließend, Anbieter vermeiden das Label teilweise bewusst, und ein erheblicher Teil der tatsächlich genutzten KI-Funktionen entzieht sich klassischen IT-Prozessen. Dieser Beitrag analysiert, warum AI-Governance mehr erfordert als ein Register und eine Risikoklassifikation, welche organisatorischen Strukturen tatsächlich wirken und warum Governance ohne aktive Kommunikation wirkungslos bleibt.
Von   Isabell Neubert   |  Manager AI/IT Governance & Regulatory Technology   |  coeo Group
9. April 2026

AI-Governance als strategischer Rahmen der digitalen Transformation

 

 

Image taken from: https://unsplash.com/de/fotos/eine-waage-und-ein-dollarzeichen-auf-schwarzem-hintergrund–ysv-HwRpcA

Was zählt überhaupt als KI?

Die meisten Unternehmen beginnen ihre Vorbereitung auf den AI Act mit einer Bestandsaufnahme. Welche KI-Systeme setzen wir ein? Die Frage klingt einfach. Sie ist es nicht.

Die Schwierigkeit beginnt nicht bei der Inventur selbst, sondern bei ihrem Gegenstand. Der AI Act definiert KI-Systeme breit, die Anbieter bestehender Software tun das Gegenteil. Funktionen, die algorithmisch Muster erkennen, Inhalte generieren oder Entscheidungen vorbereiten, werden als „Optimization“, „Smart Feature“ oder „Intelligent Automation“ vermarktet. Ob diese Funktionen unter die AI-Act-Definition fallen, lässt sich häufig nicht aus der Produktdokumentation ableiten. Es erfordert eine technische Analyse dessen, oder sogar eine direkte Anfrage beim Hersteller, was die Systeme tatsächlich tun.
Für Unternehmen hat das eine direkte regulatorische Konsequenz: Als Betreiber haften sie oft auch für KI-Funktionen in zugekaufter Software. Unabhängig davon, ob der Anbieter seine Lösung als KI bezeichnet. Gleichzeitig verlangt der AI Act auf Anwendungsebene die Sicherstellung, dass bestimmte Praktiken nicht realisiert werden. Art. 5 definiert verbotene Einsatzformen. Diese Prüfung setzt voraus, dass ein Unternehmen nicht nur weiß, welche Tools existieren, sondern welche Funktionen in diesen Tools aktiviert sind, wie die Mitarbeitende sie verwenden, welche Daten sie verarbeiten und welche Entscheidungslogiken sie verwenden.

Ein Register zugelassener Anwendungen reicht dafür nicht. Was es braucht, ist Konfigurationskontrolle: die Fähigkeit, KI-Funktionen in bestehenden Systemen gezielt zu aktivieren, einzuschränken oder abzuschalten. Aus Gründen der Regulierung, des Datenschutzes und der Informationssicherheit.

 

Wie KI in Organisationen gelangt

Traditionell folgte die Einführung neuer Technologien in Unternehmen einem planbaren Muster: Beschaffung, Freigabe, Implementierung. Bei KI ist dieses Muster weitestgehend aufgebrochen. Künstliche Intelligenz erreicht Organisationen heute über drei Kanäle gleichzeitig: Erstens über strategische Eigenentwicklung. Unternehmen entwickeln oder beschaffen gezielt KI- Anwendungen für definierte Einsatzfelder. Dieser Kanal ist steuerbar und entspricht dem klassischen IT-Governance-Modell.

Zweitens über Anbieter-Embedding. Softwareanbieter integrieren KI-Funktionen in bestehende Produkte und aktivieren sie über reguläre Updates. Office-Anwendungen, HR-Systeme, Kollaborationsplattformen, Dokumentenwerkzeuge: Sie alle erweitern ihren Funktionsumfang um automatisierte Analyse-, Generierungs- oder Entscheidungsmechanismen. In vielen Fällen geschieht das ohne explizite Implementierungsentscheidung des nutzenden Unternehmens. Features werden auf Nutzerbasis aktiviert, häufig ohne, dass jemand die geänderten Nutzungsbedingungen prüft oder die Funktion bewusst in die IT-Landschaft integriert.

Drittens über individuelle Nutzung. Frei verfügbare KI-Anwendungen lassen sich ohne Administratorrechte nutzen, direkt im Browser, als App oder über API. Mitarbeitende greifen eigenständig auf solche Werkzeuge zurück, um Texte zu erstellen, Daten auszuwerten oder Arbeitsprozesse zu beschleunigen. Dieses Phänomen wird häufig als Shadow AI bezeichnet. Die Ursache von Shadow AI wird oft in mangelnder Disziplin verortet. Die Datenlage spricht eine andere Sprache. Studien zeigen, dass über 60% der Mitarbeitenden KI-Tools bei der Arbeit nutzen, aber weniger als ein Fünftel von einer offiziellen Unternehmensrichtlinie zum KI-Einsatz wissen. Gleichzeitig sinkt die unautorisierte Nutzung um bis zu 89%, sobald geprüfte Alternativen bereitgestellt werden.

Shadow AI ist damit weniger ein Verbotsproblem als ein Angebots- und Kommunikationsdefizit. Für die Governance bedeutet das: Nur der erste Kanal lässt sich mit klassischen IT-Freigabeprozessen steuern. Für Kanal zwei und drei braucht es andere Instrumente.

 

Was passiert, wenn Governance und Bewusstsein für Risiken fehlt?

Die Risiken ungeregelter KI-Nutzung sind nicht abstrakt. Sie sind bezifferbar. Das unmittelbarste Risiko ist Datenabfluss. Wenn Mitarbeitende Unternehmens- oder personenbezogene Daten in externe KI-Systeme eingeben, verlässt die Organisation die Kontrolle über Verarbeitung, Speicherung und mögliche Trainingsverwendung dieser Daten. Das betrifft nicht nur den AI Act, sondern die DSGVO, branchenspezifische Regulierung und vertragliche Vertraulichkeitspflichten gegenüber Kunden und Partnern. Das zweite Risiko ist Gesetzesverstoß über den AI Act hinaus. In regulierten Branchen wie dem Finanzsektor greifen zusätzliche Anforderungen: Aufsichtsrecht, Geldwäscheprävention, Anforderungen an Auslagerungen und IT-Sicherheit. KI-Funktionen, die ohne Governance eingesetzt werden, können diese Anforderungen verletzen, ohne dass die zuständigen Stellen im Unternehmen davon Kenntnis haben. Das dritte, am wenigsten diskutierte Risiko ist der Verlust von Entscheidungsqualität, Compliance, Reputation und Fachwissen durch Qualitätsverfall. Am sichtbarsten ist das Phänomen bei KI- generierten Inhalten, die ohne ausreichende fachliche Prüfung verwendet werden. Der Reputationsschaden trifft dabei nicht nur das Unternehmen, sondern auch persönlich die verantwortlichen Autoren. Schwerer wiegen jedoch Qualitätsfehler, die nicht sofort erkennbar sind. Subtile sachliche Ungenauigkeiten, fehlerhafte Schlussfolgerungen oder verzerrte Darstellungen, die plausibel genug klingen, um nicht aufzufallen, können sich über Monate und Jahre in Arbeitsergebnissen, Entscheidungsgrundlagen und Kundenkommunikation festsetzen.

Wenn solche Fehler spät oder gar nicht entdeckt werden, kumulieren sie. Die Folgen reichen von fehlerhaften Geschäftsentscheidungen über falsche Kundenberatung bis hin zu Compliance-Verstößen, deren Ursache im Nachhinein kaum noch auf den ursprünglichen KI-Output zurückzuführen ist.

 

Image taken from: https://unsplash.com/de/fotos/ein-3d-bild-eines-richterhammers-auf-schwarzem-hintergrund-3hkKv6WzjcE

Was Governance organisatorisch erfordert

Zwei Steuerungsmechanismen fehlen in den meisten Organisationen: Der erste ist ein systematisches Vendor- und Model-Risk-Management. Wenn KI zunehmend über zugekaufte Software in die Organisation gelangt, muss die Bewertung über klassische Vendor- Fragebögen hinausgehen. Relevante Fragen betreffen die Herkunft und Qualität der Trainingsdaten, die Transparenz der Modellarchitektur, die Datenverarbeitungsprozesse und Isolationsmechanismen des Anbieters, die vertragliche Regelung von Haftung bei Modelländerungen, und die Informationspflichten bei Updates, die das Risikoprofil der eingesetzten Funktionen verändern. Ziel ist nicht Dokumentation um der Dokumentation willen. Ziel ist ein Entscheidungsrahmen, der es ermöglicht, schnell und fundiert über neue Anwendungen oder veränderte Funktionen zu entscheiden. Der zweite Mechanismus ist eine Entscheidungsstruktur, die Geschwindigkeit und Sorgfalt verbindet. KI-bezogene Entscheidungen betreffen mehrere Perspektiven gleichzeitig: Business bewertet den Nutzen, IT die technische Umsetzbarkeit, Compliance die regulatorischen Anforderungen, Datenschutz die Verarbeitungsbedingungen. Für bestimmte Entscheidungen ist interdisziplinäre Beteiligung notwendig. Aber: Beteiligung ist nicht dasselbe wie gemeinsame Zuständigkeit. Ohne definierten Treiber, klare Entscheidungsrechte und Eskalationsmechanismen entsteht Stillstand. Zu viele Beteiligte ohne klare Verantwortung sind häufig der Grund für fehlende Geschwindigkeit, nicht fehlende Expertise.

 

Governance, die niemand kennt, existiert nicht

Die beste Richtlinie ist wirkungslos, wenn Mitarbeitende sie nicht kennen, nicht verstehen oder nicht wissen, was sie konkret für ihre Arbeit bedeutet. Dass die Mehrzahl der Mitarbeitenden bestehende KI-Richtlinien nicht kennt, ist kein Umsetzungsfehler am Ende eines Prozesses. Es ist ein Designfehler am Anfang. Governance muss von Beginn an so konzipiert sein, dass sie kommunizierbar ist: klare Regeln, verständliche Sprache, konkrete Handlungsanweisungen für den Arbeitsalltag. Das erfordert internes Marketing im wörtlichen Sinn. Nicht Werbung, sondern Übersetzungsarbeit: Abstrakte Prinzipien in greifbare Orientierung überführen. Welche Tools dürfen genutzt werden, unter welchen Bedingungen? Welche Daten dürfen in welche Systeme? An wen wende ich mich, wenn ich unsicher bin?

 

Fazit

Der AI Act erzeugt klaren Handlungsdruck. Die eigentliche Herausforderung liegt aber nicht in der Regulierung selbst, sondern in der Realität, auf die sie trifft: KI-Funktionen, die sich der Sichtbarkeit entziehen, Definitionen, die vom Markt aktiv unterlaufen werden, und eine Nutzungsdynamik, die schneller ist als jeder Freigabeprozess. AI-Governance muss diese Realität adressieren. Das erfordert Konfigurationskontrolle statt reiner Inventarlisten, ein Vendor-Risk-Management, das über Fragebögen hinausgeht, Entscheidungsstrukturen, die interdisziplinär informiert, aber klar getrieben sind, und eine
Kommunikation, die Governance im Arbeitsalltag verankert. Richtig aufgebaut ist AI-Governance kein zusätzlicher Verwaltungsaufwand. Sie schafft den Rahmen, in dem Unternehmen KI einsetzen können, ohne ihre Daten, ihre Compliance und ihre Glaubwürdigkeit zu gefährden.

 

Isabell Neubert ist Manager AI/IT Governance & Regulatory Technology bei der coeo Group. In dieser Rolle steuert sie die strategische und operative Ausrichtung regulatorischer und technologischer Governance-Themen an der Schnittstelle von KI, IT, Recht und Organisation – mit dem Ziel, den verantwortungsvollen und wirksamen Einsatz von KI in komplexen Unternehmenskontexten zu ermöglichen.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

54714

share

Artikel teilen

Top Artikel

Ähnliche Artikel