KI Managen: Was Unternehmen von FinOps & Cloud lernen können
Künstliche Intelligenz (KI) ist gekommen, um zu bleiben. Was in den letzten zwei Jahren als Hype in der Unternehmens-IT aufschlug, muss heute gemanagt, optimiert und überwacht werden. Die Adoption von KI erinnert dabei in vielen Stationen den Herausforderungen auf dem Weg in die Cloud – einschließlich der steigenden Kosten.
Nach einer Studie des ifo-Instituts ist zwar die breite KI-Nutzung zwar noch ausbaufähig. Doch immerhin haben schon 12% der deutschen Unternehmen mindestens eine KI-Anwendung implementiert. Besonders große Betriebe und Konzerne setzen auf kommerzielle KI-Lösungen oder spezifische Lösungen externer Anbieter. Im europäischen Vergleich ist das gar nicht mal schlecht. Deutschlang liegt mit Platz 7 direkt hinter Vorreitern wie Dänemark und Finnland.
Dementsprechend ändert sich das IT-Portfolio von Unternehmen. Nach einer Umfrage zu den IT-Prioritäten 2025 ist einer der größten Softwarehersteller zum vierten Mal in Folge der Technologieanbieter mit dem größten Anteil am IT-Budget in Unternehmen (63%). Das mag auch daran liegen, dass der Softwarekonzern in den letzten Jahren energisch in den KI-Markt investiert hat – unter anderem mit der Partnerschaft mit OpenAI und der Integration von KI. OpenAI selbst schafft es mit 37% gleich im ersten Anlauf auf Platz vier und kann sich gegen langjährige Technologieführer behaupten.
Die Suche nach dem ROI
Aus Sicht des IT-Managements unterscheiden sich diese neuen KI-Anwendungen im Grunde nur wenig von anderen IT-Assets im Unternehmen. Sie bringen komplexe Lizenzmodelle mit sich, verlangen ein kontinuierliches Monitoring, müssen hinsichtlich Sicherheit- und Compliance-Risiken geprüft werden und verursachen Kosten. Was beim Einsatz von KI jedoch noch häufig fehlt, sind Erfahrungswerte hinsichtlich des Kosten-Nutzen-Verhältnis. Nach ersten Pilotprojekten und einer Phase des Experimentierens blicken Unternehmen daher nun verstärkt auf die wirtschaftliche Tragfähigkeit der intelligenten Lösungen.
KI läuft häufig in der Cloud und treibt die Kosten dort weiter in die Höhe. Der Ressourcenverbrauch lässt sich schwer überblicken und kontrollieren. Darüber hinaus integrieren Softwareanbieter KI-Funktionen zunehmend in bestehende Anwendungen, was über kurz oder lang mit neuen und teilweise teureren Lizenzmodellen einhergeht. So kann es sein, dass Softwarehersteller die Abrechnung für KI-Assistenten und -Features nach der Einführung und der ersten Testphase ändern, wobei der Preis nach oben geht.
Unternehmen müssen hier sehr genau prüfen, welche KI-Lösungen mit welchen Lizenzoptionen sich für sie lohnen. Vor allem weil der Markt hoch dynamisch bleibt. Viele Software und KI-Anbieter testen selbst noch, welche Preismodelle rentabel sind. Der KI-Vorreiter OpenAI zum Beispiel soll laut einem Bericht trotz des immensen Erfolgs von ChatGPT in finanziellen Schwierigkeiten stecken. Schuld seien unter anderem die hohen Kosten für Rechenpower, Energie, Mitarbeiter und die Entwicklung neuer KI-Modelle.
Parallelen zu Cloud
Die Herausforderungen erinnern stark an die frühen Tage des Cloud-Computings. Auf dem Weg in die Cloud hatten auch hier Unternehmen mit unkontrollierten Kosten und ineffizientem Ressourcenmanagement zu kämpfen. Als Cloud-Dienste erstmals populär wurden, verschoben viele Unternehmen ihre Workloads in externe Rechenzentren, ohne sich über die Notwendigkeit einer Cloud-Governance einschließlich Cloudkostenkontrolle bewusst zu sein.
Das Phänomen der Schatten-IT erlangte neue Ausmaße, da viele Fachabteilungen beliebte Cloud-Anwendungen an der IT vorbei und direkt vom Anbietern bezogen – was auf Grund der einfachen Breitstellung in der Cloud so einfach wie nie zuvor war. Überdimensionierte Cloud-Instanzen und nicht gekündigte Abos ließen die Rechnung am Monatsende länger und länger werden. Lange Zeit galt die Cloud als einfacher Kostenhebel, der ganz automatisch und ohne Mehraufwand die Effizienz steigert. Die Komplexität der Cloudkosten, die Notwendigkeit von Rightsizing und Optimierung fielen dabei oft unter den Tisch.
Heute beobachten Unternehmen eine ähnliche Entwicklung im Bereich der KI: Mitarbeitende holen sich das neueste KI-Tool ohne Absprache mit der IT. Was dabei anfangs nach einer kostengünstigen und unkomplizierten Lösung aussieht, kann langfristig zu erheblichen finanziellen und sicherheitstechnischen Problemen führen. Zudem kann die Profitabilität bei größeren KI-Projekten und Investition auf sich warten lassen. Das Training von KI-Modellen ist dynamisch und macht eine Planung des Ressourcenverbrauchs im Vorfeld schwierig.
FinOps Framework
In Sachen Cloud haben Unternehmen in den letzten zehn Jahren viel dazugelernt und einen höheren Reifegrad in Bezug auf das Management von Cloud-Assets erlangt. Eine wichtige Rolle spielt dabei FinOps. Der Ansatz ist operatives Framework und kulturelle Unternehmenspraxis in einem und vermittelt einen Lösungsweg, um den ROI der Cloud zu optimieren. Das Konzept schafft Transparenz, legt klar definierte Verantwortlichkeiten fest und zeigt Optimierungspotenziale auf. Das drei Phasen-Modell von FinOps (Informieren, Optimieren, Betreiben) verläuft iterativ und lässt sich kontinuierlich anpassen.

FinOps bietet jedoch nicht nur für die Cloud, sondern auch für den Einsatz von KI einen gut strukturierten Rahmen, um Kosten im Blick zu behalten, Compliance sicherzustellen und den Mehrwert von Anwendungen und Ressourcen gezielt zu maximieren. Folgende Best Practices helfen dabei:
- IT-Transparenz für den Überblick
In der ersten Phase von FinOps geht es darum, ein solides Verständnis für die Cloud-Ausgaben zu entwickeln und damit eine effektive Kostenverwaltung zu ermöglichen. Das gleiche Prinzip gilt für KI. Unternehmen brauchen einen umfassenden Überblick über die Kosten von KI-Anwendungen im Zusammenhang mit ihrer Nutzung, Lizenzmodelle und Abrechnungsmechanismen. Die Sichtbarkeit ist dabei nicht immer gegeben. Welche KI-Funktionalitäten tatsächlich über eine bestimmte Lizenz abgedeckt sind, kann manchmal unklar sein. Ebenso werden mit KI verbundene Gebühren als einzelne Posten auf der Rechnung ausgewiesen. Der genaue Blick in die Lizenzvereinbarungen ist daher zentral.
- Verantwortlichkeiten festlegen
Ein Kernelement von FinOps besteht darin, die Cloud-Kosten den jeweiligen Verbrauchern wie Teams, Projekten oder Geschäftseinheiten zuzuordnen. Damit ist jeder Stakeholder mitverantwortlich für die entstehenden Kosten (Accountability). Diese Denkweise gilt es auch bei KI-Ressourcen einzuführen. Nur so lässt sich ein Bewusstsein für die Kosten und die Sicherheits- und Compliance-Risiken schaffen, die der Einsatz von KI mit sich bringt. Auf diese Weise lässt sich die Problematik der Schatten-KI aktiv eindämmen.
- Governance vs. Experimenteller Spielraum
Klare Regeln für den Einsatz von KI sind ein Muss in jedem Unternehmen. Ohne definierte Richtlinien schießen nicht nur Ressourcenverbrauch und Kosten unkontrolliert in die Höhe. KI-Tools müssen zudem internen Sicherheitsstandards sowie regulatorischen Anforderungen (z. B. EU AI Act) entsprechen. Gerade in stark regulierten Branchen wie dem Finanz- oder Gesundheitssektor kann ein unkontrollierter KI-Einsatz sowohl finanzielle als auch rechtliche Konsequenzen nach sich ziehen. Dabei gilt: Die Richtlinien im Unternehmen sollten trotz aller Regeln immer noch Freiraum zum Experimentieren bereithalten – andernfalls verschenken Unternehmen die Innnovationskraft von KI.
- Ordnung schaffen
Die Verwaltung von IT-Assets – egal ob in der Cloud oder bei KI – setzt Ordnung und sauber aufgestellte Daten voraus. Wer seine KI-Lösungen konsequent, einheitlich und unternehmensweit mit Tags verseht, tut sich schlichtweg leichter die Kosten den jeweiligen Assets zuzuordnen. Während das Tagging von Cloud-Ressourcen bereits etabliert ist, sind die Möglichkeiten für KI-Services bislang noch nicht so ausgereift. Unternehmen sollten daher individuell prüfen, inwieweit sie ihre KI-Assets mit Metadaten versehen können, um eine möglichst klare Übersicht über deren Nutzung zu erhalten.
- Bessere Budgetplanung
Obwohl die IT-Budgets kontinuierlich wachsen, überschreiten die Kosten für die Public Cloud die geplanten Ausgaben noch immer um durchschnittlich 15% (State of the Cloud Report). Bei KI, das sich vielerorts noch in einem frühen Stadium befindet, ist die Budgetplanung weitaus schwieriger. Trotz aller Planungsunsicherheit: Es lohnt sich, von Beginn an klar definierte Budgets festzulegen und automatische Alerts einzurichten, die Alarm schlagen, sobald die Kosten aus dem Ruder zu laufen drohen. Die daraus gewonnen Erfahrungen helfen das KI-Budget in den nächsten Phasen anzupassen und finanzielle Risiken frühzeitig zu minimieren.
- Optimieren so gut es geht
In der zweiten Phase des FinOps Frameworks steht die Optimierung im Fokus: Dank der ganzheitlichen Übersicht lassen sich Prozesse anpassen und die Cloud-Profitabilität verbessern. Beim Einsatz von KI finden sich solche Optimierungsmöglichkeiten nur in begrenzten Umgang, da es noch an Daten und Erfahrungen fehlt. Die Über- oder Unternutzung von smarten Features oder Apps lässt sich nicht immer feststellen. Und auch wenn der ROI eines KI-Assets (noch) nicht messbar ist, heißt das nicht, dass er nicht existiert. Gerade in der Anfangsphase ist die Optimierung daher eine „ungenaue“ Wissenschaft mit der Unternehmen zurechtkommen müssen.
- Wandel in der Unternehmenskultur
Der langfristige Erfolg von KI-Management erfordert nicht nur technische Maßnahmen, sondern auch einen kulturellen Wandel innerhalb des Unternehmens. Mitarbeitende müssen zunächst ihre eigenen KI-Kosten verstehen, um verantwortungsbewusst mit den verfügbaren Ressourcen umgehen zu können. Der Wandel in der Verantwortlichkeit funktioniert nur, wenn FinOps das Executive Buy In von oben sowie die nötigen Ressourcen (z. B. Tools, Fortbildungen) erhält. Ansonsten bleibt das Framework bloße Theorie und geht an der täglichen Arbeitsrealität vorbei.
- In der Dauerschleife
Das Kostenmanagement von KI ist kein einmaliger Prozess, sondern ein kontinuierlicher Zyklus. Daher bezieht sich die letzte Phase von FinOps auf das „Betreiben“. Technologien, Lizenzmodelle und Nutzungsmuster entwickeln sich ständig weiter, weshalb auch die FinOps-Praktiken im Unternehmen regelmäßig überprüft und angepasst werden müssen. Durch eine iterative Herangehensweise bleibt das Unternehmen flexibel und kann schnell auf Änderungen reagieren. Gerade im hoch dynamischen KI-Markt ist das ein Pluspunkt.
Fazit
Angesichts der Lehren aus der Cloud stehen die Chancen gut, dass Unternehmen die Ausgaben für KI sehr viel schneller in den Griff bekommen werden. FinOps bietet hier einen guten Ansatzpunkt, um die in Zukunft wachsenden Kosten zu managen und die Potentiale zur Optimierung zu nutzen. Damit steht der wirtschaftlich sinnvollen und langfristig ausgerichteten Integration von KI in Unternehmen eigentlich nichts mehr im Weg.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.