Die Wirtschaftlichkeit Künstlicher Intelligenz – Wie Datenprojekte vom Kostenblock zum Umsatzgenerator werden

bei

 / 19. June. 2020

Es ist unstrittig, dass Daten und deren strategische Nutzung in Zukunft noch stärker als bisher über den Erfolg oder Misserfolg von Unternehmen entscheiden werden. So ermittelte Accenture in seiner Studie „AI Built to Scale“ von November 2019, dass drei von vier Entscheidern auf C-Level davon überzeugt sind, dass die Unternehmensexistenz auf dem Spiel steht, wenn sie in den kommenden fünf Jahren Künstliche Intelligenz (KI) nicht in ihrem Unternehmen skalieren. Doch wie lässt sich KI wirtschaftlich nutzen und skalieren? Einzelne, besonders vielversprechende Projekte zeigen unter Umständen schnell Wirkung und erzielen signifikante Einsparungen oder Umsatzerhöhungen. Doch wie sieht das bei nachfolgenden Projekten aus? Wie vermeidet man, dass Kosten überproportional wachsen?

Kosten von KI


Um diese Fragen zu beantworten, gilt es zunächst die Kosten unternehmensweiter KI insgesamt zu betrachten. Auf den ersten Blick fallen greifbare Kosten für die Anschaffung von Werkzeugen oder Technologie ins Auge. Sie sind eindeutig zuzuordnen und lassen sich entsprechend skalieren. Deutlich schwieriger wird die Beurteilung indirekter Kosten. Sie summieren sich in vielen Fällen über die Zeit auf, behindern die Skalierung der Projekte und verhindern, dass wirklich Gewinn aus KI-Projekten gezogen werden kann. Die größten Kosten verursachen dabei sechs Bereiche:

  1. Datenbereinigung und -vorbereitung

Eine Umfrage von Dataiku 2019 zur Data Maturity[1] ergab, dass 43 Prozent der Teilnehmenden die Datenbereinigung und -vorbereitung als den „schwierigsten oder zeitraubendsten Teil von Datenprozessen in ihrem Unternehmen“ betrachten. Die größte Herausforderung dabei ist, dass diese umfangreiche Aufgabe bei jedem Projekt aufs Neue viel Zeit in Anspruch nimmt und sorgfältig erledigt werden muss. Die Qualität der Daten entscheidet schließlich über die Qualität des gesamten KI-Projekts. Schlechte Daten führen zu unzureichenden Modellen und damit zu falschen Schlussfolgerungen. Sinnvoll ist hier einzig die effizientere, nachhaltigere Bereinigung der Daten. Es gilt Systeme zu implementieren, die einmal aufbereitete Daten für zahlreiche KI-Anwendungen zugänglich und nutzbar machen.

  1. Operationalisierung von KI und Überführung in die Produktivität

Der Prozess der Operationalisierung besteht aus mehreren Arbeitsabläufen: Einige interne Abläufe entsprechen der Produktion, während sich einige externe oder referentielle Abläufe auf bestimmte Umgebungen beziehen. Darüber hinaus umfassen Data Science Projekte nicht nur Code, sondern auch Daten (einschließlich Code für Datentransformation, Konfiguration und Schema für Daten, öffentliche referentielle Daten und interne referentielle Daten). Um den zuverlässigen Transport von Code und Daten von einer Umgebung zur nächsten zu unterstützen, müssen sie daher zusammen verpackt werden. Diese Arbeitsschritte sind sehr komplex und ohne konsistente Vorgaben benötigen sie sehr viel Zeit. Dataiku befragte mehr als 200 IT-Experten, wie lange es im Durchschnitt dauert, die erste Version eines Machine Learning-Modells in die Produktion zu überführen. Mehr als die Hälfte von ihnen nannte eine Zeitspanne von drei bis sechs Monaten. Berücksichtigt man dabei, dass nicht nur die Zeit Geld kostet, sondern auch keine Umsatzsteigerungen oder Kosteneinsparungen durch das Modell erzielt werden, entstehen enorm hohe Gesamtkosten.

  1. Einstellung und Bindung von Data Scientists

Data Scientists sind von Natur aus neugierig und möchten mit ihrer Arbeit einen sichtbaren Mehrwert erreichen. Beschränken sich ihre Aufgaben jedoch darauf, wiederkehrend in einer Sandbox-Umgebung zu entwickeln und Daten zu bereinigen, ohne jemals den Erfolg der eigenen Modelle zu erleben, verlieren sie schnell die Lust und suchen sich einen anderen Job. Das Unternehmen trägt anschließend die Kosten für die hohe Fluktuation. Um diese zu sparen, erfordert es die entsprechenden Werkzeuge, um aus schon umgesetzten Projekten Nutzen zu ziehen und geleistete Arbeit wiederzuverwenden.

  1. Cloud-Kosten und ROI

Um Datenprojekte unternehmensweit zu skalieren, erfordert es eine zeitgemäße Strategie in Hinblick auf die IT-Infrastruktur. Elastizität wird in 2020 das Schlagwort des Jahres sein. Auch wenn die Cloud kontinuierlich an Popularität gewinnt, setzen die meisten Unternehmen auf eine hybride Infrastruktur. Darüber legen sie eine KI-Plattform, die unabhängig davon, wo die Daten gespeichert und bearbeitet werden, eine durchgängige Benutzerfreundlichkeit erlaubt. Anfang 2019 berichtete the information[2], dass zahlreiche Unternehmen von ihren steigenden Cloud-Kosten überrascht wurden. Es gilt also, eine Cloud-Strategie zu erarbeiten, die den KI-Projekten angepasst ist. Ansonsten werden die Unternehmen einen harten Kampf um einen positiven ROI in KI-Projekten führen und eine Rechnung begleichen müssen, die nicht durch die finanziellen Gewinne oder Einsparungen aus den Projekten selbst ausgeglichen wird.

  1. Modell-Pflege

Anders als in der Software Entwicklung lassen sich Machine Learning Modelle nicht auf einen Stand „einfrieren“. Daten ändern sich und damit müssen auch die Modelle kontinuierlich angepasst werden. Die Wartung und Pflege der KI-Projekte darf keinesfalls außer Acht gelassen werden. Nicht aktualisierte Modelle schaden unter Umständen mehr als sie nutzen. Gerade bei einer wachsenden Zahl von KI-Anwendungen in Unternehmen steigen die Kosten rasant. Um dies zu vermeiden, entstand MLOps, das die Wartung der Modelle zu einer zentralen, systematisierten Aufgabe macht. Zusammen mit den Modellen gilt es auch, die darunterliegende Infrastruktur kontinuierlich zu warten. Wenn sich diese häufig verändert, kann das schnell zu hohen Kosten führen.

  1. Komplexe Technologie-Stacks
    Neben der Infrastruktur ändern sich auch die Technologien, die im KI-Umfeld genutzt werden, in Lichtgeschwindigkeit. Häufige Wechsel kosten aber nicht nur Zeit, sondern Geld. Auch die Nutzung unterschiedlicher Technologien abhängig von der Geschäftseinheit oder der geographischen Lage der verschiedenen Teams wird teuer. Es ist entscheidend, dass Unternehmen ein großes Bild ihrer Technologien zeichnen, um die Wiederverwendung und das Teilen von Erkenntnissen unternehmensweit zu ermöglichen.

Kapitalisierung und Wiederverwendung

Unser allgemeiner Menschenverstand sagt uns, dass es keinen Sinn macht, jedes Projekt von Null zu starten. Und das ist das Geheimnis, wie man Kosten deutlich reduziert, die in Zusammenhang mit der Datenbereinigung, deren Vorbereitung und Operationalisierung sowie der Wartung der Modelle und sogar für die Personalentwicklung entstehen.

Das einfache Konzept, um KI-Projekte effizienter zu machen und doppelte Arbeiten zu vermeiden, liegt in der Wiederverwendung vorhandener Leistungen. Ganz gleich, ob es sich dabei um Details wie die Wiederverwendung von Code Snippits handelt, um die Datenvorbereitung zu beschleunigen, oder ob es auf Makro-Ebene vermieden wird, dass zwei Data Scientists unterschiedlicher Bereiche am gleichen Projekt arbeiten. Kapitalisierung in Hinblick auf Künstliche Intelligenz bringt die Wiederverwendung auf eine neue Ebene: Die initialen Kosten eines KI-Projektes werden über viele weitere verteilt (meist handelt es sich dabei um Kosten, die entstehen, um Daten zu finden, zu bereinigen und vorzubereiten) oder in anderen Worten, man erhält mehrere Anwendungen zum Preis eines Projektes. Je mehr Anwendungsfälle beim Aufsetzen einer unternehmensweiten KI-Initiative berücksichtigt werden, desto höher wird die Kapitalisierung.

Illustration x zeigt, dass zunächst vier zentrale Anwendungen definiert werden. In deren Umfeld entstehen viele kleine Anwendungsfälle, die Teile der großen Projekte wiederverwenden können. Der Mehrwert von Data Science im Unternehmen steigt damit ebenso wie die Zufriedenheit der Data Scientist und der Fachabteilungen. Gleichzeitig sinken die Kosten pro Projekt. Insgesamt tauchen bei einem solchen Vorgehen häufig – bislang unerkannte – Anwendungsmögichkeiten zutage, die deutlich wertvoller sind, als zunächst angenommen. Sie stammen oft von Fachabteilungen oder Analysten, die – im Rahmen der Demokratisierung von KI und Self-Service Dateninitiativen – Daten ebenfalls im Sinne eine Wertsteigerung einsetzen.

Das Prinzip der Wiederverwendung klingt einfach, in der Praxis erfordert es aber unternehmensweite, zentralisierte Prozesse. Nur darüber können:

  • Anwender einfach auf alle Informationen zugreifen.
  • Anwender vorhandene Teile von anderen schnell nutzen.
  • Datenexperten das gesamte Spektrum an Datenprojekten unternehmensweit beobachten und kapitalisieren.
  • Datenexperten einfach enue Projekte erstellen und teilen.
  • Anwender – ob Programmierer oder nicht – in eigenen Stil effizient arbeiten.
  • Führungskräfte im Datenbereich die Qualität von KI-Projekten und die gewinnbringende Nutzung von KI gewährleisten.

Für viele Unternehmen erscheint die Liste unter Umständen bedrohlich – dieses Maß an Transparenz sind sie nicht gewohnt. Manche Industrien werden auch durch Regularien in der Transparenz eingeschränkt. Aber je höher die Transparenz, desto höher ist die Kapitalisierung und der Gewinn unternehmensweiter KI.

Data Science, Machine Learning und KI-Plattformen ermöglichen unternehmensweite KI in vielfältiger Weise. Eine übergreifende Anwendungsebene ermöglicht es Data Scientists, ebenso wie Daten-Analysten in Fachabteilungen, unternehmensweite KI vollumfänglich und effizient zu nutzen.

Kosten für Reduziert mit unternehmensweiten Plattformen durch
Datenbereinigung und -vorbereitung Wiederverwendung von bereinigten und vorbereiteten Daten über Projekte hinweg sowie zwischen Personas
Operationalisierung und Live-Betrieb Wiederverwendung von Design zur Produktion (ohne Neuprogrammierung von Modellen)
Anwerbung und Bindung von Data Scientists Die Nutzung bestehender Elemente, ermöglicht es Data Scientists sich auf anspruchsvollere Tätigkeiten zu fokussieren, die interessanter für sie sind.
Modell-Wartung und -Pflege Automatisierte Szenarien, Überwachung und Wiederverwendung von Infrastruktur über Technologie-Stacks hinweg.
Komplexe Technologie-Stacks

 

Freiheit zur Wiederverwendung auch bei Technologiewechselns, da die Plattformen eine Abstraktionsebene bieten, die sie von der darunterliegenden Technologie unabhängig macht

 

Fazit

Um Künstliche Intelligenz unternehmensweit in Unternehmen gewinnbringend einzusetzen, erfordert es neben der richtigen Technologie ein funktionierendes Zusammenspiel zwischen Menschen und Prozessen. Unternehmen, die das Prinzip der Wiederverwendung erfolgreich praktizieren, haben in der Regel mit einem starken Data Science Kompetenzzetrum gestartet. Beste Beispiele dazu liefern Unternehmen wie GE Aviation oder Pfizer. Die beiden Konzerne haben in Kompetenzzentren Best Practices ausgearbeitet und sichergestellt, das Menschen über die gesamte Organsiation hinweg – unabhängig davon ob es Data Scientist, Analysten oder Fachanwender sind – ihrem Weg folgen: GE Aviation kombinierte Technologie mit umfangreichem Training und einer Gamification von KI. Pfizers Erfolg liegt darin, transparente und erklärbare Prozesse zu schaffen, die eine unternehmensweite Zusammenarbeit im Bereich Data Science zu etablieren. Am Ende müssen Unternehmen die Balance finden zwischen Training, Projekten und Werkzeugen, um ein Maximum an Wiederverwendbarkeit und Zusammenarbeit zu ermöglichen. Damit gelingt es, KI wirrtschaftlich umzusetzen.

 

Quellen und Referenzen:

[1] https://blog.dataiku.com/ai-maturity-survey

[2] https://www.theinformation.com/articles/as-aws-use-soars-companies-surprised-by-cloud-bills

 

Alexis Fournier ist Direktor KI-Strategie bei Dataiku. Seine Karriere begann er als Data Scientist, wechselte anschließend in die internationale Wirtschaftsforschung und von dort zu SAP. Heute unterstützt er Unternehmen darin, den Wert von KI zu erkennen und KI unternehmensweit umzusetzen.