Um von den Potenzialen Künstlicher Intelligenz zu profitieren, war in der Frühzeit dieses Technologietrends die Einrichtung von Inkubatoren, also von isolierten Kompetenzzentren verbreitet. Es ging so weit, dass Inkubatoren in manchen Unternehmen zur einzigen Keimzelle datenbasierter Innovation wurden. Was zu Beginn erfolgreich gelang, stößt zunehmend an seine Grenzen. Folglich ist ein Umdenken unabdingbar. Angesichts der zunehmenden Geschwindigkeit, mit der datenbasierte Lösungen den Markt verändern, wächst für Unternehmen der Druck, mit dieser Entwicklung Schritt zu halten. Der klassische Inkubator-Ansatz für die Entwicklung von KI-Lösungen ist hierbei nicht mehr zielführend.
Doch was soll folgen? Ein vielversprechender Ansatz ist, KI-Lösungen nicht mehr isoliert vom Rest der Organisation zu entwickeln, sondern sie mit der Belegschaft in der Mitte des Unternehmens, also am Ort der eigentlichen Wertschöpfung, aufzubauen und zu verankern. Mit den richtigen Maßnahmen wird damit nicht nur die Anzahl der entwickelten KI-Lösungen gesteigert, sondern auch die Geschwindigkeit, mit der dies geschieht.
Der Inkubator als Keimzelle für Innovation
Unternehmen grenzen Inkubatoren vom Rest des Unternehmens bewusst stark ab: Sie agieren als in sich abgeschlossene Einheiten und verfügen über Ressourcen und Know-how, um definierte Ziele ohne äußere Interventionen zu erreichen. Dabei kann sich die Abkopplung auf beliebige Dimensionen beziehen, etwa auf Prozesse, Governance, Technologie oder Know-how. Konkret werden im Bereich datenbasierter Lösungen beispielweise einzelne KI-Anwendungsfälle End-to-End abgebildet: die Analyse und Akquirierung der Daten, die Entwicklung und der Aufbau der Modelle und Algorithmen oder der Betrieb der Systeme zur Datenhaltung und Algorithmennutzung.
Der Vorteil des Inkubatoren-Konzepts liegt klar auf der Hand: Es können auch Unternehmen nutzen, die aufgrund ihres Reifegrads ansonsten kaum in der Lage wären, datenbasierte Lösungen aufzubauen.
Mühsam ernährt sich das Eichhörnchen
Zweck eines Inkubators ist es, neue technologische Gebiete, für die noch keine praktischen Erfahrungswerte vorhanden sind, zu erschließen, zu evaluieren und zu nutzen. Basis dafür sind schlanke Prozess- und Governance-Modelle, hohe Freiheitsgrade und Mitarbeiter, die dank ihrer Spezialisierung wie geschaffen für diese Pionierarbeit auf unbekanntem Terrain sind.
Diese Freiheit hat aber auch ihren Preis. Beim Aufbau datenbasierter Lösungen sind Spezialisten mit diversen Hindernissen konfrontiert, die in einigen Tätigkeitsbereichen zu hohen Aufwänden führen, etwa
· beim Aufspüren von Daten, indem Zugänge geschaffen, Systeme durchforstet, Hinweise von Fachkollegen analysiert und Datenquellen validiert werden
· beim Wissenstransfer, bei dem Daten verstanden werden müssen, indem Know-how akquiriert, Strukturen und Abhängigkeiten analysiert, Merkmale und Ausprägungen interpretiert werden
· bei der Datenaufbereitung, indem Daten nutzbar gemacht werden – beispielsweise durch die Korrektur von Fehlern oder die Transformation von Formaten.
Laut einiger Studien müssen Data-Scientists für diese vorbereitenden Tätigkeiten etwa 70 bis 80 Prozent ihrer zur Verfügung stehenden Zeit aufwenden. Zu diesem Zeitpunkt hat ein Unternehmen bereits beträchtliche Ressourcen investiert, um datenbasierte Lösungen umzusetzen, ist dabei aber noch nicht einmal in die Nähe einer Künstlichen Intelligenz gekommen. Es wird somit deutlich, wie aufwendig die Pionierarbeit im Rahmen des Inkubator-Ansatzes ist. Wie kann also ein effizienterer Lösungsweg aussehen?
Die Grenzen des Inkubators
Um das eingangs erwähnte Ziel zu erreichen, mehr datenbasierte Lösungen in kürzerer Zeit aufzubauen, bestehen zwei konkrete Handlungsfelder: die Reduzierung der Entwicklungsdauer und die Parallelisierung des Entwicklungsprozesses. Wie sind diese Aufgaben mit dem Konzept eines Inkubators vereinbar?
Die effizientere Gestaltung des Entwicklungsprozesses mit einer verringerten Entwicklungsdauer erfordert ein höheres Maß an Standardisierung, um insbesondere die Vorarbeiten zu beschleunigen. Daten müssten etwa unternehmensweit zentral einsehbar, einfach zugänglich und einheitlich beschrieben sein sowie Qualitätsstandards erfüllen. Selbst in dem hypothetischen Fall, dass der hohe Standardisierungsgrad dem Inkubator-Prinzip nicht widersprechen würde, wäre dies nicht realisierbar. Für eine weitreichende Umsetzung fehlen einerseits das Know-how rund um unternehmensspezifische Sachverhalte und andererseits die Personalressourcen.
Auch eine Parallelisierung des Entwicklungsprozesses wäre im Inkubator kaum zu realisieren: Die vorherrschende Dynamik und Agilität basieren auf einer überschaubaren Personalstärke, zudem ist die Verfügbarkeit von Personal mit dem diversen, im Inkubator benötigten Skillset sehr begrenzt und auch nicht uneingeschränkt reproduzierbar.
Think Big: Das Potenzial ist nahezu unendlich
Wie soll ein Unternehmen aber skalieren, wenn die Kapazität des Inkubators nicht auf das Entwicklungsniveau angehoben werden kann, das der Wettbewerb erfordert? In diesem Fall lohnt es sich, den „Thinking outside the box“-Ansatz in Richtung des „Thinking inside the box“ zu verlassen. Unternehmen haben längst Zugriff auf eine breite Basis an Fachexperten, die darüber hinaus Know-how und Erfahrung in allen Unternehmensprozessen und der grundlegenden Arbeit mit Daten haben: Dabei geht es um die eigenen Mitarbeiter. Warum also sollten sie nicht – oder zumindest große Teile davon – zur Keimzelle für datenbasierte Lösungen werden?
An dieser Stelle wird es nicht lange dauern, bis die ersten Personen Gründe anführen, warum dieser Ansatz nicht möglich ist. Doch neben der Frage nach dem Möglichen stellt sich vielmehr die Frage, ob Unternehmen es sich leisten können, den enormen Wissens- und Erfahrungsschatz ihrer Mitarbeiter nicht aktiv zu nutzen? Und damit kann aus einer anfänglichen Frage über die Ressourcen durchaus eine existenzielle werden.
Wird der Inkubator damit überflüssig? Sicher nicht! Stattdessen kehrt er zurück zu seinen Wurzeln und seiner ursprünglichen Bestimmung und widmet sich wieder verstärkt neuen, unbekannten Technologien.
Die Spielregeln machen den Unterschied
Bezieht man große Teile der Belegschaft aktiv in den Aufbau von datenbasierten Lösungen ein, was je nach Unternehmensgröße mehrere tausend Mitarbeiter betreffen kann, ergeben sich gleich mehrere Herausforderungen: Neben der Befähigung der einzelnen Mitarbeiter, etwa durch Trainings, müssen organisatorische Leitplanken für die Arbeit mit Daten geschaffen werden. Sie stellen sicher, dass jeder einzelne in die Lage versetzt wird, mit Daten zu arbeiten und dass die zahlreichen verschiedenen Anstrengungen und Aktivitäten einem großen, gemeinsamen Ziel dienen. Organisatorische Leitplanken können dabei viele Formen annehmen, von Policies und Prozessen über Verantwortlichkeiten bis hin zu Tools.
Die Standardisierung steigert die Effizienz
Abgesehen von der Skalierung besteht bei Inkubator-Konzepten eine weitere Herausforderung: Die mangelnde Standardisierung in den Bereichen Transparenz, Verständnis und Datenzugriff führt zu unverantwortlich hohen manuellen Aufwänden auf Seiten der Scientists.
Dabei gibt es Lösungsansätze, die sich bereits in der Praxis bewiesen haben:
· Mit einem Datenkatalog, der das Datenportfolio des Unternehmens abbildet, sind Daten schneller zu finden und durch die enthaltenen Metadaten und fachlichen Beschreibungen leichter zu verstehen.
· Durch standardisierte Regeln und Prozesse zur Datenteilung kann schneller und unkomplizierter auf Datenquellen zugegriffen werden.
· Auf Basis unternehmensweiter Datenqualitätsstandards, die verbindlich festgelegt und sichergestellt werden, sind Daten vertrauenswürdiger und weniger fehlerbehaftet.
Data Governance für das ganzheitliche Datenmanagement
Die Summe der organisatorischen Leitplanken und Standardisierungsansätze, die ein Unternehmen im Kontext „Daten“ anwendet, stellt die Data Governance dieser Organisation dar. Sie hat von einem abstrakten Level aus gesehen zum Ziel, den Umgang mit Daten zu professionalisieren und die Nutzung von Daten in der Organisation zu fördern.
Dabei gibt die Data Governance etwa Richtlinien und Prozesse zur Verarbeitung, Pflege, Struktur und Zugänglichkeit von Daten sowie zur Sicherung deren Qualität, Sicherheit und Compliance vor. Unterstützt wird dies durch eine einheitliche Tool-Landschaft, etwa für die Datenteilung und -verarbeitung, die Datenkatalogisierung oder die Datenqualitätskontrolle. Über Gremien, Rollen und Verantwortlichkeiten im Datenkontext bildet die Data Governance zudem die Accountability ab. Nicht zuletzt gewährleistet sie mit einem effizienten Monitoring die erfolgreiche Umsetzung.
Die Data Governance ist damit mehr als eine reine Sammlung von Regeln: Sie ist ein ganzheitlicher Ansatz zum Management von Daten. Bei aller erforderlichen Standardisierung muss eines klar sein: Die Struktur und Inhalte einer wirksamen Data Governance sind immer individuell an den Rahmenbedingungen und Zielen der Organisation ausgerichtet und sie passen sich wechselnden Rahmenbedingungen laufend an.
Der Beginn einer Journey
Insgesamt betrachtet geraten Unternehmen, die bisher ausschließlich auf Inkubatoren gesetzt haben, um innovative KI-Lösungen zu generieren, vermehrt an ihre Grenzen. Der Wechsel der Zuständigkeit und Verantwortung für den Aufbau datenbasierter Lösungen von Inkubatoren auf Belegschaften stellt dafür eine Lösung dar, bedeutet zugleich aber auch einen fundamentalen Wandel: Mit diesem Prinzipienwechsel müssen umfangreiche Maßnahmen einhergehen, die die Veränderungen für alle Personen und Funktionen im Unternehmen strukturiert planen, aktiv steuern und nachvollziehbar kommunizieren. Der Aufbau und die Pflege einer wirksamen Data Governance ist dabei ein essenzieller Schritt, wenngleich bei Weitem nicht der einzige.
Für Unternehmen stellt die Entscheidung, den Aufbau datenbasierter Lösungen und damit KI in ihre Mitte zu integrieren, jedoch einen wichtigen und nötigen Schritt in die Zukunft dar. Gleichzeitig begünstigen Trends, die im Alltag und in der Technologie identifizierbar sind, diesen Wandel. Die zunehmend wissensbasierte Gesellschaft führt dazu, dass nicht mehr nur spezialisierte Datenexperten über Daten- und Algorithmenverständnis verfügen. Auch breite Teile der Gesellschaft und damit der Belegschaft werden für diese Wissensgebiete sensibilisiert. Und nicht zuletzt senkt die zunehmende Verfügbarkeit von Low-Code- und No-Code-Lösungen in den Bereichen Data Science und KI die Einstiegshürden in die Welt der datenbasierten Lösungen nachhaltig.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.