Mit dem raschen technologischen Fortschritt und den Entwicklungen im Bereich Machine Learning und KI, wird eines immer wichtiger: Die Datengrundlage sowie das entsprechende -management muss deutlich verfeinert werden, um die gesammelten Daten auch aktivieren und nutzbar machen zu können. Genau das Missverständnis kann Unternehmen zum Verhängnis werden, da sie die mit den neuen Tools verbundene Transformationsfähigkeit sonst überschätzen. Noch kritischer ist jedoch die Tatsache, dass viele Unternehmen die grundlegenden Elemente, die für eine optimale Datennutzung erforderlich sind, nicht berücksichtigt haben. Untersuchungen haben gezeigt, dass 41 Prozent der Datenanalysten aufgrund von Fehlern und Diskrepanzen im Datenmanagement immer noch ein geringes Datenvertrauen haben. Es gibt also grundsätzlichere Probleme, die angegangen werden müssen, bevor neue Lösungen überhaupt optimal einsetzt werden können.
Was leisten moderne Data Stacks?
Die Verfechter moderner Data Stacks argumentieren damit, dass diese bei einer effizienten Entscheidungsfindung bei relevanten geschäftlichen Fragen helfen, indem sie schnelle Erkenntnisse liefern und dabei die Hauptarbeit der Big Data-Verarbeitung übernehmen – sie revolutionieren damit die Art und Weise, wie Unternehmen mit Daten umgehen. Diese Behauptungen haben zwar einen gewissen Wahrheitsgehalt, aber um ihren tatsächlichen Wert zu ermitteln, muss man herausfinden, was man eigentlich genau unter einem modernen Data Stack versteht.
Im Kern ist der Hauptunterschied zu Vorgängerlösungen die Cloud. Vor zwei Jahrzehnten setzten Unternehmen auf On-Premise Lösungen, mit denen sie Daten in ihren eigenen Rechenzentren hosten und verwalten konnten, einschließlich eines ETL-Systems (Extrahieren, Transformieren und Laden), einer internen Datenbank und Visualisierungstools. Durch die Umstellung auf Cloud bieten neue Systeme mehr Möglichkeiten, riesige Datenmengen mit höherer Geschwindigkeit zu verarbeiten und die Belastung der Unternehmensressourcen zu verringern.
Die Art und Weise, wie die Daten orchestriert werden, hat sich jedoch nicht wirklich geändert. Letztlich sammeln moderne Lösungen immer noch Informationen, die verarbeitet, umgewandelt und visualisiert werden müssen, was selbst bei in der Cloud gehosteten Daten einen erheblichen Arbeitsaufwand bedeutet. Darüber hinaus bedeutet die Tendenz, an denselben alten Teamstrukturen und Datenprozessen festzuhalten, dass langwierige Herausforderungen zu großen Problemen bei der Zugänglichkeit und Genauigkeit führen können.
Weniger ist eben doch oft mehr
In den meisten Unternehmen ist der Daten-Workflow nach wie vor zweigeteilt: Während Ingenieurteams oft Anwendungsaktivitäten durchführen, sind für die Datenintegration spezielle Dateningenieure zuständig. Darüber hinaus gibt es meistens noch weitere Teams und Abteilungen, die für die Erstellung von Datenmodellen und Datenbanken zuständig sind. Das Problem: Sie arbeiten alle voneinander isoliert und logischerweise kommt es so zu der Entstehung von Datensilos. Dadurch sind nicht nur die Abläufe umständlich und fragmentiert, auch die Wahrscheinlichkeit, dass Daten verloren gehen und nicht die richtigen Entscheidungen getroffen werden, ist dadurch erhöht, da es keinen übergeordneten Verantwortlichen für die Stabilität der gesamten Pipeline gibt.
Ein ebenso wichtiger Punkt sind die Ressourcen: Wenn wichtige Daten nicht ohne Weiteres verfügbar sind, müssen beispielsweise Analysten zunächst Informationen zusammenstellen, bereinigen und in eine brauchbare Reihenfolge bringen, anstatt die Arbeit zu erledigen, für die sie eingestellt wurden – die Datenanalyse. Angesichts der Tatsache, dass nur vier von zehn Unternehmen (41 Prozent) Zugang zu einem zentralen Datenspeicher haben, überrascht es nicht, dass Analysten die Zeit und Energie, die sie für das manuelle Zusammenstellen von Daten aufwenden, als ihren größten Pain Point bezeichnen, dicht gefolgt von der eingeschränkten Fähigkeit, aufgrund mangelnder Datentransparenz Berichte über Multikanal-Marketingmaßnahmen zu erstellen. Darüber hinaus haben 63 Prozent derjenigen, die mit der manuellen Bearbeitung von Daten zu kämpfen haben, wenig Vertrauen in die von ihnen verwendeten Daten, verglichen mit 15 Prozent der Analysten, bei denen dies nicht der Fall ist.
Die Tatsache, dass 72 Prozent der befragten Unternehmen von ihrer eigenen Datenreife überzeugt sind und fast ebenso viele planen, in diesem Jahr Predictive Analytics einzuführen, deutet ebenfalls auf eine Diskrepanz zur Realität hin: Die Data Analysts sind sich nicht bewusst, dass die Probleme auf Mängel in den bestehenden Datenpraktiken zurückzuführen sind. Sie sind vielmehr der Meinung, dass sie bereits eine hohe Datenkompetenz erreicht haben und glauben, dass bestehende Probleme gelöst werden können, indem weitere Tools auf den Data Stack aufgesetzt werden.
Daten für alle Nutzer besser nutzbar machen
Was lässt sich daraus schließen? Ganz einfach: Die derzeitigen Data Stacks funktionieren größtenteils nicht effektiv. User sollten nicht jedes Mal, wenn sie Informationen benötigen, das Rad neu erfinden müssen. Aktuell müssen sie oft erste herausfinden, wie sie die verschiedenen Datenströme kombinieren und umwandeln können, bevor sie die Daten nutzen können. Dadurch ist natürlich auch die Wahrscheinlichkeit von Fehlern durch menschliches Versagen und Verzögerungen bei der Aktivierung erhöht. Um das Datenmanagement dorthin zu bringen, wo es sein sollte, ist daher ein Paradigmenwechsel erforderlich.
Genauer gesagt, ist ein Umdenken bei der Datenorchestrierung gefragt. Anstatt sich auf die Maximierung des Dateninputs zu konzentrieren, müssen Unternehmen ihre Systeme so konfigurieren, dass sie wertvolle und wirklich nützliche Ergebnisse für die User erzeugen. Auf praktischer Ebene besteht ein wichtiger Ausgangspunkt darin, die Anforderungen der Anwender stärker zu berücksichtigen und zu ermitteln, welche Komponenten erforderlich sind, um wichtige Erkenntnisse zu generieren und an die richtigen Stellen weiterzuleiten; mit anderen Worten, die Bedingungen eines „Datenvertrags“ festzulegen und zu bestimmen, wie diese zu erfüllen sind.
Auch die Technologie spielt dabei eine wesentliche Rolle. Das ideale Szenario ist schließlich die automatische Ausführung eindeutiger Spezifikationen, wobei die Benutzer die Anforderungen festlegen können und intelligente Tools sofort die gewünschten Erkenntnisse abrufen. Im Moment müssen Unternehmen mit den Technologien arbeiten, die sie haben und versuchen, die oft komplexen Abläufe zu vereinfachen. Die Anwendung automatisierter Integrationslösungen kann beispielsweise dazu beitragen, eine einheitliche Basis für die Dateninfrastruktur und eine Single Source of Truth zu schaffen. In Kombination mit einer zugänglichen Visualisierung und einer übergeordneten Steuerkonsole wird das Ergebnis eine umfassende Transparenz sein, verbunden mit der Fähigkeit, auch größere Veränderungen schnell umzusetzen – von Anpassungen der organisatorischen Metriken bis hin zu Änderungen des analytischen Fokus, wenn sich beispielsweise die Marketingstrategie weiterentwickelt.
Der Hype um moderne Data Stacks mag den Anschein erwecken, dass sie im Handumdrehen zu besseren Ergebnissen führen. Doch es ist nicht alles Gold was glänzt: Es gibt einige Voraussetzungen, damit moderne Data Stacks auch ihr Potenzial entfalten können. Es müssen die richtigen Mechanismen vorhanden sein, um eine solide Grundlage für integrierte, genaue und frei fließende Daten zu schaffen. Und selbst dann bedeutet die ständige Flut an technischen Innovationen, dass sich die Systeme kontinuierlich weiterentwickeln müssen, um den neuen Möglichkeiten und den damit verbundenen Datenanforderungen gerecht zu werden. Die einzige Möglichkeit, zukunftssichere Abläufe zu implementieren, besteht für Unternehmen darin, sicherzustellen, dass sie die Grundlagen einer guten Datenpraxis beherrschen und kontinuierlich an der Verfeinerung ihrer Systeme arbeiten, um langfristig erfolgreich zu sein.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.