Methodisches Datenmanagement als Schlüsselfaktor der Digitalisierung

bei

 / 8. April. 2021

Der digitale Transformationsprozess ist in vollem Gange – und mit ihm einher gehen spürbare Veränderungen in den Unternehmen: in den Prozessen, der Ausrichtung allgemein und auch in Bezug auf die angebotenen Produkte und Dienstleistungen. Wie genau sich dies im Alltag auswirkt, zeigt die zentrale Online-Studie the factlights 2020 auf. Mitarbeiter aus allen Fachbereichen und Vertreter der Leitungsebene von über 1.000 Unternehmen aller Branchen im deutschsprachigen Raum konnten darin anführen, wie es bei ihnen um die Themen Digitalisierung und Datenarbeit bestellt ist. Klarer Tenor: Wenn es um Digitalisierung geht, sind Datenbestand und -qualität mit die entscheidenden Faktoren und ein methodisches Datenmanagement unverzichtbar.

Qualitativ hochwertige Daten sind ein wertvolles Gut – diese Aussage unterstreicht ein Großteil der Unternehmen, schließlich wollen Geschäftsentscheidungen nicht ohne eine ausreichend schlüssige Datenbasis getroffen werden und auch Produkte und Serviceangebote werden zunehmen datengetrieben. Die Anforderungen an die Datenarbeit wachsen also beständig angesichts immer schnellerer Veränderungen und dadurch komplexerer Zusammenhänge am Markt. Umso erstaunlicher ist es daher, dass ausgerechnet das wichtige Wirtschaftsgut Daten noch oft unzureichend genutzt wird. Zugleich lässt vielfach die Qualität der Daten zu wünschen übrig und ein harmonisierter Datenbestand ist noch größtenteils ein Wunschszenario.

Daten allerorten

Im Zuge der Digitalisierung strömt auf Unternehmen eine immer größere, komplexere und dadurch oft unüberschaubare Menge an Daten ein. Typische Quellen sind interne Planungs- und Managementsysteme wie ERP (Enterprise Resource Planning)-, CRM (Customer Relationship Management)- und andere interne Softwarelösungen. Dazu kommen manuell erfasste Daten etwa aus Rechnungsbelegen oder Betriebsdatenerfassung, Sensordaten von Maschinen und anderen Hardware-Devices oder aus speziell entwickelten Applikationen wie beispielsweise zur Kundenkommunikation. Nicht zuletzt können Informationen aus Social-Media-Kanälen eine Rolle spielen, ebenso Wetter- oder auch Konjunkturdaten externer Anbieter.

Eine weitere Herausforderung: Die Daten liegen in unterschiedlichen Formaten vor – zum einen klassisch strukturiert, zum anderen unstrukturiert, etwa als Bild, Text oder Sprache. Hier lassen sich echte Potenziale schöpfen, wenn es gelingt, beide Welten miteinander zu verbinden, etwa durch die Zuweisung von eindeutigen IDs für Bild- oder Videodateien, die mit Informationen aus dem ERP- oder CRM-System verknüpft sind.

Die Branche macht den Unterschied

An der Online-Studie beteiligt hatten sich Vertreter aus den Bereichen Automobil, Banken, Baugewerbe, Dienstleistung, Energie, Gesundheit, Handel, Industrie, ITK, Pharma, Verkehr und Verwaltung. Sie alle greifen mit branchenabhängiger Intensität auf eine Vielzahl verschiedener Datenquellen zu. Die interne Software wird dabei weitverbreitet als wichtigste Datenquelle angesehen, dicht gefolgt von Daten aus eigens entwickelten Applikationen etwa zur Kundenkommunikation. Während für Verkehr, Logistik und Automotive die Hardware Devices eine große Rolle spielen, wird im eher dezentral aufgestellten Baugewerbe sowie im Handel die manuelle Datenerfassung noch stark genutzt. Das Gros der Unternehmen erachtet Sensorik, externe Datenquellen und soziale Medien derzeit als weniger wichtig. Eine Ausnahme bilden hier die Energiewirtschaft, die bereits seit längerem mit aktuellen Wetter- und Marktpreisdaten arbeitet, sowie die Dienstleistungsbranche, in der Daten von sozialen Netzwerken konkrete Verwendung finden.

Hausaufgabe: Daten harmonisieren

Das Potenzial dieser Daten kann allerdings nur dann gewinnbringend ausgeschöpft werden, wenn sie mit ihren vielfältigen Charakteristika in einer zentralen Plattform miteinander verbunden sind. Für die Unternehmen bedeutet dies, dass sie die Daten in ein System integrieren, harmonisieren, zu bester Qualität aufbereiten und unter Berücksichtigung der jeweiligen Geheimhaltungsstufen verfügbar machen müssen. Das nämlich versetzt die Mitarbeiter überhaupt erst in die Lage, jederzeit komfortabel auf sie zugreifen und sie flexibel einzusetzen zu können. So operieren dann auch alle auf der gleichen Datengrundlage und individuelle Datensilos werden vermieden. Klar ist: Die notwendige Harmonisierung der Daten zu einem integrierten Bestand ist und bleibt ein komplexer wie aufwändiger Prozess. Mit den richtigen Konzepten und Best Practices haben Unternehmen allerdings gute Chancen, die notwendigen Aufgaben zu bewältigen. Und ihre Mitarbeiter werden es ihnen danken: Gut zwei Drittel der Umfrage-Teilnehmer halten im Kontext der Digitalisierung einen einheitlich harmonisierten und standardisierten Bestand an relevanten Daten für essenziell.

Datenmanagement für heute und morgen

Wichtig in diesem Zusammenhang ist auch die Tatsache, dass sich die Datennutzung verändert: Zunehmend kommen demokratisierte Daten in den verschiedensten Unternehmensbereichen zum Einsatz. Mag es beispielsweise früher nur das Controlling gewesen sein, das mit erweiterten Analysezahlen arbeitet, greifen heute auch andere Fachabteilungen auf solche Informationen zu. Die Zahl der Zielgruppen ist damit also gewachsen – und sie wächst weiter, ebenso wie die Menge an Quellen und Formaten. Ein effizientes Datenmanagement kann mit diesen gestiegenen Anforderungen Schritt halten, bietet mittels eines Single Points of Truth allen relevanten Usern quellenübergreifend harmonisierte Daten und ist gleichzeitig so flexibel, dass auch zukünftige Digitalisierungsmaßnahmen eingebunden werden können.

Was ist konkret zu tun?

Der Aufbau einer solch allumfassenden, architektonisch komplexen und vielschichtigen Datenlandschaft im Sinne eines Data Lake fordert den Unternehmen naturgemäß ein ganzes Bündel an Maßnahmen ab. Dazu gehören sowohl die Verarbeitung und Bereitstellung von strukturierten wie semi- und unstrukturierten Daten in einer integrierten Datenlandschaft als auch die Sicherung der Datenqualität und -verfügbarkeit. Darüber hinaus gilt es, die fehleranfällige manuelle Datenpflege zu reduzieren und einen Single Point of Truth mit einer einheitlichen Kennzahlendefinition aufzubauen. Das Management sollte außerdem über stets aktuelle und konsistente Daten verfügen und relevante Ergebnisse müssen an weiterführende Applikationen geleitet werden können. Nicht zuletzt ist es notwendig, fortlaufend die zielgruppenspezifischen Zugriffsrechte zu sichern.

Betrieblich setzt dies alles finanziell und ressourcenseitig entsprechende Investitionen voraus – dessen sind sich die Unternehmen der Studie zufolge durchaus auch bewusst. Größere Konzerne können hierbei auf mehr Ressourcen und Kapital zurückgreifen, müssen jedoch auch mehr Systeme miteinander in Einklang bringen, was das Ganze für sie sehr viel aufwändiger gestaltet. Auf der anderen Seite investiert von den befragten kleineren Unternehmen mit weniger finanziellen Mitteln trotzdem schon jedes dritte in sein Datenmanagement. Diejenigen, die bereits investieren, weisen dabei auch per se einen höheren Digitalisierungsgrad auf als die immerhin aktuell noch Zögerlicheren.

Zum guten Schluss

Die Investition in Kapital und Ressourcen für ein effizientes Datenmanagement ist das Eine – ebenso wichtig ist jedoch für die Unternehmen, sich der Digitalisierung bewusst zu stellen und sie als einen Transformationsprozess zu begreifen, der einer klaren Strategie und Ausrichtung bedarf. Die Identifikation und Benennung des Nutzens spielt dabei eine wichtige Rolle.

 

Quellen und Referenzen:

https://go.the-factlights.de/asset/8:the-factlights-2020-expert-note-2

 

Über den Autor / die Autorin:


Annefried Simoneit ist Consultant Strategy bei der QUNIS GmbH. Zu ihren Schwerpunkten gehören aktuell die Strategie- und Organisationsentwicklung für Data & Analytics-Initiativen, das Thema Data Governance für den Data Lake sowie die Begleitung von Softwareauswahlprojekten für Frontend, Planung und Backend. Darüber hinaus hat sie das Studienprojekt the factlights 2020 geleitet und gehört zum Autorenteam der Erhebung.