Einige Facetten der Digitalen Transformation im Bereich Forschung & Entwicklung (F&E)

bei

 / 18. September. 2020

Executive Summary:

F&E Bereiche vieler Fertigungsunternehmen tun sich schwer die richtigen Daten zu sammeln, sie zu analysieren und als relevante Informationen den Entscheidungsträgern bzw. den nächsten Entwicklungsschritten zeitnah in geeigneter Form zur Verfügung zu stellen. Trotz aller technischen Fortschritte der Digitalisierung werden in einem Großteil der Betriebe nach wie vor unverhältnismäßig hohe Aufwände und Zeiten benötigt, um teilweise nicht ganz zuverlässige, da teils nicht aktuelle Daten genutzt, Berichte zu generieren. Dies resultiert u.a. durch die Ignorierung der Prinzipien eins Single-Source-of-Truth [1] (SSoT) Konzeptes. Wie in [5] dokumentiert, „Mehr als 80 Prozent der IT-Führungskräfte sehen die Datenzersiedelung als eines der kritischsten Probleme.“

Allerdings wächst der Umfang der gesammelten Daten rasant (50% jährlich). Dies steigert die Komplexität der Datenauswertung, vor allem bei Verwendung eines Ansatzes, der eher auf die schnelle Speicherung und Extraktion der gesammelten Massendaten ausgerichtet ist, als auf die Semantik der Information. Prozeduren, die die gespeicherten Daten im richtigen Kontext ordnen werden oft vernachlässigt. Zusätzlich bauen die eingesetzten Strategien nach wie vor auf monolithische Plattformen, deren Hauptaugenmerk auf die Integration von individuellen Rollen und Workflows ausgerichtet ist. Dies hat gravierende Auswirkungen wie das folgende Zitat aus [5] eindrucksvoll belegt: „IT-Organisationen haben immer noch Schwierigkeiten, den Wert ihrer Daten zu nutzen, was sich drastisch auf ihr Geschäftsergebnis auswirken kann. Tatsächlich fallen ohne eine unternehmensweite Datenverwaltungslösung 66 Prozent höhere Betriebskosten an und Unternehmen kommen mit ihren Produkten 67 Prozent langsamer auf den Markt als ihre innovativen Konkurrenten.“

Der Einsatz von Best-of-Breed Anwendungen unter Einsatz der verbesserten Datenintegration innerhalb der aktuellen Digital-Thread-Initiativen [2] und die wohlüberlegte Berücksichtigung der damit vorhandenen Risiken ist bisher wenig verbreitet. Die Chancen eine sinnvolle, durchdachte und skalierbare Best-of- Breed Strategie zu implementieren waren nie so hoch wie heute, vorausgesetzt, wir akzeptieren dass wir uns am Anfang auf das Notwendigste beschränken und schrittweise kontrolliert skalieren und die vorhandenen Standards einsetzen.

Technologischer Fortschritt und Marktanforderungen: ein ständiges Kopf-an -Kopf Rennen

Digitale Technologien haben große Fortschritte erzielt und sind mehr und mehr in der Lage die IT-Landschaft des Ingenieurwesens und der Fertigung zu verbessern. Gleichzeitig aber wachsen die Anforderungen des Marktes und die Erwartungen der Kunden immer schneller was Qualität, Termintreue, Produktindividualität, Preisdruck…betrifft. Doch die sich wandelnden Anforderungen erschweren die Bemühungen um die Verbesserung von Prozessen, Organisationen und Geschäftsergebnissen. Diese Situation erfordert eine gut durchdachte, angemessene Transformationsstrategie als Wegbereiter, auch wenn diese in der derzeitigen VUCA-Welt zunehmend schwerer steuerbar ist.

Wie kann ein Produktionsunternehmen mit eigener Forschung und Entwicklung die Chancen erhöhen, dass seine Strategie für die digitale Transformation die gewünschte Wirkung auf die Leistung des Unternehmens hat?

Die Führungsspitze, insbesondere in den Bereichen Ingenieurwesen und Informationstechnologie, wird ständig mit Botschaften bombardiert, die die Notwendigkeit unterstreichen, Konzepte wie beispielsweise „Digital Twin“ und „Digital Thread“ zu verstehen und umzusetzen. Zusätzlich bestehen Anforderungen hin zur agilen Organisation. Außerdem werden die Produkte von Tag zu Tag komplexer. Gleichzeitig müssen die Entwicklungszyklen immer kürzer werden, um im Weltmarkt wettbewerbsfähig zu bleiben. Aufgrund der erforderlichen Geschwindigkeitssteigerung stellt sich die Frage, wie Unternehmen mit diesem immer höheren Tempo zurechtkommen und durch Digitalisierung im Engineering Effizienzgewinne erzielen können.

Nahtlos funktionierende interne und externe Partnerschaften in einem immer komplexer Ecosystem sind notwendig

Denn nach der allgemeinen Bewegung zur Digitalisierung der Fertigung ist der nächste logische Schritt die Digitalisierung der Forschung & Entwicklung. Eine Möglichkeit, diesen sich ändernden Randbedingungen zu begegnen, besteht darin, dass sich Unternehmen auf ihre Kernkompetenzen konzentrieren und beginnen, mit anderen Organisationen entlang der Lieferkette und den Innovations-Ökosystemen zusammenzuarbeiten. Die Kehrseite dieses Ansatzes ist, dass die Koordination zwischen den Partnern die Entwicklungsumgebungen noch komplexer macht und es zu einer Herausforderung wird, alle Teilnehmer der Projekte unter einen Hut zu bringen, speziell durch unterschiedlichen Firmenkulturen. Um in immer größer werdenden Ökosystemen schneller und kosteneffizienter zusammenarbeiten zu können, sind neue Ansätze und neue Technologien erforderlich.

Nachfolgend einige Facetten, die sich aus fast 20 Jahren Beschäftigung mit Themen aus diesem Bereich herauskristallisieren:

Die richtige Informationsmanagement-Plattform für die Produkt- und F&E-Daten, Informationen, Wissen

Daten der Forschung und Entwicklung in Brachen mit diskreter oder gemischter Fertigung sind einzigartig unter den verschiedenen Arten von Daten und Information. Dies liegt u.a. darin begründet, dass die Informationsbestände auch 3D-Modelle und 2D-Zeichnungen mit in diesen Dateien verborgenen Informationen umfassen. Außerdem müssen diesen Daten zwischen Unternehmen entlang der Lieferkette oder im Engineering-Ökosystem ausgetauscht werden, was zu erheblichen zusätzlichen Aufwänden führt. Daher muss sichergestellt werden, dass die ausgewählte Infrastruktur für das Produkt- und Experiment Datenmanagement weiß, wie diese Arten der Daten zu interpretieren und zu handhaben sind. Außerdem ist ein Zugriff auf den Kontext jedes Datensatzes und ein zur Verfügung stellen in den Kontext der Rolle eines bestimmten Benutzers wichtig. Auch wenn eine bestimmtes Software-System möglicherweise nicht das ursprüngliche Aufzeichnungssystem für bestimmte Daten ist, muss die Informationsmanagement-Plattform doch in der Lage sein, auf die Daten in diesem System zu verweisen und teilweise auch kontextgerecht zu interpretieren.

Die Technologie- und Produktentwicklung wird in vielen Branchen u.a. durch physikalische Experimente vorangetrieben bzw. validiert. Dank der zunehmenden Variabilität und Vielfältig der Werkzeuge zur Erzeugung von Messergebnissen gibt es viele Bilder, Grafiken oder einfache Messdatenreihen abzulegen, zu betrachten und auszuwerten. Und mit den Fortschritten im physikalischen Verständnis und der Fertigungstechnologien stehen heute große Massenspeicher oder auch die Cloud zur Verfügung, so dass es kein Problem mehr ist, für sehr wenig Geld Speicherplatz mit Dutzenden von Tera- oder gar Exabytes zu haben.

Wir können also Messdaten generieren; wir können die Ergebnisse speichern und teils auch, mehr schlecht als recht, auswerten. Ist also alles gut? Nein, ist es nicht! Die Wahrheit ist, dass es mit der heutigen IT (in den meisten Fällen) kein großes Problem ist, große Datenmengen zu speichern. Aber diese Datenmenge wächst jedes Jahr um etwa 50%, und das ist der springende Punkt. Die Daten können gespeichert werden. Häufig wird dies als die Nutzung eines Data Lake bezeichnet. Viele der verwendeten Technologien und Methoden sind für die Speicherung bzw. Datenablage optimiert. Neue Paradigmen für die Ablage wie Big Data und sein horizontaler Skalierungsansatz bieten noch mehr Skalierbarkeit und versprechen einfache und schnelle Analysen und mehr Erkenntnisse. Dies ist jedoch nicht immer der Fall, wie in [3] beschrieben ist. Während dies für die Archivierung von Ergebnissen und die Erfüllung gesetzlicher Vorschriften in Ordnung ist, ist es in der Forschung und Entwicklung von größter Bedeutung, aus diesen Daten Informationen und Erkenntnisse zu gewinnen. Da viele Organisationen aber eher in Daten untergehen und es wenige effektive Möglichkeit gibt, sie zielgerichtet abzurufen, auszuwerten, …, um Wissen für fundierte Entscheidungen zu generieren, gibt es ein Problem – eines, das jedes Jahr um 50% zunimmt! Aus diesem Grund ist es von entscheidender Bedeutung darauf zu achten, dass eine Software-Lösung den Mehrwert der strukturierten Datenablage als mindestens  Information, im Sinne des DIKW-Modells [4], mit zusätzlichem physikalischem Verständnis der Messwerte, Parameter, Messgrößen etc. unterstützt.

„Entflechtung“ von Technologieanwendungen.

Im Buch Consumption Economics [3] haben die Autoren J. B. Wood, Todd Hewlin und Thomas Lah argumentiert, dass die überwiegende Mehrheit der IT-Lösungen große Mengen an Funktionen enthält, die, obwohl sie bezahlt werden, entweder für die Bedürfnisse des Kunden irrelevant oder zu schwierig produktiv zu nutzen sind. Wie schon seit Jahrzehnten verfolgen viele Unternehmen auch heute noch eine Strategie der monolithischen Lösungen oder Plattformen. Diese legen vornehmlich Wert darauf, wie sie Integrationsherausforderungen lösen, indem sie etwas anbieten, das auf eine bestimmte Rolle oder einen bestimmten Workflow zugeschnitten ist.

Aber manchmal sind diese Pakete nicht die effektivsten, um ein bestimmtes Problem zu lösen. Da Verbesserungen bei der Datenintegration durch Digital-Thread-Initiativen vorangetrieben werden, glaube ich, dass jetzt ein hervorragender Zeitpunkt ist, Best-of-Breed-Entscheidungen zu treffen und zweckmäßige Lösungen für verschiedene funktionale Rollen einzusetzen. Speziell in Kombination mit den Technologien zur Realisierung von Digital-Threads birgt eine solche Strategie ein enormes Potential. Dies gilt speziell nicht nur aus den Perspektiven der Technologieintegration und der Managementperspektive, sondern speziell in Bezug auf die oftmals als weiche Faktoren beschriebenen Social- und Organisationsentwicklungs-perspektiven. Gerade Letztere gestalten sich in vielen Fällen deutlich einfacher, da aus Sicht der Nutzer eine eher zu ihren Aufgaben passende Lösung anstatt eines völlig überladenes Systems zu erlernen ist.

Allerdings ist es wichtig darauf hinzuweisen, dass die Verfolgung einer Best-of-Breed-Strategie auch nicht ohne Risiken ist. Diese Risiken können minimiert werden, wenn man weiß, dass es sie gibt. Ein guter Ansatz ist es, den Umfang der Integration von Best-of-Breed-Anwendungen auf zwei Arten einzuschränken:

  1. Es sollte der Umfang der zu integrierenden Daten auf das Notwendige begrenzt werden. Man sollte nicht der Versuchung erliegen zu glauben, dass alle verfügbaren Daten zwischen den Anwendungen ausgetauscht werden müssen. In der Praxis sind die erforderlichen Berührungspunkte nicht allzu zahlreich.
  2. Die Datenaustausch- oder Integrationsbemühungen eines Unternehmens sollten stark auf die Nutzung von Industriestandards fokussiert sein. Es sollte eine Abhängigkeit von der Art und Weise, wie ein einzelner Anbieter ein geeignetes Datenmodell definiert, vermieden werden.

Wenn auch hier nicht in Detail behandelt, der Mensch als entscheidender Erfolgsfaktor darf nicht unerwähnt bleiben. Die Organisationstruktur, die Unternehmenskultur sowie der Einsatz der Führungsebene bei der bevorstehenden Veränderungen spielen eine wichtige, wenn nicht sogar entscheidende Rolle. Wenn man unterschiedlichen Erhebungen Glauben schenken darf, scheitert der überwiegende Teil der Digitalen Transformationsprojekte laut [2] an:

„Die so genannte „soziale Trägheit“, also der Widerwille gegenüber Veränderungen in einem Gefüge, sowie Organisations- oder Informationssilos können erhebliche Hindernisse für die Implementierung von Digital Threads darstellen. Zusammen mit der mangelnden Datenstandardisierung über Gruppen hinweg kann sich dies als schwer zu überwindende Barriere erweisen.“

Die Erzeugung der zentralisierten Sichtbarkeit sollte priorisiert werden

Es ist bereits vielfach geschrieben worden, dass 90 % aller vorhandenen Daten in den letzten zwei Jahren erstellt wurden. In der Forschung und Entwicklung ist dies nicht anders, und die Herausforderungen, die dies mit sich bringt, können gewaltig sein. Es ist von entscheidender Bedeutung zu wissen, worauf es bei den einzelnen Daten und -formaten ankommt. Die Kernfrage hier lautet: Wie können wir die relevanten Informationen  zum richtigen Zeitpunkt mit und in dem richtigen Kontext zur Verfügung zu stellen, ohne zu aufwendig nach ihnen suchen zu müssen? Dabei ist die sehr spezifisch zu definierende Suchmöglichkeit von entscheidender Bedeutung, da man sonst auch in einem zu großen Satz von Suchergebnissen nicht die richtige Stecknadel im Heuhaufen findet.

Mit wenigen Ausnahmen werden die Daten, die zur Unterstützung eines Arbeitsablaufs benötigt werden, in mehreren Aufzeichnungssystemen leben. Es gibt Lösungen, die „Referenzsysteme“ einrichten, in denen die benötigten Informationen in Echtzeit präsentiert werden, und die Führungskräften, Programmmanagern und operativen Rollen im gesamten Unternehmen klare, eindeutige Sichtbarkeit bieten, zur Umsetzung des so genannten Single-Source-of Truth Ansatzes.

Mit der heute verfügbaren Technologie, wie z.B. Webservices, ist der Zugriff auf Informationen, die entweder in einer lokalen Anwendung oder einem Cloud-Service gespeichert sind, einfacher denn je geworden. Dennoch setzen viele Unternehmen immer noch Praktiken und Prozesse ein, die auf manuellem Aufwand beruhen, um Daten aus mehreren ungleichen Anwendungen abzurufen. Oder, was auch häufig in mittelgroßen Organisationen beobachtet werden kann: Daten, die zur Erzeugung von Sichtbarkeit und Reportings generiert und verwendet werden, werden in Form von Tabellenkalkulationen oder Slide-Decks präsentiert. Der Aufwand der erforderlich ist, um diese Daten zusammenzustellen und zu präsentieren, ist oft eine Vollzeitbeschäftigung, da unterschiedlichste Systeme, ja selbst verschiedenste Personen kontaktiert und abgefragt werden müssen. Schlimmer noch, die mühsam gesammelten Daten sind häufig veraltet oder schlichtweg falsch.

Mit Web-Technologien ist es heute einfach, Dashboards einzurichten, die alle notwendigen Informationen zur Unterstützung eines Prozesses visuell darstellen. Die Daten mögen zwar in einer anderen Anwendung leben, aber sie werden in dem notwendigen Kontext präsentiert und können auch in diesem Kontext analysiert und ausgewertet werden.

Verwechselung von Aktivität mit Fortschritt.

Eine der größten Herausforderungen für Unternehmen des produzierenden Gewerbes ist es, die notwendige Sichtbarkeit der Auswirkungen ihrer digitalen Transformationsstrategien auf das Geschäft zu wahren. Allzu oft wird nicht der Fortschritt in z.B. Key Performance Indikators, sondern die Aktivität gemessen. Ähnlich wie sich gutes Marketingpersonal auf die Customer-Journey konzentriert und nach Ineffizienzen sucht, müssen die operativen Führungskräfte in der Forschung & Entwicklung das Gleiche tun. Ein effektives Management einer Strategie zur digitalen Transformation hängt von der Wahl der richtigen Metriken und der Konsistenz bei der Messung und Bewertung des Fortschritts anhand von Zielen ab. Dies erfordert Zeit und ein klares Verständnis der Ziele des Unternehmens.

Die digitale Transformation ist nicht unmöglich und muss nicht einschüchternd sein. Seien Sie bei Ihren Entscheidungen nur klug und lassen Sie sich nicht dazu verleiten, sich mehr als nötig aufzubürden.

 

Quellen und Referenzen:

[1]Single Point of Truth (SPOT) (auch Single Source of Truth SSOT) deutsch „der einzige Punkt der Wahrheit“, ist ein Prinzip in der Softwaretechnik, einen allgemeingültigen Datenbestand zu haben, der den Anspruch hat, korrekt zu sein und auf den man sich verlassen kann. Ein Datenmodell, in dem ein allgemeingültiger Datenbestand verfügbar gemacht werden soll, mit der notwendigen Datenqualität und Verlässlichkeit, ist vor allem dann wichtig, wenn Daten redundant gehalten werden.(wikipedia)
https://de.wikipedia.org/wiki/Single_Point_of_Truth

[2]Digital Threads – einheitlicher Zugriff auf verstreute Daten.
Digital Threads greifen auf sämtliche Daten aus bislang nicht vernetzten IT-Systemen zu. So ermöglichen sie die lückenlose Rückverfolgung des gesamten Produktlebenszyklus und schaffen eine einheitliche Informationsgrundlage für die Optimierung von Fertigung, Wartung und Weiterentwicklung. (https://www.datev.de/web/de/aktuelles/trends-und-innovationen/digital-threads-einheitlicher-zugriff-auf-verstreute-daten/)

[3]Fehleinschätzungen in der Produktion — Die Schwierigkeiten bei der Analyse großer Datenmengen https://do-it-service.de/Articles/Misconception

[4]DIKW-Modell des Wissens
https://de.wikipedia.org/wiki/Wissen#Organisationstheoretischer_Ansatz

[5]Datenmanagement ist ein erfolgskritischer Prozess im Unternehmen
https://www.bigdata-insider.de/datenmanagement-ist-ein-erfolgskritischer-prozess-im-unternehmen-a-955312

 

Über den Autor:


Dr. Dirk Ortloff ist Gründer der DO-IT-Service GmbH und Experte im Bereiche Steigerung der Effektivität und Effizienz in der Forschung und Entwicklung. Durch verbesserte Zusammenarbeit, auch entlang der Lieferkette, und das kollaborative Wissensmanagement werden Verbesserungen von min. 20% erreicht.