Vom richtigen Umgang mit Machine Learning … oder wie man einen Schlagbohrer nutzt

Von   Dr. Franziska Deutschmann   |  Data Science Consultant   |  QUNIS GmbH
29. Oktober 2021

Unter Machine Learning (ML) versteht man ein Werkzeug aus dem Bereich der Artificial Intellignece (AI), das zur Datenanalyse im Sinne der Advanced Analytics genutzt werden kann. Die Erfahrung zeigt, dass es sich mit ML ebenso verhält wie mit jedem anderen Werkzeug. Bedeutet: Auch wenn man das neueste und beste Werkzeug zur Verfügung hat, sollte man es immer sinnvoll einsetzen. Denn nur weil man einen Schlagbohrer besitzt, läuft man nicht durch die Wohnung und bohrt überall Löcher in die Wand. Will man jedoch ein Bild aufhängen, so zeigt sich der Mehrwert. Unter Zuhilfenahme des neuen Schlagbohrers hängt das Bild schneller, besser, gerader als mit Hammer und Nagel zuvor. Kurzum, dieser Vergleich will sagen: Nutzen Sie Machine Learning wie einen Schlagbohrer, also immer dann, wenn es für Sie von Nutzen sein kann. Statt nach Use Cases zu suchen, sollte man sich einfach darüber bewusst sein, dass es das neue Werkzeug gibt und was es kann. Und wägen Sie zukünftig auch den Einsatz von ML immer dann mit ab, wenn Sie das Finden einer Antwort auf eine Fragestellung datenbasiert angehen.
Egal ob im Controlling, im Rechnungswesen oder im Finanzwesen: Die Auswertung von Daten ist die Grundlage für jede fundierte Unternehmensentscheidung. Verschiedenste Systeme liefern dabei Informationen zur historischen Entwicklung einer Firma. Mithilfe der Business Intelligence (BI) werden die Daten in der Regel eingesammelt, aufbereitet, ausgewertet und fließen dann mit entsprechenden Fachkenntnissen interpretiert in die Entscheidungsfindung unternehmenskritischer Fragestellungen ein. AI und ML erweitern die Informationsgewinnung um eine Vielzahl an Funktionalitäten und damit Möglichkeiten für die Advanced Analytics. Damit können unternehmerische Prozesse nicht nur besser verstanden werden – die mit ML und Advanced Analytics gewonnenen Informationen helfen zudem besser zu steuern, denn sie erlauben anders als die klassische BI einen Blick in die Zukunft und verstehen sich im Umgang mit Big Data.

Der Begriff Advanced Analytics steht dabei übergeordnet für fortgeschrittene Analysemethoden, die bis hin zum Einsatz von Artificial Intelligence reichen. So werden – anstatt historischer Daten beschreibend zu analysieren – bei Advanced Analytics historische Daten dafür genutzt, Vorhersagen durchzuführen und Handlungsempfehlungen abzuleiten. Machine-Learning-Algorithmen spielen dabei eine entscheidende Rolle. Sie werden eingesetzt, um im Zusammenspiel mit stark wachsenden Datenbeständen in den großen Datenmengen Muster und Zusammenhänge zu erkennen. Der jeweilige Anwendungsbereich und die konkrete Fragestellung definieren den Einsatz der passenden Methode und des Algorithmus und ermöglichen es,

  • Anomalien aufzuspüren, die beispielsweise durch fehlerhafte Eingaben entstanden sind,
  • Bestell- und Absatzmengen von Aktionsprodukten zu prognostizieren,
  • Mitarbeitereinsatzplanungen zu optimieren,
  • Mitarbeiterfluktuationen vorherzusagen,
  • Effekte von Maßnahmen, wie zum Beispiel ein neues Werbedesign oder Filialneueröffnungen, zu ermitteln,
  • Zusammenhänge zu erkennen, wie welche Produkte oft gleichzeitig geliefert werden,
  • Wahrscheinlichkeiten von Kündigungen oder Kreditausfällen zu prognostizieren,
  • Kunden oder Produkte automatisch entsprechend ihrer Eigenschaften wie Kaufverhalten oder Umsatzstärke in ähnliche Gruppen zu clustern,
  • Gruppenzugehörigkeiten bzw. zukünftiges Verhalten von Neukunden vorherzusagen,
  • Video- sowie Audiodaten zu transkribieren,
  • Video- sowie Audiodaten und E-Mails strukturiert auszuwerten,
  • automatisiert die unterschwelligen Stimmungen in Kunden-E-Mails zu analysieren,
  • zukünftige Maschinenausfälle vorzeitig zu erkennen.

Der Vorteil der auf AI und ML basierenden Analyse-Ansätze ist, dass der Algorithmus Muster erkennt, die für den Menschen zu komplex oder nur mit sehr großem Aufwand aufspürbar sind. Ein erkanntes Muster jedoch kann der Fachanwender leicht überprüfen und interpretieren. Dort, wo es für den Menschen zu komplex und umfangreich wird, zeigt ML seinen Mehrwert. Im Gegensatz dazu fehlt der Maschine das Fachwissen, um die Ergebnisse zu interpretieren und Handlungsempfehlungen abzuleiten. Das Zusammenspiel zwischen menschlichem Fachwissen und AI bietet den wahren Zugewinn.

Für nahezu jede Fragestellung gibt es eine auf Machine Learning basierende Analyse-Möglichkeit. Neun der beliebtesten ML-Methoden sind im Folgenden mit passende Einsatzgebieten gelistet:

  1. Anomalie-Erkennung (Anomaly Detection) = Aufdecken und Erkennen von Auffälligkeiten in Daten­sätzen, etwa für Predictive Maintenance oder zur Betrugserkennung
  2. Datenklassifikation (Classification) = Zuordnen von Daten zu Kategorien, etwa für Erfolgsprognosen, Objekterkennung oder Diagnostik
  3. Analyse der Merkmalswichtigkeit (Feature Importance) = Bestimmen der Wichtigkeit von Merkmalen mit Blick auf ihre Nützlichkeit für Vorhersagen, etwa für die Werbeerfolgskontrolle oder A/B-Testings
  4. Clusteranalyse (Clusterting) = Entdecken von Ähnlichkeitsstrukturen in Datenbeständen, etwa für Kundenscoring, individualisierte Werbung, Qualität von Zulieferprodukten
  5. Regressionsanalyse = Auffinden von kausalen Wirkungsbeziehungen zwischen abhängigen und unabhängigen Variablen, etwa für Absatz- und Produktionsplanung oder Preisfindung
  6. Zeitreihenanalyse (Time Series Forecast) = Vorhersagen künftiger Entwicklungen auf der Grundlage statistischer Beobachtungen, etwa für Einsatz- und Umsatzplanung oder Lageroptimierung
  7. Assoziationsanalyse (Association Rule Learning) = Entdecken von Zusammenhängen und Abhängig­keiten in einer Datenbasis, etwa für Produktempfehlungen, Versand- und Lageroptimierung
  8. Ereigniszeitanalyse (Survival Analysis) = Vorhersage der Überlebenswahrscheinlichkeit in Abhängigkeit der Zeit, etwa für Abwanderungsvorhersage und Kreditausfall­bewertung
  9. Sprach- und Textanalyse (NLP / Natural Language Processing) = Automatische Verarbeitung und Analyse großer Mengen natürlichsprachlicher Daten, etwa für Reklamationsmanagement, Stimmungserkennung und Vertragsprüfung

Und über noch etwas sollte man sich im Klaren sein: Keine Analysen zum bloßen Selbstzweck. Nur wer sich von vornherein die Frage „Ist der Einsatz von Advanced Analytics für den geplanten Anwendungsbereich überhaupt sinnvoll?“ stellt, wirkt Projektsackgassen entgegen und vermeidet Analysen ohne Nutzwert. Um diese Frage stichhaltig zu beantworten, sollte man sich als erstes anhand seines Geschäftsmodells klar machen, wo genau der Schuh wirklich drückt und welchen Nutzen man durch den Einsatz von Advanced Analytics dort tatsächlich erzielen möchte. Man sollte sich dafür beispielsweise mit Überlegungen wie den Folgenden beschäftigen: Soll der Einsatz von Advanced Analytics zur Risikominimierung beitragen und zum Beispiel über die präzise Einschätzung potenzieller Risiken hinaus bei der Entwicklung fundierter Gegenmaßnahmen helfen? Ist das Ziel eine Kostensenkung, geht es beispielsweise um die Planung möglichst günstiger Ressourcen und deren Instandhaltung sowie damit verbunden das Vermeiden von Verschwendung? Oder geht es um die Steigerung des Umsatzes und Advanced Analytics soll datenbasiert helfen, die passenden Hebel hinsichtlich der Preisfindung oder Erhöhung der Absatzmenge zu finden? Oder soll Advanced Analytics eingesetzt werden, um bei Produkten und Services Mängel zu erkennen und zu beheben und die Angebotsqualität zu erhöhen? Last but not least gibt es viele Stellschrauben, um die Effizienz zu steigern, wie etwa durch verbesserte Prozesse und Entscheidungen im operativen Geschäft.

Hat man Anwendungsbereich, Nutzen und Fragestellung klar identifiziert, ist es dringend geboten, die dafür vorhandenen Datenressourcen zu evaluieren. Denn ohne saubere Daten und ein funktionierendes Datenmanagement kann es auch keine Advanced Analytics geben. Die alte Weisheit „Garbage in, Garbage out“ gilt auch hier. Für den Start und Einstieg mit Advanced-Analytics-Projekten empfiehlt es sich in jedem Fall, zunächst einen kleineren Anwendungsbereich zu wählen, um erste Erfahrungen zu sammeln. Dabei sind die Projektzyklen von Advanced-Analytics-Initiativen grundsätzlich viel kürzer als etwa bei BI-Projekten. Für die Umsetzung der Modellierungsaufgaben in üblicher Größenordnung kann man ungefähr mit 15 Personentagen rechnen sowie zehn weiteren für das Überführen in eine technische Lösung. Beispielsweise bieten sich hierfür drei alternative Wege an, um sich dem Thema ganz individuell zu nähern. Die Mehrwerte der Workshops reichen von der ersten Einschätzung, wie weit die Daten für die vorliegenden Fragestellung geeignet sind, über das Durchspielen eines ersten Anwendungsfalls bis hin zu einem Deep Drive mit der Erarbeitung von Vorgehensmodellen und ersten Hands-on-Trainings.

Und auch für das Vorgehen in Advanced Analytics-Projekten ist eine strukturierte Vorgehensweise unerlässlich, die auf dem anwendungs­neutralen und in beliebigen Bereichen einsetzbaren CRISP-DM (Cross Industry Standard Process for Data Mining)-Modell aufsetzt; modifiziert an wesentlichen Stellen ist so aus dem CRISP-DM ein Advanced-Analytics-Vorgehensmodell QRISP-DM entstanden. Dabei steht generell der Data Lake anstelle einer einzigen tabellarischen Datenquelle im Mittelpunkt und damit eine wesentlich breitere Definition einer modernen unternehmensweiten Datenlandschaft. Außerdem wird dem Projekt-Setup stets ein Strategy Alignment vorangestellt. Diese initiale Beratung gleist die Projekte strategisch auf und führt grundlegende Erkenntnisse zutage, die in den Use-Case mitgenommen werden können. Ganz entscheidende Erweiterungen sind zudem die zwei Quality Gates, an denen mit strukturierten Methoden das bisher Erreichte bewertet wird. An diesen Scheidewegen lässt sich feststellen, ob das Projekt reif für die Fortsetzung auf der nächsten Ebene ist oder ob zuvor weitere Loops notwendig sind, um den Prozess iterativ zu verbessern. Konkret wird am ersten Quality Gate, „Data Maturity“ genannt, entschieden, ob das vorhandene Datenmaterial für die praktische Datenarbeit ausreichend ist oder mit zusätzlichen Datenquellen nachgebessert werden muss; auch Zielanpassungen können hier das Ergebnis sein. Erfahrungsgemäß nehmen an dieser Stelle gerade mal 10-20 Prozent der Prototypen die gesetzte Hürde zur produktiven Umsetzung. Das ist aber in zweierlei Hinsicht nicht verwunderlich: Zum einen trägt Data Science die Wissenschaft im Namen und zu deren Erkenntnisgewinn gehört es nun mal, Thesen aufzustellen, zu beweisen oder auch zu verwerfen. Dabei kann selbst eine verworfene These durchaus gewinnbringend sein, wenn sie etwa trügerische Bauchgefühle entlarvt und zu positiven Lerneffekten führt. Zum anderen ist das erste Quality Gate strukturiert so gut aufgestellt, dass die nennenswerten Aufwände erst dahinter aufkommen – wenn die Sicherheit entsprechend sehr hoch ist, gute Ergebnisse zu erhalten. Das zweite Quality Gate namens „Continuos Insight Generation“ markiert als Gütetest die letzte Hürde zwischen der Evaluationsphase und dem finalen Deployment.

Das CRISP-DM-Modell

Gemäß CRISP-DM sind Projekte klassischerweise in eine Definitions- und eine Entwicklungsphase unterteilt und darunter wiederum in sechs Prozessphasen: Im „Target Scoping“ erarbeiten Data Scientist und Domänen-Experten aus dem Unternehmen gemeinsam eine Use-Case-Spezifikation und überlegen, wie eine Modellierung aussehen könnte. Im nächsten Step („Data Understanding“) erfolgt die technische Auseinandersetzung mit den verfügbaren Daten aus den Quellsystemen. Es entsteht ein Data Dictionary bzw. Data Catalogue, der die Datenlandschaft beschreibt und als Grundlage dient für die praktische Datenarbeit in den beiden folgenden Schritten „Data Preparation“ sowie „Modelling“. Etwa 80 Prozent des Aufwands entfallen dabei auf die reine Datenvorbereitung, wo u. a. zusammengefügt, aufbereitet, bereinigt und umformatiert wird. Der so entstehende saubere Quelldatensatz wird bei der Entwicklung und dem Training mehrerer Machine-Learning-Modelle genutzt. Sozusagen als Lackmustest des Projekts schließt sich die „Evaluation“-Phase an, bei der die trainierten Modelle nach objektiven Kriterien bewertet werden. Beispielsweise nutzt man hier nicht etwa den bekannten Trainings-, sondern einen dezidierten Testdatensatz, der aus völlig neuem Datenmaterial besteht. Zu guter Letzt folgt die technische Inbetriebnahme des Modells, das sich zuvor bewiesen hat. In der „Deployment“-Phase wird es sozusagen in einem kontinuierlich operativen Prozess des unternehmerischen Alltags verankert.

Dr. Franziska Deutschmann, Data Science Consultant bei der QUNIS GmbH und Referentin der CA Controller Akademie AG. Sie berät und unterstützt internationale Unternehmen in Advanced Analytics, Machine Learning und Data Science Projekten.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

20921

share

Artikel teilen

Top Artikel

Ähnliche Artikel