Bildquelle: loufre - Pixabay.com

Forecasts: Jeder braucht sie, keiner kann sie skalieren.

Von   Stefan Rameseder   |  Project Leader Data Science   |  ONE LOGIC GmbH
6. September 2018

In Zeiten von Machine Learning, AI, Predictive Maintenance, Prescriptive Analysis, Auto-Trading und vielen anderen Modebegriffen mag der Forecast so altbacken erscheinen wie die Discountersemmel von gestern. Dennoch ist der Forecast ein essentieller Baustein aller erstgenannten Begriffe, weswegen in einer industrialisierten Forecast-Maschine – skalierbar produktiv und universell anwendbar – ungeahntes Potential stecken kann.

Forecasts begründen Strategien.

Ein Forecast ist eine Prognose entlang der Zeit – alltagssprachlich eine Vorhersage. Dabei besteht keine Garantie, dass eine bestimmte Vorhersage in Zukunft auch eintrifft, vielmehr quantifizieren Forecasts die Unsicherheit der Zukunft. Mit anderen Worten: Forecasts sind das Maß, um eine nicht greifbare Unsicherheit in ein messbares Risiko zu wandeln.

Würfelt man einen gezinkten Würfel, ohne ihn näher untersucht zu haben, so tappt man im Dunkeln mit welcher Wahrscheinlichkeit eine Eins kommt – man weiß zwar die verschiedenen Augenzahlen („outcomes“), eine Erfolgswahrscheinlichkeit („probability“) kann man nicht beziffern. Hat man hingegen die Möglichkeit den Würfel genauer zu untersuchen, so kann man die Wahrscheinlichkeit bzw. das „Risiko“ ermitteln, eine bzw. keine Eins zu würfeln. Ein guter Forecast gibt Aufschluss über diese Wahrscheinlichkeit; dass eine Eins tatsächlich kommt, bleibt dennoch ungewiss.

Egal ob ein Forecast nun aus Erfahrung, aus einem Bauchgefühl, aus einer wochenlangen Analyse oder von einem Algorithmus erzeugt wird: Forecasts sind als Annahme über die Eintrittswahrscheinlichkeit zukünftiger Szenarien die Grundlage für Entscheidungen. Und da jede Strategie eine Menge von Entscheidungen erfordert, steht am Anfang jeder erfolgversprechenden Strategie ein Forecast.

Produkte, Prozesse, KPIs – alles kann vorhergesagt werden.

Unternehmen können in den unterschiedlichsten Bereichen Forecasts vorteilhaft einsetzen; zum Beispiel müssen Händler in jeder Filiale abschätzen, wie viel von jedem Produkt über die nächsten Wochen verkauft wird, um frühzeitig auf Nachschubengpässe aufmerksam gemacht zu werden; gleichzeitig müssen sie zukünftige Cashflows und logistische Prozesse aus ähnlichen Gründen im Auge behalten. Die Industrie hat mit Rohstoffbedarf, der Produktion, eigenen KPIs und Prozessen die gleichen Probleme. Und bei Finanz- und Energiedienstleistern basiert der Großteil ihrer Produkte auf Informationen über die Zukunft. Die Beispiele können beliebig lang fortgeführt werden, die Tabelle zeigt hiervon nur einen kleinen Auszug:

So unterschiedlich die Daten aus fachlicher Sicht scheinen, aus Sicht eines Algorithmus haben all diese Absatzmengen, Prozesse und KPIs eins gemein: sie sind Zeitreihen, d.h. zeitlich geordnete Reihen von Zahlen und Ereignissen. Aufgrund dieser Gemeinsamkeit können alle Inhalte mit gleichen Methoden prognostiziert, visualisiert und verwertet werden. Hieraus ergibt sich auch der Ansatzpunkt für eine „industrialisierte Forecast-Maschine“: Wenn Unternehmen die Fähigkeit erlangen, Zeitreihen skalierbar vorherzusagen, dann kann diese Fähigkeit auf sämtliche Geschäftsbereiche und Funktionen angewandt werden.

M&M‘s – Mustererkennung und Metrik – sind die Basis einer guten Forecast-Maschine.

Setzen sich Unternehmen nun das Ziel, Entscheidungen datenbasiert zu fällen, so stellt sich die Frage, wie die Überlegenheit eines datenbasierten Forecasts zu einem Bauchgefühl oder Erfahrungswert gerechtfertigt werden kann. Ein etabliertes Mittel ist die out-of-sample Forecast-Genauigkeit: hier wird die Zeitreihe künstlich verkürzt, um Prognosen mit bekannten Werten der Vergangenheit vergleichen und Metriken berechnen zu können. Diese werden einerseits dann mit der Genauigkeit des früheren Bauchgefühls verglichen, andererseits iterativ genutzt, um die Forecast-Genauigkeit zu erhöhen.

Wie erreicht man nun eine gute Genauigkeit? Man muss zunächst das den Daten zugrundeliegende Muster erkennen; dies macht üblicherweise ein Data Scientist mit der richtigen Wahl von Machine Learning und AI Methoden. Dazu gehören

  1. das „Feature Engineering“ – „Die morgige Temperatur beeinflusst den Absatz von Zitronenlimonade, Regen tut es aber nicht“ – und
  2. das Erkennen der zugrundeliegenden zeitlichen Struktur – „Die Arbeitslosenrate unterliegt konstanten Fünfjahreszyklen“.

Ferner muss die passende Metrik gefunden werden, mit der die Genauigkeit bewertet wird. Da die Metriken sich am „Geschäftsnutzen“ orientieren müssen, ist die Kooperation von Forecast-Nutzer und Data Scientist essentiell – ein kurzes Beispiel: Im Handel ist es irrelevant, ob von einer Plastiktüte 100 Stück zu viel oder zu wenig verkauft wurden, die Abweichung der Forecasts vom Ist-Wert wird symmetrisch bewertet. Dagegen sieht es bei Kühlschränken anders aus: ist ein Kühlschrank zeitnah nicht lieferbar, verpasst der Händler Umsatz; lagert er einen zu viel, hat er zwar Lagerhaltungskosten, jedoch sind diese nicht vergleichbar mit dem verpassten Profit, Abweichungen werden also asymmetrisch bewertet.

Da die Prognosen den Forecast-Konsumenten dienen, um deren Handlungsentscheidungen zu verbessern, ist die Abstimmung von Forecast-Nutzer und Forecast-Erzeuger von fundamentaler Bedeutung. Die Kunst liegt dabei in der Übersetzung des Nutzens in eine geeignete Metrik, die zur iterativen Forecast-Verbesserung genutzt wird.

Die 80-zu-20 Regel des Forecastens: der Wert eines Forecasts liegt nicht in seiner Genauigkeit, sondern darin früh Entscheidungen zu verbessern.

Ein datengetriebener Forecast hat nur dann einen ökonomischen Wert, wenn er Informationen bereitstellt, die zu besserem Handeln führen; allein durch eine „Erkenntnis“ wird noch kein Wert realisiert: auch wenn ein Einzelhändler durch mehrmonatige Forecast-Verbesserungen weiß, dass er nächste Woche 17 Dosen verkaufen wird, wird er aus logistischen Gründen trotzdem eine ganze Palette bestellen.

Wie verbessert man aber dann Entscheidungen? Unsere Erfahrung zeigt, dass in Forecast-Projekten in ca. 20% der Zeit bereits 80% der finalen Forecast-Genauigkeit erreicht werden. Es geht hier also um die Schnelligkeit eine datenbasierte Nutzungsgrundlage für zukunftsbetreffende Entscheidungen zu schaffen. Diese Grundlage wird dann mit weiteren Informationen, z.B. logistischen Informationen, angereichert, um schließlich Bedarfsspitzen – „nächste Woche werden fünf Kühlschränke benötigt“ – frühzeitig zu erkennen und auf diese reagieren zu können. Sind diese rechtzeitig bekannt, können Produzenten ebenfalls rechtzeitig informiert werden und Regallücken werden vermieden, was wiederum zu einer besseren Lieferantenbeziehung führt.

Möchte man nun die auf Basis von historischen Daten erstellten Prognosen in den geschäftlichen Alltag einbinden, so stößt man aus Data-Science-Sicht auf eine weitere Herausforderung bei der Produktivsetzung.

From Garage to Production – bei Produktivsetzung muss immer auf die gleichen vier Herausforderungen geachtet werden.

Hat man einen zufriedenstellenden Prototypen entwickelt, so sind die folgenden Herausforderungen zu bewältigen, um die Anwendung in ein produktives Umfeld zu skalieren.

  1. Automatisierte Modellanpassungen, -vergleiche und -auswahl

Werden über die Zeit hinweg neue Beobachtungen der zu prognostizierenden Variablen verfügbar, so müssen die Modelle mit dieser Information neu trainiert, verglichen und ausgewählt werden. Dies kann dazu führen, dass im Vergleich zu früheren Zeitpunkten andere Modelle sich besser an aktuelle Begebenheiten anpassen und diese Modelle gewählt werden sollten. Eine Automatisierung dieser Abläufe ist Pflicht.

  1. Funktionale Überwachung

Die Veränderung der Anzahl und Summe der Forecasts, der Forecast-Genauigkeiten und vieler anderer Prognose-KPIs muss über die Zeit hinweg beobachtbar sein. Bei den Genauigkeiten bedeutet dies, dass bis hin zur aktuellsten Beobachtung, d.h. dem spätesten Zeitpunkt zu dem Ist-Wert und Forecast-Wert verfügbar sind, die Entwicklung der Prognosegüten berechnet werden. Dies ist notwendig, um frühzeitig auf Qualitätsminderungen reagieren zu können.

  1. Updates, Versionen, Roll-Back und Audit

Updates müssen einfach, sicher und schnell nutzbar integrierbar sein und zudem neben den Forecasts versioniert werden. Falls die Reaktion auf eine Forecast-Verschlechterung – der sog. Switch-Over – nicht zur erwünschten Verbesserung führt, muss man wieder auf Vorgängermodelle zurückspringen können („Roll-Back“). Da der Forecast einer datenbasierten Entscheidung dient, muss die Forecast-Logik auditierbar sein, d.h. Forecasts müssen auch später nachvollzogen werden können.

  1. Bedienung der drei typischen „Konsumenten-Kanäle“

Produktive Vorhersagen können ganz unterschiedlichen Zielen dienen, z.B. der Empfehlung bzw. Warnung „Nächsten Monat könnte Maschine Z ausfallen, bitte anschauen.“ oder der Beschreibung „Vom Produkt X werden wir im Sommer mehr als von Produkt Y verkaufen, im Winter dagegen weniger.“

Solche Ziele können auf drei Arten erreicht werden,

  • der Rückführung der Forecasts in eine Live-Datenbank,
  • die interaktive und rollenspezifische Bereitstellung der Prognosen als Dashboard / Report / Cockpit,
  • oder einer Mitteilung via eines Kommunikationsmittels (Email, SMS, …).

Hier ist es wichtig, dass die Forecasts diese Kanäle auch bedienen können, um die teilweise sehr technischen Analysen der Managementebene als effektive Entscheidungsgrundlage zur Verfügung zu stellen.

Gleiche Probleme und gleiche Methoden; trotzdem sind die Lösungen meist nicht produktiv und/oder inhaltlich skalierbar.

Da bei Zeitreihenprognosen – unabhängig vom Datenhintergrund – immer die gleichen algorithmischen Methoden zum Einsatz kommen („content scalability“) und bei Produktivsetzung immer die gleichen Voraussetzungen erfüllt sein müssen („productive scalability“), lohnt es sich Forecasts zu skalieren.Dennoch scheint die generelle Herangehensweise in Unternehmen – trotz Verfügbarkeit der Daten, Experten und Rechenleistung – oftmals nicht auf Skalierbarkeit ausgerichtet zu sein: Experten verschiedener Fachrichtungen durchlaufen die gleichen langsamen Lernkurven und fokussieren sich auf die Erstellung von Prototypen, die dann in der Regel nicht zu einer generell skalierbaren Anwendung führen, da ihnen entweder die Voraussetzungen zur Produktivsetzung oder die Übertragbarkeit auf andere Prognoseaufgaben fehlen.

Forecasting ist nur dann skalierbar, wenn die Plattform produktiv und die Projektteams inhaltlich skalierbar sind.

Um Forecasts skalierbar in Unternehmen zu etablieren, bedarf es unserer Erfahrung nach zweier Schlüsselfaktoren:

  • Technisch: Aufbau einer generischen – das heißt unabhängig von fachlichen Anforderungen auf Zeitreihen zugeschnittene – Forecast-Plattform, die in der Lage ist, produktiv zu skalieren, sowohl hinsichtlich Rechenleistung als auch bei der Anbindung an produktive Datenquellen.
  • Organisatorisch: Aufbau eines inhaltlich skalierbaren „Data Lab“, bestehend aus flexiblen Task-Forces von Forecast-Experten und Nutzern, welche gemeinsam Forecast-Use-Cases auf der Plattform implementieren und in den unternehmerischen Entscheidungsprozessen verankern.

Forecasts bieten grundsätzlich zusätzliche Informationen für Entscheidungsträger und unterstützen so den Entscheidungsprozess. Ein skalierbares Duo aus Data Lab und einer generischen Forecast-Plattform stellt sicher, dass diese Informationen effizient verfügbar gemacht werden können und tatsächlich zu verbessertem Handeln führen.

Stefan Rameseder ist Project Leader im Bereich prädiktive und präskriptive Zeitreihenverfahren bei ONE LOGIC – hier im Wesentlichen für DAX-Kunden. Vor ONE LOGIC war er statistischer Berater im Energiehandel (E.ON, SWM), E-Commerce und Finance. Er besitzt Abschlüsse in Mathematik, Physik und VWL.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

21391

share

Artikel teilen

Top Artikel

Ähnliche Artikel