Mit Machine Learning Genauigkeit und Effizienz von Prognosen steigern

bei

 / 4. October. 2018

Das Interesse an Artificial Intelligence, Machine Learning und Deep Learning wächst stetig. Was steckt hinter Machine Learning? Wie grenzen sich Machine Learning und Deep Learning von Artificial Intelligence ab? Welche Anwendungsfälle gibt es und welche Voraussetzungen müssen gegeben sein, um diese neuen Technologien einsetzen zu können?

Die Basis von Artificial Intelligence (AI), Machine Learning (ML) und Deep Learning (DL) bilden statistische Modelle, die im Gegensatz zu einer rein algorithmischen Verarbeitung auch Aussagen zulassen, wie zum Beispiel „das Bild stellt mit einer Wahrscheinlichkeit von 85 Prozent eine Katze dar“. Die Abkehr von einer rein algorithmischen Verarbeitung hin zur Einbeziehung von stochastischen Komponenten eröffnete letztendlich Anwendungsbereiche, die bis dato nicht erfolgreich verarbeitet werden konnten, etwa die Bild- und Spracherkennung.

Wie bei jedem klassischen statistischen Modell werden auch für die Modelle einer ML- und DL-Anwendung immer die drei Phasen Learning, Prediction (Anwendung) und Monitoring unterschieden. In der Lernphase wird das Modell trainiert, das heißt, es wird bestmöglich an historische Daten angepasst; die zu prognostizierende Größe muss bekannt sein. In der Anwendungs-Phase werden mit dem trainierten Modell und neuen Daten Prognosen erstellt. Die zu prognostizierende Größe ist dabei natürlich nicht bekannt. Das Monitoring überprüft dann die Prognosen mit den tatsächlich eingetretenen Werten.

Unterschiede zwischen AI, ML und DL

AI bildet den Rahmen um die ML- und DL-Modelle. Neben den ML- und DL-Modellen enthalten AI-Applikationen auch eine Regelbasis. Aus der korrekten Kombination und Interpretation der Modellergebnisse werden sinnvolle Ergebnisse und Entscheidungen erzeugt. Beispiele für AI-Anwendungen sind die Assistenzsysteme von Amazon, Apple, Microsoft und Google, bei denen die Spracherkennung über ein DL-Modell erfolgt.

Machine Learning unterscheidet sich von der klassischen Statistik dadurch, dass nach einer initialen manuellen Phase alle notwendigen Schritte innerhalb eines voll automatisierten Workflows ablaufen können. Im Regelbetrieb sollten also keine manuellen Eingriffe mehr nötig sein. Ein Machine Learning Workflow sollte auch ein Retraining der Modelle vorsehen – falls dies die Problemstellung zulässt – so dass die Modelle immer auf dem aktuellsten Datenstand gehalten werden können. In den letzten Jahren wurden etliche neue Methoden entwickelt, die diesen Ansatz unterstützen. Beispiele hierfür sind Random Forest, Gradient Boosting und Support Vector Machine.

Deep Learning ist ein Teilbereich von ML. Nach gängiger Auffassung unterscheiden sich DL-Anwendungen dadurch, dass Neuronale Netze mit einer tiefen und verschachtelten Struktur (Hidden Layers) eingesetzt werden, um hochkomplexe Problemstellungen ausreichend bearbeiten zu können. Beispiele dafür sind Sprach- und Bilderkennung, die für die Entwicklung von Assistenzsystemen erforderlich sind.

Anwendungsfälle für AI, DL und ML

Beispiele für den Einsatz von AI-, DL- und ML-Technologien finden sich etwa bei Banken und Versicherungen.

  • Prüfung der Kreditwürdigkeit von Bankkunden: Ein Immobilienkäufer beantragt einen Privatkredit und den regulatorischen Vorgaben folgend muss die Bank die Kreditwürdigkeit des Kunden überprüfen. Dazu setzt sie eine Scorecard ein, die mit einem statistischen Prognosemodell arbeitet, das mit historischen Daten der Bank trainiert wurde. Abhängig von der prognostizierten Ausfallwahrscheinlichkeit erhält der Kunde den Kredit zu bestimmten Konditionen.
  • Betrugserkennung bei Haftpflichtversicherungen: Ein Versicherer überprüft Schadensmeldungen seiner Haftpflichtversicherung auf Betrug. Das Kernstück des dafür verwendeten Workflows bildet ein Prognosemodell, das für jede Schadensmeldung eine Betrugswahrscheinlichkeit ermittelt. Auf Basis der Modellbewertung werden nur Fälle mit hoher Betrugswahrscheinlichkeit manuell weiter untersucht.
  • Assistenzsysteme für Autoversicherungen: Ein Autoversicherer nutzt sein Assistenzsystem für das Kundenmanagement. Folgende Komponenten sind Teil des Assistenzsystems: Spracherkennung zur Verarbeitung von digitalen Texten, Bilderkennung zur Verarbeitung von digitalen Schadensbildern, Telematik-Modul zur Auswertung des Fahrverhaltens, Bestimmung des Kundenwertes und die Bestimmung der Kündigungswahrscheinlichkeit. Das Assistenzsystem liefert lediglich Auswertungen und Empfehlungen. Es trifft keine konkreten Entscheidungen.
Abbildung 1: Beim Retraining kann das Prognosemodell immer mit den aktuellsten Daten trainiert und sukzessive verbessert werden. (Quelle: CGI)

Voraussetzungen für erfolgreiche Projekte

In den letzten Jahren wurden viele Algorithmen und Modellvarianten weiterentwickelt und es entstanden unzählige neue, die zu immer effizienteren Prognosen führen. Allerdings steigen damit auch die Anforderungen an Erfahrung und Kenntnisse, die einen qualifizierten Einsatz der Verfahren voraussetzen. Das erfolgreiche Trainieren eines komplexen Neuronalen Netzes zum Beispiel erfordert ein hohes Maß an Expertenwissen und sehr viel Erfahrung mit deren Umgang. Theoretisches oder kurzfristig angeeignetes Wissen reicht nicht aus. So ist beispielsweise die Erfahrung mit Softwarepaketen wie Python Scikit-Learn für Machine Learning oder Python Keras, TensorFlow und Caffee für  Deep Learning erforderlich.

Der Projekterfolg steht und fällt mit dem Vorhandensein von Strukturen in den Daten. Daher sollten die Daten immer intensiv über Datenexplorationen untersucht werden, und zwar parallel in allen Projektphasen. Ob überhaupt ein Potential in den Daten aus verschiedenen Quellen steckt, das mit Hilfe von Machine und Deep Learning genutzt werden kann, können einzig und alleine die Daten „erzählen“.

Machine-Learning-Anwendungen kommen mit kleinerem Budget aus. Unternehmen können sie auch für Nicht-Core-Business-Bereiche entwickeln. Deep-Learning- und AI-Applikationen sind in der Regel aufwendig und teuer. Deswegen sollten diese nur für Core-Business-Bereiche entwickelt werden.

Der Autor: Dr. Uwe Müller ist Executive Consultant Financial Services, Practice Manager for Big Data Analytics bei CGI in Düsseldorf.

 

Vorheriger ArtikelDIGICON 2018 – Die Erfolgsgeschichte setzt sich fort
Nächster ArtikelDie Rolle von Data Mining bei Predictive Maintenance in der Automobilbranche.