Data Analytics und Maschinelles Lernen professionalisieren

Von   Dr. Matthias Duschl   |  Data Analytics Consultant   |  Munich Re
  Dr. Fabian Winter   |  Leiter Business Analytics   |  Munich Re
16. Mai 2018

Big Data und komplexe statistische Analysemethoden stehen branchenübergreifend im Fokus. Auch viele Unternehmen, die nicht zu den Digital Natives der Firmenwelt zählen, wie etwa Versicherer, investieren erhebliche Summen in Initiativen im Bereich Data Analytics und Maschinelles Lernen (ML). In der Anfangsphase ging es darum, Anwendungsfälle für Analytics-Lösungen entlang der Wertschöpfungskette der Versicherung aufzuspüren. Jetzt ist es wichtig, die Aktivitäten systematisch zu professionalisieren, um daraus nachhaltig den größtmöglichen Nutzen zu ziehen.
Obwohl sie nicht zum Kreis der Digital-Native-Unternehmen gehören, haben die meisten Versicherer bereits erhebliche Summen in Data Analytics- und ML-Initiativen investiert. Denn sie haben erkannt: Nur so kann die Assekuranz künftige Herausforderungen wie ein sich veränderndes Kundenverhalten, neue regulatorische Anforderungen, hohe Lohnkosten und zunehmenden Wettbewerb durch InsurTech-Startups erfolgreich bewältigen. Laut einer Umfrage von McKinsey aus dem Jahr 2016 investieren Lebens- und Nichtlebensversicherer weltweit jährlich bis zu 80 Millionen US-Dollar in Data Analytics. Heute ist Data Analytics ein fester Bestandteil der Wertschöpfungskette der Assekuranz. Viele Versicherer, vor allem kleine und mittlere Unternehmen, haben allerdings noch Probleme, ihre Lösungen zu skalieren.

Im Versicherungssektor untersuchten die meisten Unternehmen zunächst im Explorationsmodus, welchen Wert Data Analytics und ML für sie birgt. In dieser Phase werden verschiedene Anwendungsfälle entlang der Wertschöpfungskette erprobt. Dazu werden neue Teams gebildet und externe Partner eingebunden. First Mover waren dabei in der Regel die Unternehmen, die in einem datenreichen Umfeld agieren. Krankenversicherer verfügen beispielsweise über eine Fülle von personenbezogenen Daten zu Diagnose, Behandlung und verschriebenen Medikamenten. Auch bei Munich Re wurde 2010 das erste Analytics Team im Geschäftsbereich Gesundheit ins Leben gerufen, welches den Mehrwert fortgeschrittener statistischer Modelle für das Medical Management oder Leistungsprüfung nachweisen konnte.

Die Abbildung zeigt wichtige Meilensteine der Nutzung von Data Analytics in der Versicherungswirtschaft.

Abbildung 1: Meilensteine der Nutzung von Data Analytics in der Versicherungswirtschaft von 1997 bis 2018

Viele Versicherer stehen jetzt vor der Herausforderung, das Potenzial ihrer Data Analytics- und ML-Initiativen vollständig auszuschöpfen. Beispielsweise lassen sich die bereits vorhandenen IT-Systeme oft nicht schnell genug an neue Infrastruktur-Anforderungen in Bezug auf Datenspeicherung und -verarbeitung sowie massive parallele Rechenleistung anpassen. Auch die Datenqualität lässt in Bezug auf Vollständigkeit, Fragmentierung oder Governance noch zu wünschen übrig. Zudem mangelt es an Fachkräften, die mit hoch entwickelten Analysemodellen umgehen können. Häufig münden die durch Analysen gewonnenen Erkenntnisse nicht in entsprechende Maßnahmen oder Prozessänderungen. Die anfängliche Abkopplung vom Produktivbetrieb in der Explorationsphase hat außerdem zu erheblichem technischen Nachholbedarf geführt, was die produktionsreife Umsetzung der Lösungen angeht. Die Analyselösungen kommen daher nicht immer im Echtbetrieb zum Einsatz.

Jetzt ist die Assekuranz an einem Punkt angelangt, an dem umsichtige Strategien für die Professionalisierung von Data Analytics- und ML-Initiativen gefragt sind, damit diese im Unternehmen ihre Wirkung entfalten können. Die Neugier und Agilität aus der Explorationsphase darf dabei aber nicht völlig verloren gehen. Versicherer sollten sich also Gedanken machen, wie sie ihre Erkenntnisse aus den Anwendungsfällen und Prototypen der Anfangsphase so umsetzen, dass sie nachhaltig profitieren. In einer Data und Analytics Strategie sollten unter anderem für die folgenden sechs Kernelemente unternehmensspezifische Antworten gefunden werden:

Abbildung 2: Professionalisierung von Data Analytics- und KI-Initiativen

Erstens sind skalierbare Organisationsstrukturen erforderlich. Dies betrifft sowohl die zunehmende Aufteilung der Zuständigkeiten als auch einen geeigneten Dezentralisierungsgrad der Analytics-Aktivitäten. Ersteres spiegelt sich in neuen Anforderungsprofilen wie Machine Learning Engineer, Data Privacy Expert oder Visual Data Scientist wieder, aber auch in fachlichen Spezialisierungen wie Forensic Analytics Experts oder Digital Sales Analytics Consultants. Die Versicherer müssen eine effektive Organisation dieser Zuständigkeiten gewährleisten, wobei auch das Zusammenspiel mit anderen Funktionen in den Geschäftseinheiten, der Rechtsabteilung oder der IT zu berücksichtigen ist. Die optimale Mischung aus zentralen und dezentralen Einheiten muss für jedes Versicherungsunternehmen separat bestimmt werden und hängt unter anderem von der Unternehmensgröße, der Geschäftssparte und den gewachsenen Strukturen ab. Ein mit entsprechenden Befugnissen ausgestatteter Chief Data Officer oder Chief Analytics Officer stellt einheitliche Qualitätsstandards und eine kohärente Datenarchitektur sicher.

Zweitens benötigt jedes Versicherungsunternehmen ein Mindestmaß an Analytics Fähigkeiten, um Analytics Projekte entweder selbst durchführen oder, im Falle einer Outsourcing Strategie, zumindest betreuen zu können. Dies bedingt einerseits, dass gerade im Recruiting dieser in der Versicherungswirtschaft neuen Skills eine Qualitätssicherung erfolgen muss. Munich Re hat bereits 2011 einheitliche Assessment Center für die Messung dieser Fähigkeiten eingeführt, um die Qualität von Data Scientist Bewerbern weltweit sicherstellen zu können. Neben der Rekrutierung neuer Mitarbeiter wird ein differenziertes Weiterbildungskonzept zum Ausbau der Data-Analytics-Fähigkeiten im Unternehmen immer wichtiger – nicht zuletzt auch deshalb, weil Experten auf dem Arbeitsmarkt Mangelware sind. Gerade die bestehenden Aktuare stehen aufgrund ihres mathematischen Hintergrunds im Fokus.

Drittens müssen Methoden eingesetzt werden, die zu produktionsreifen Data-Science-Lösungen führen. Dabei ist der gesamte Lebenszyklus der Analytics-Modelle zu berücksichtigen. Während der Explorationsphase konzentrierten sich vielen Unternehmen auf die Modellentwicklung. Statistisch fundierte Modelle müssen auch im Ziel-IT-System implementiert, die Ergebnisse industrialisierter Modelle überwacht und die Modelle kontinuierlich weiterentwickelt werden. Bei einer zunehmenden Zahl von Modellen im Produktivbetrieb ist die Verwendung eines geeigneten Tool-gestützten Model Management Framework zu empfehlen. Diese Produktionssicht wirkt sich auch darauf aus, wie neue Modelle entwickelt werden. So gilt es einen Trade-offs zwischen der Komplexität und Vorhersagekraft eines Modells auf der einen Seite und den Generalisierungseigenschaften, der Implementierbarkeit, Interpretierbarkeit und Transparenz auf der anderen Seite abzuwägen. Dies ist insbesondere vor dem Hintergrund der neuen DSGVO für personenbezogene Daten sowie in traditionell stark regulierten Branchen wie dem Versicherungswesen relevant.

Viertens: Daten gelten gemeinhin als wertvoller Rohstoff: daher haben im Prinzip alle Versicherungsunternehmen ein Interesse an der Sammlung und Speicherung relevanter Daten und Informationen. Hierbei bedarf es unterschiedlicher Ansätze, um das systematische Auffinden, die Strukturierung (v.a. von unstrukturierten Daten) sowie den unternehmensweiten Zugang zu diesen Daten sicherzustellen. Die durch den unternehmensweiten Zugang erfolgte „Demokratisierung“ kann selbstverständlich nur auf der Basis klarer Regeln erfolgen, um die Einhaltung interner aber auch gesetzlicher Rahmenbedingungen sicherzustellen.

Fünftens müssen Prozesse durchgängig betrachtet und angepasst werden. Bei einem Anwendungsfall für einen Betrugs-Score sollte man beispielsweise nicht nur die Maximierung der Vorhersagekraft im Blick haben, sondern auch die Schadenregulierungsprozesse berücksichtigen. Die statistisch abgeleiteten Betrugs-Scores müssen in (entsprechend angepasste) Prozesse zur Automatisierung von Entscheidungen eingebettet werden. Diese Entscheidungen werden von Experten überprüft und granular gespeichert, um die analytischen Modelle kontinuierlich zu verbessern. Bei dieser Data-to-Action-Sichtweise stehen der Geschäftswert und die Prozesse im Mittelpunkt. Da maschinelles Lernen zunehmend standardisiert wird – immer mehr Softwarelösungen bieten automatisierte Workflows vom Feature Engineering, Modelltraining bis zur Modellauswahl an – wird es möglich, bei Analytics-Projekten den Fokus verstärkt auf durchgängige Implementierung und Geschäftsprozessänderungen zu legen.

Schließlich ist auch die Kultur ein wesentlicher Faktor, wenn es darum geht, im Unternehmen eine „insight-getriebene“, das heißt im Wesentlichen auf Daten und Analyseergebnissen basierende Entscheidungsfindung („ Management by Data“) zu etablieren. Neben der Demokratisierung der Daten und einem umfassenden Weiterbildungskonzept zum Thema Analytics spielt hier die Unterstützung durch die Unternehmensführung eine entscheidende Rolle. Solange sich die Unternehmen noch im Explorationsmodus befinden und den Geschäftswert ihrer Data Analytics-Initiativen nicht voll ausschöpfen, scheint es bei Versicherern noch Widerstände zu geben. Deshalb ist es wichtig, die Lücken bei der Professionalisierung von Data Analytics rasch zu schließen, um diesen Kulturwandel zu legitimieren. Versicherungsunternehmen benötigen also eine klare Maßnahmenkatalog, um den Buy-In der Mitarbeiter und Führungskräfte sicherzustellen. Hierzu kann einerseits eine Aufklärungs- und Kommunikationsstrategie gehören, andererseits kann aber auch die Vergabe von „Daten“-Zielen eine intensivere Beschäftigung mit dem Themenkomplex sicherstellen.

Dr. Matthias Duschl ist Analytics Consultant und Data Scientist bei Munich Re. Vor seinem Start bei Munich Re unterstütze er bei einer Big Four als Senior Manager verschiedene Kunden bei der Umsetzung Ihrer Data Analytics Strategien. Matthias ist Diplom-Geograph und promovierte zu statistischer Modellierung von Wirtschaftswachstum in Marburg, Italien und Taiwan.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

21327

share

Artikel teilen

Top Artikel

Ähnliche Artikel