KI bei Versicherern: Epochales Werkzeug mit ethischen Folgen

Mit ChatGPT, von KI kreierter Kunst und autonomem Fahren zieht das Thema künstliche Intelligenz immer weiter in den gesellschaftlichen Diskurs ein. Die Versicherungsbranche nutzt KI und Machine Learning schon seit Jahren in Lösungen für Data Analytics. Die Vorteile von ausgeklügelter Datenanalyse sind für Versicherer vielfältig und in jedem Bereich des Versicherungslebenszyklus anzutreffen. Welche Erfahrungen die Versicherungsbranche hier gemacht hat und was die breitere Gesellschaft daraus lernen könnte, beleuchtet René Schoenauer in folgendem Artikel.
Von   Rene Schoenauer   |  Director Product Marketing EMEA   |  Guidewire Software
27. März 2023

Ein Meer aus Daten und endlich gibt es Boote

Warum für die Versicherungsbranche Data Analytics so wichtig ist und welche Vorteile KI und Machine Learning bieten, lässt sich gut an einem einfachen Beispiel aus der KFZ-Versicherung erkennen: Ein Aufofahrer mit Punkten im Flensburger Verkehrsregister muss höhere Beiträge bei der KFZ-Versicherung zahlen als jemand ohne Punkte. Das Schadenrisiko wird daher vorab eingestuft und die Beiträge werden entsprechend festgelegt. Je mehr Daten in die Risikobewertung einfließen, desto genauer kann diese sein. Die Risikobewertung ist Kernaspekt von Versicherungen im Allgemeinen, aber KI ermöglichte hier Revolutionäres wie beispielsweise Telematik-Tarife bei KFZ-Versicherungen; die Fahrdaten des Versicherungsnehmers werden laufend analysiert und vorbildliches Fahrverhalten wird mit geringeren Beiträgen belohnt. Jedoch ändert sich auch dann nicht die Krux von Versicherungen selbst: Pricing und Underwriting basieren darauf, Personengruppen mit unterschiedlichen Risikomerkmalen einzustufen. Aber auch Verbraucherprofile sowie Prozesse in der Schadenbearbeitung werden durch Datenreichtum weiter geschärft.

Data Analytics und die Nutzung von KI sind in der Branche bereits weit fortgeschritten und ihre Vorteile kommen nicht nur dem Versicherer selbst zugute. Beispielsweise könnte in naher Zukunft ein Versicherungsnehmer seiner KFZ-Versicherung einen Verkehrsschaden melden, eine KI könnte die eingereichten Fotos analysieren, die Wahrscheinlichkeit eines Versicherungsbetrugs prüfen und kontrollieren, ob sich der zu zahlende Betrag in einem adäquaten Rahmen bewegt. Wenn diese Prüfung zu einem positiven Schluss kommt, könnte die KI sogar die automatische Auszahlung des Betrags abwickeln. Selbst wenn der letzte Schritt noch von einem Mitarbeiter veranlasst wird, erhält der Versicherungsnehmer die Auszahlung viel schneller und der Versicherer hat fast die gesamte Schadenbearbeitung automatisieren können.

Ein weiterer Quantensprung ereignet sich gerade bei Data Analytics, wenn es darum geht, wie die Ergebnisse einer Datenanalyse durch KI genutzt werden. Bis heute war hier der Modus Operandi, dass die Ergebnisse einer Datenanalyse von einem Menschen gesichtet werden und die neu gewonnenen Erkenntnisse die weitere Vorgehensweise bestimmen. Mit sogenannten Prescriptive Analytics geht die KI sogar einen Schritt weiter und empfiehlt auch verschiedene Handlungsschritte auf Basis der Datenanalyse. Dies reduziert den Arbeitsaufwand, der durch die Interpretation der Ergebnisse einer Datenanalyse entsteht, gewaltig.

Neue Wege, neue Hürden

Auch wenn KI den gesamten Versicherungslebenszyklus optimiert und verändert hat, mit neuen Werkzeugen kommen oft auch neue Probleme. Mit Rechtsprechung wie dem EU AI Act versucht der Gesetzgeber sicherzustellen, dass Personengruppen durch KI-Entscheidungen nicht benachteiligt werden. Jedoch wird es mit der Flut an Daten und auch der wachsenden Komplexität von KI- und Machine-Learning-Modellen für die Versicherungsbranche stellenweise immer schwieriger nachzuvollziehen, wie bestimmte Schlussfolgerungen entstanden sind.

Verzerrungen innerhalb von Datensätzen und Modellen sind zwar kein neues Problem, jedoch wirft ein Bias innerhalb eines Datensatzes einen langen Schatten, wenn der Datensatz für eine KI oder ein Machine-Learning-Modell verwendet wird. Beispielweise gab es vor einigen Jahren KFZ-Versicherer in England, die ein Machine-Learning-Modell beim Pricing verwendeten. Jedoch kam dieses Modell zu dem Schluss, dass Männer mit dem Namen Mohammed höhere Beiträge zahlen sollten als Männer mit dem Namen John. Machine-Learning-Modelle und auch andere KI-Formen entwickeln sich selbst durch die Analyse von Mustern weiter. Dabei werden auch im Datensatz existierende Bias mitverwertet. Somit kann ein Algorithmus rassistische oder sexistische Schlüsse ziehen, wenn dieser mit Daten aus einer sexistischen und rassistischen Quelle gefüttert wurde.

Diesbezüglich hat der Gesetzgeber aber schon vor Jahren angesetzt. Es ist Versicherern in Deutschland untersagt, sogenannte spezifische Merkmale wie Herkunft, Geschlecht, sexuelle Orientierung und Weitere zu verwenden, denn das Diskriminierungspotenzial liegt auf der Hand. Jedoch können KIs mit genügend unspezifischen Datenpunkten spezifische Schlussfolgerungen treffen – auch Proxying genannt. Dadurch entsteht die Möglichkeit, dass eine KI ohne Zugriff auf geschützte Merkmale dieselben Schlussfolgerungen zieht wie eine KI, die einen solchen Zugriff hat.

Das zweischneidige Schwert komplexer KI

Da Data Analytics aber nicht nur komplexer wird, sondern auch immer häufiger eingesetzt wird, sieht sich die Versicherungsbranche mit wichtigen ethischen Fragen konfrontiert. Denn durch Verzerrungen innerhalb von Versicherungsdatensätzen könnten darin enthaltene Bias durch Algorithmen vervielfältigt und verfestigt werden. Eine mögliche Folge davon wäre, dass bestimmte Personengruppen durch schlechtere Ergebnisse bei der Schadenbearbeitung, höhere Beiträge und auch schlechteren Service benachteiligt werden. Selbst abseits des Skandals stellt dies ein Problem für die Versicherungsbranche dar, denn diese Folgen sind dem eigentlichen Ziel von Data Analytics gänzlich gegenläufig. KI stellt eine Revolution für Versicherer dar, denn sie ermöglicht die effizientere und akkuratere Abwicklung vieler Geschäftsprozesse. Jedoch sind diese Argumente hinfällig, wenn die von der KI getroffenen Entscheidungen einen stärkeren Bezug zu einem Bias haben als zur Realität des bewerteten Einzelfalls.

Unser vorheriges Beispiel zu unterschiedlich hohen KFZ-Versicherungsbeiträgen von Personen mit den Vornamen John oder Mohammed könnte auch einen gänzlich anderen Hintergrund haben: Es ist durchaus denkbar, dass die Schlussfolgerung der KI nicht rein auf dem Vornamen basiert. Somit könnte der Realitätsbezug der KI-Einschätzung nicht gänzlich falsch sein. Hier wird ein kritischer Aspekt der Nutzung von KI und Machine Learning im Allgemeinen hervorgehoben: Transparenz und Nachvollziehbarkeit – die Problematik, dass dies oft nicht gewährleitstet werden kann, wird auch das Blackbox-Problem genannt. Denn ein ethisch korrekter Umgang mit KI erfordert in genau solchen Fällen menschliche Intervention, die aber nur umsetzbar ist, wenn ein Mensch den Entscheidungsweg der KI verstehen kann.

Nicht im Dunkeln bleiben, sondern hinter die Kulissen blicken

Die Komplexität von KI- und Machine-Learning-Modellen macht die Transparenz und Nachvollziehbarkeit ihrer Ergebnisse aber manchmal unmöglich. Dass diese Komplexität immer weiter anwächst, verschärft das Problem zunehmend. Jedoch ist für den ethischen Umgang mit KI die Nachvollziehbarkeit unumgänglich. Daher sollte proaktiv und nicht reaktiv sichergestellt werden, dass keine Verzerrungen im Datensatz existieren, die zu einer Diskriminierung führen können. Wenn ein KI-Modell nicht transparent ist und für seine Nutzer nur schwer zu entschlüsseln ist, entsteht zusätzlich das Risiko, dass die Nutzer ihre Entscheidungen blind anhand der Datenlage treffen. Daher ist es ratsam, die Angemessenheit der Ergebnisse einer Datenanalyse zu hinterfragen, bevor diese den weiteren Handlungskurs beeinflusst. Wenn aber keine Möglichkeiten bestehen, die Entscheidungen von KI nachzuvollziehen, müssen Kontrollmechanismen eingesetzt werden, die auf Diskriminierungspotential prüfen.

Deshalb muss eine Diskussionskultur und ein Bewusstsein darüber geschaffen werden, dass KI-Modelle nur Schlüsse aus den Daten ziehen können, mit denen sie trainiert wurden. Da diese in den meisten Fällen Daten aus unserer Welt sind, enthalten diese Daten auch Spuren von Diskriminierung, oder die Daten werden durch diskriminierende Strukturen verzerrt. Um eine Reproduktion zu vermeiden, kann ein Datensatz entweder vor dem Training einer KI bereinigt und auf Eventualitäten geprüft werden, oder der Prozess muss transparent genug gemacht werden, um den Menschen Handlungsspielraum zu geben, wenn die Ergebnisse der KI als nicht angemessen eingestuft werden.

Da der Einsatz von KI im Bereich Data Analytics und auch außerhalb extrem vielfältig ist, sind die Lösungen und Kontrollmechanismen für die Problematik der ethischen Verwendung genau so vielfältig. Beispielsweise könnte im Fall des Proxying, aber auch anderen Bereichen, auch die parallele Nutzung von bekanntermaßen problematischen Modellen als Kontrollinstanz oder Negativbeispiel sinnvoll sein.

KI: Eher Transportmittel als Wegweiser

Die ethischen Fragen, die den Diskurs rund um KI prägen, sind nicht leicht zu beantworten. Jedoch lohnt es sich hier definitiv zu diskutieren und alle Betrachtungswinkel zu erforschen. Für die Versicherungsbranche war die Eingliederung von KI eine mehr als wertvolle Veränderung. Und überraschenderweise war hier die Revolution nicht, dass Arbeitsplätze auf breiter Fläche wegfielen, da Tätigkeiten von Menschen nun von Künstlicher Intelligenz erledigt werden. Vielmehr wurden Tätigkeiten konkretisiert und der Mensch wurde bei komplexen Entscheidungsprozessen mehr gefordert und weniger bei der Suche von spezifischen Informationen in einem Meer aus Daten. Denn abseits von immer gleichbleibenden Abläufen, die völlig automatisiert werden können, liegt der Mehrwert von KI viel mehr in der Synergie mit dem Menschen.

Die Anforderungen von Verbrauchern und dem Markt selbst gegenüber Dienstleistungen und Produkten sind heute so hoch wie noch nie. Dass dadurch Druck entsteht, möglichst effizient und genau zu sein, um wettbewerbsfähig zu bleiben, ist nachvollziehbar. Hierbei unterstützt KI die Arbeit des Menschen immens – aber man sollte trotzdem nicht aus den Augen verlieren, dass der Endkunde immer ein anderer Mensch ist. Zwar übertrumpfen KI-Modelle den Menschen in jeder Kategorie, wenn es um datenbasierte Einsichten geht, aber der Mensch denkt als Kunde weit weniger rational und auch Fakten müssen passend verpackt werden. Daher sind KI- und Machine-Learning-Modelle zwar ein extrem schnelles Zugpferd, jedoch werden die wegweisenden Entscheidungen weiterhin von Menschen getroffen werden.

René Schoenauer ist als Director Product Marketing EMEA verantwortlich für die Positionierung der Lösungen von Guidewire Software in Europa. Er ist seit über 20 Jahren im internationalen Versicherungsumfeld tätig.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

34351

share

Artikel teilen

Top Artikel

Ähnliche Artikel