Quelle: Unsplash

Innovation im Finanzwesen durch vertrauenswürdige KI

24. Februar 2022

Künstliche Intelligenz (KI) entwickelt sich schnell zu einem unverzichtbaren Werkzeug für die Finanzdienstleistungsbranche. Laut dem Bericht „AI in Banking“ von Insider Intelligence sind sich die meisten Banken (80 %) der potenziellen Vorteile von KI bewusst[1].  Die Möglichkeiten, die sich in diesem Bereich bieten, sind zahlreich, aber KI-Lösungen erfordern eine sorgfältige Steuerung mit den richtigen Kontrollen und Ausgleichen, um sicherzustellen, dass sie robust und fair sind.

Anwendungen von KI-Tools in Finanzdienstleistungen

Die Bandbreite der Einsatzmöglichkeiten von KI und maschinellem Lernen im Finanzbereich erstreckt sich über alle Geschäftsfunktionen und Sektoren. Allein im Bereich der Finanzdienstleistungen werden KI-Tools bereits eingesetzt, um den Kund*innenservice, die Kund*innensegmentierung, die Betrugsprävention und die Kreditbewertung zu verbessern, um nur einige Beispiele zu nennen.

Kund*innenservice

Im Bereich Kund*innenservice setzen viele Banken inzwischen auf KI-Chatbots, die einen 24/7-Kund*innenservice ermöglichen. Diese Bots nutzen KI und maschinelles Lernen, um grundlegende Kund*innenfragen über eine Instant-Messenger-Schnittstelle zu beantworten, schnell zu reagieren und Benutzer*inneneingaben zu speichern, damit die Arbeitskräfte sie bei Bedarf überprüfen können. Dadurch sind sie in der Lage, schnelle und relevante Informationen und Unterstützung für alle bereitzustellen und maßgeschneiderte Interaktionen zu ermöglichen[2]. Da diese Tools immer ausgefeilter werden, kann diese Art des Supports zu einer höheren Zufriedenheit führen, sowohl bei den Kund*innen, die schnellere Unterstützung erhalten, als auch bei den Mitarbeiter*innen, die ihre Zeit effizienter nutzen können.

So hat zum Bespiel das Technologielabor des Investment-Management-Riesen Fidelity in Irland einen KI-gesteuerten, mehrsprachigen virtuellen Assistenten entwickelt, der textbasierte Fragen in natürlicher Sprache für die mehr als 30 Millionen Anleger*innen des Unternehmens analysiert und beantwortet[3].

Kund*innensegmentierung         

KI kann auch bei der Kund*innensegmentierung eingesetzt werden, d. h. bei der Unterteilung von Kund*innen anhand gemeinsamer Merkmale wie demografischer Daten oder Verhaltensweisen. In diesem Fall kann KI schnell und in großem Umfang nach Mustern in den Kund*innendaten suchen und so Ergebnisse erzielen, die auf manuellem Wege nicht zu erreichen wären. Die Erstellung von Nutzer*innensegmenten ermöglicht es Finanzvermarkter*innen, die richtigen Kund*innen mit den richtigen Produkten und Dienstleistungen anzusprechen. Die Personalisierung des Kund*innenerlebnisses über die von den Nutzer*innen bevorzugten Kanäle und Geräte – ein weiterer Schritt, der in diesen Segmentierungsprozess integriert werden kann – kann auch die Markenbindung und die Zufriedenheit der Kundschaft erheblich steigern[4].

Die Deutsche Bank beispielsweise nutzt die KI-gestützte Kund*innensegmentierung, um ihr Angebot für Kund*innen zu verbessern und anzupassen. In den letzten Jahren hat die Bank damit begonnen, KI-Lösungen in ihrem gesamten Wertpapierdienstleistungsgeschäft einzusetzen, um Kund*innengruppen zu identifizieren, die aufgrund ihrer Verhaltensmuster für bestimmte Dienstleistungen geeignet sind. Wie Fidelity verfügt auch die Bank über einen KI-Chatbot, Debbie, der in Echtzeit auf Kund*innenanfragen wie z. B. zum Abrechnungsstatus antwortet[5].

Kreditbewertung und Betrugsprävention 

Die gleiche Fähigkeit zur Mustererkennung bedeutet, dass KI auch unregelmäßige Transaktionen analysieren und herausfiltern kann, die sonst von Menschen unbemerkt bleiben würden, aber auf Betrug hindeuten könnten. Dies macht sie zu einem großartigen Werkzeug für Banken, um Kreditrisiken zu bewerten, Betrug im Zahlungsverkehr zu erkennen und zu verhindern und Prozesse zur Bekämpfung von Geldwäsche zu verbessern[6].  Die in Dublin entwickelte Lösung Identity Check von Mastercard z.B. nutzt maschinelles Lernen zur Überprüfung von mehr als 150 Variablen im Rahmen des Transaktionsprozesses, um Betrug zu verringern und Händler*innen die Annahme von Online-Zahlungen zu erleichtern[7].

Dies sind nur einige Beispiele für die Anwendung von KI im Finanzdienstleistungsbereich. Da die Technologie weiter voranschreitet, wird die Zahl der Anwendungsfälle weiter zunehmen.

Verantwortungsvolle Schritte unternehmen

Im Zuge der zunehmenden Nutzung von KI ist es wichtig, dass die Einrichtung und Anwendung von KI kontrolliert wird, um sicherzustellen, dass die Systeme robust, fair und sicher sind. Die Finanzdienstleister sind dafür verantwortlich, dass ihre Daten hochwertig und zuverlässig sind. Sie müssen die Folgen und Auswirkungen ihrer Technologie verstehen. Angesichts der Komplexität und des Umfangs der Aufgaben, mit denen KI im Allgemeinen betraut wird, besteht die reale Gefahr, dass Modelle schief gehen. Ohne die nötige Anleitung und eine angemessene Schulung kann die KI Antworten ausgeben, die beispielsweise zu unwissentlich voreingenommenen Entscheidungen führen, was potenziell schädliche Folgen haben kann. Dabei geht es nicht nur um Risikomanagement – wenn es richtig gemacht und klar kommuniziert wird, kann eine gute Governance auch das Geschäft und die Loyalität fördern. Eine kürzlich durchgeführte Capgemini-Studie ergab, dass 62 % der Verbraucher*innen einem Unternehmen, dessen KI als ethisch vertretbar angesehen wird, mehr Vertrauen entgegenbringen, während 61 % dieses Unternehmen eher an Freund*innen und Verwandte weiterempfehlen und 59 % diesem Unternehmen gegenüber mehr Loyalität zeigen[8].

Wie können Unternehmen also sicherstellen, dass ihre KI-Lösungen streng kontrolliert werden? Es beginnt damit, dass man das Modell vollständig versteht und sicherstellt, dass die Kontrollen in einem angemessenen Verhältnis zur Bedeutung des Ergebnisses stehen.

  1. Erklärbares Modell

Die Sicherstellung dieser robusten Governance beginnt mit dem Verständnis des Modells. Wann immer ein KI-Algorithmus ein Ergebnis ausgibt, ist es entscheidend, dass das Unternehmen in der Lage ist, den Kund*innen, der Geschäftsleitung oder sich selbst zu erklären, was dieses Ergebnis bedeutet und wie es zustande gekommen ist. In vielen Anwendungsbereichen der Finanzdienstleistungen wird der Mensch in kritischen Entscheidungsszenarien, in denen es dem Algorithmus obliegt, Vertrauen zu schaffen, in der Schleife bleiben. Die Forscher*innen arbeiten hart an der Entwicklung dieser erklärbaren KI-Algorithmen, die ihre Ergebnisse rechtfertigen und ihre Grenzen transparent machen können und dabei genauso effektiv arbeiten wie komplexere und weniger transparente „Black Box“-Lösungen wie Deep Learning.

Wenn Finanzdienstleister KI-Modelle aus dem Labor in die Praxis übertragen, ist es auch wichtig, dass ein Team menschlicher Mitarbeiter*innen das System überwacht und die Eingaben und Ergebnisse analysiert und sicherstellt, dass das Tool korrekt und erwartungsgemäß arbeitet und lernt. Neue Software-Engineering-Praktiken wie MLOps (Machine Learning Model Operationalization Management) konzentrieren sich auf die Rationalisierung der Bereitstellung von Machine-Learning-Lösungen vom Labor bis zur Produktion. Die ordnungsgemäße Überwachung und Wartung von KI-Modellen im Laufe der Zeit ist wichtig, um eine mögliche Verschlechterung der Ergebnisse oder die Entdeckung unvorhergesehener Probleme zu verhindern. So untersuchten Forscher*innen der Stanford University und der University of Chicago reale Hypothekendaten und stellten fest, dass die Unterschiede bei der Vergabe von Hypothekenkrediten zwischen Minderheiten- und Mehrheitsgruppen nicht nur auf Verzerrungen zurückzuführen sind, sondern auch auf die Tatsache, dass Minderheiten und einkommensschwache Gruppen über weniger Daten zur Kreditgeschichte verfügen. Dies erschwert es dem Algorithmus, das Risiko eines Kreditausfalls vorherzusagen[9]. Diese Studie zeigt, vor welchen Herausforderungen Unternehmen stehen, wenn sie die Vertrauenswürdigkeit ihres KI-Modells intern, gegenüber der Öffentlichkeit und gegenüber den Regulierungsbehörden sicherstellen wollen.

  1. Materiality

Der Grad der Prüfung, dem ein KI-Modell unterzogen wird, sollte ebenfalls an die Folgen seiner Ergebnisse angepasst werden. Dies basiert auf einem Konzept, das als Materiality bekannt ist, d. h. auf der Schwere der negativen Folgen, die mit einem fehlerhaften KI-Ergebnis verbunden sind. Die Materiality ist beispielsweise höher, wenn ein KI-Tool über den Zugang von Menschen zu lebensverändernden Einrichtungen wie Krediten oder Kreditkarten entscheidet, als wenn es lediglich Kund*innen in verschiedene Segmente einteilt, um bei der Ausrichtung von Marketing oder Vertrieb zu helfen[10].  Hier gilt der einfache Grundsatz, dass mit zunehmender Bedeutung eines KI-Outputs auch die Strenge der Kontrollen zunehmen muss, die sicherstellen, dass das Ergebnis korrekt ist.

Die grundlegendste Kontrolle in dieser Hinsicht geht auf den ersten Punkt zurück, nämlich die Notwendigkeit eines erklärbaren Modells. Die Menschen müssen in der Lage sein zu erklären, wie das KI-Modell funktioniert und zu welchen Ergebnissen es kommt. Und mit zunehmender Bedeutung eines Ergebnisses steigt auch der Aufwand für die Erklärung dieses Modells. Diese Risikoabstufung wurde im Entwurf der EU-Verordnung für KI aufgegriffen, die KI-Systeme in drei Kategorien einteilt: inakzeptables Risiko (z.B. Social-Scoring-Systeme), KI mit hohem Risiko (z.B. Kreditwürdigkeitsprüfung) und begrenztes Risiko (z.B. Kund*innensegmentierung), und wenn sie in Kraft tritt, wird sie das Risiko der KI für die Öffentlichkeit regeln[11]. Es ist wahrscheinlich, dass die meisten KI-Anwendungen im Finanzdienstleistungsbereich in die Hochrisikokategorie fallen werden, und den Unternehmen wird empfohlen, sich schon lange vor Inkrafttreten der neuen Verordnung auf die Regulierung vorzubereiten.

Ausblick

Da KI-Anwendungen immer leistungsfähiger und verbreiteter werden, werden eine gute Governance und effektive Kontrollen eine immer wichtigere Rolle spielen. Die Einführung von KI-Anwendungen ohne Beeinträchtigung dieser Verantwortlichkeiten bedeutet, dass man darüber informiert sein muss, wie diese Modelle funktionieren, welchen Beitrag sie zum Entscheidungsprozess leisten, welche Risiken damit verbunden sind und wie groß die Auswirkungen etwaiger Fehler im System sein könnten. Ein natürlicher erster Schritt für Unternehmen, die sich auf den Weg der KI begeben, besteht darin, sich zunächst auf Lösungen mit geringem Risiko zu konzentrieren und sicherzustellen, dass die Governance angemessen stark und „praxiserprobt“ ist, um die Risiken anspruchsvollerer Lösungen zu mindern.

Der KI im Finanzdienstleistungssektor steht eine glänzende Zukunft bevor, und eine verantwortungsbewusste Governance der Lösungen wird eine wichtige Rolle für ihren erfolgreichen Einsatz spielen. Indem wir die Modelle eng an ihre Aufgaben binden und sie frei von Verzerrungen und Fehlern halten, werden die besten Ergebnisse für alle gewährleistet.

Quellen und Referenzen:

[1] https://www.businessinsider.com/ai-in-banking-report

[2] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7256567/

[3] https://www.fa-mag.com/news/fidelity-introduces-ai-driven-virtual-assistant-among-wealthscape-platform-enhancements-55961.html

[4]  https://www.lemnisk.co/blog/customer-segmentation/

[5] https://corporates.db.com/files/documents/publications/DB_AI-Securities-Services_24pp_Web.pdf

[6] https://www.businessinsider.com/ai-in-finance

[7] https://www.mastercard.ch/de-ch/mastercard-fuer-geschaeftskunden/haendler/sicherheit-geschaeft/identity-check.html

[8] https://www.capgemini.com/gb-en/news/organisations-must-address-ethics-in-ai-to-gain-publics-trust-and-loyalty/

[9] https://www.technologyreview.com/2021/06/17/1026519/racial-bias-noisy-data-credit-scores-mortgage-loans-fairness-machine-learning/

[10]  https://corporates.db.com/files/documents/publications/DB_AI-Securities-Services_24pp_Web.pdf

[11] https://ec.europa.eu/commission/presscorner/detail/en/ip_21_1682

ist Financial Services Technologist bei IDA Ireland, wo sie für die Akquisition ausländischer Direktinvestitionen für Irland im Bereich der finanztechnischen Forschung und Entwicklung zuständig ist. Nicola Stokes hat in Künstlicher Intelligenz promoviert.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

24831

share

Artikel teilen

Top Artikel

Ähnliche Artikel