Menschen sind anders. Roboter auch.

Von   Dr. Michaela Regneri   |  Produktmanagerin BI Analytics   |  OTTO Group
24. Mai 2018

Künstliche Intelligenz (KI) gestaltet immer größere Teile unserer digitalen Umgebung: Suchmaschinen, Spam-Filter und Produktempfehlungen  haben heute vielleicht schon mehr für uns entschieden als wir selbst. Mit der Selbstverständlichkeit automatisch lernender Algorithmen wächst auch die öffentliche Skepsis, sollte sie es denn in die eigene Filter-Blase geschafft haben: Eine Bitkom-Studie zeigt, dass Menschen den Nutzen von KI durchaus anerkennen, aber sich gleichzeitig vor Missbrauch ihrer Daten (wahrscheinlich mittelbar durch Menschen) und Entmündigung (unmittelbar durch die Maschine) fürchten. Auch der Gedanke an eine übermächtige Superintelligenz schüchtert einige ein. Wieder andere graust es vor schlechtem Service durch KI, was aus meiner Sicht aber eher eine Ur-Angst der Dienstleistungsgesellschaft als ein digitales Phänomen sein dürfte.
KI gilt also nur als eingeschränkt vertrauenswürdig. Kontroverse Diskussionen umkreisen die Frage, ob das Potential der Technologie überhaupt das empfundene Risiko rechtfertigt: Oft gelten künstliche Intelligenzen als „eigentlich dumm“, obwohl sie in teils komplexen Tasks nachweislich besser sind als Menschen, und der Google Assistant dürfte mit seinem Allgemeinwissen bereits in der Grundschule mithalten. Gemeinhin gilt künstliche Intelligenz außerdem als gänzlich unkreativ;  KI-Anwendungen für Malerei, Musik-Komposition oder das Schreiben fiktionaler Texte werden abgewertet, weil sie auch nur aus von Menschen erstellten Daten lernen.

Dieses Image-Problem der KI als gehypter, unzuverlässiger Hochstapler hat drei zentrale Ursachen, die sich in Alltagsbegegnungen mit der Technologie zeigen:

  • KI-Antworten erscheinen Nutzern manchmal absurd und nicht nachvollziehbar.
  • KI-Antworten sind nicht immer reproduzierbar; auch wenn die Umstände identisch erscheinen, gibt die KI oft unterschiedliche Antworten (typische Nutzer-Reaktion: „Jetzt macht es das nicht mehr! Eben ging’s doch noch!“).
  • KIs lösen manchmal für Menschen trivial erscheinende Aufgaben gar nicht – das lässt sie in gewisser Weise besonders tollpatschig wirken.

Roboter als Tollpatsch

Roboter als Tollpatsch

Die verbreitete KI-Tollpatschigkeit beschreibt Moravecs Paradox. Die Dinge, die uns Menschen am leichtesten fallen, machen wir meist unterbewusst – und müssen sie typischerweise sehr lange und sehr oft üben, bevor sie uns als Gewohnheit ohne bewussten Aufwand gelingen. Dazu gehören zum Beispiel die Fähigkeiten aufrecht zu gehen, zu sprechen oder Fehlermeldungen innerhalb von Millisekunden wegzuklicken. Die für Menschen normale Methode zu lernen kann hier von der KI nicht übernommen werden: Es würde erfordern, alles durch Nachahmung zu lernen und jahrelang Menschen zu imitieren. Hier gibt es zwar erste Ansätze für das Lernen durch Imitation, aber es ist nicht die Entwicklungsweise, die wir aktuell von einer KI erwarten. Weder geben wir ihr die Zeit, noch mögen wir den Gedanken an einen Robo-Schatten.

KI wirkt unergründlich

Verunsicherung und Vertrauensprobleme gegenüber künstlicher Intelligenz entstehen vor allem, weil viele moderne Algorithmen selbst für KI-Experten kaum erklärbar sind (erklärbare KI ist eine eigene Forschungsrichtung). Ein Paradebeispiel war AlphaGo (Googles automatischer Go!-Spieler), dessen überlegene Züge auf GO-Profis völlig befremdlich wirkten, aber letzten Endes souverän gegen sie gewannen. Hier war die Leistung der KI also unstrittig – schließlich hat AlphaGo seinen menschlichen Gegner sichtbar besiegt. So indiskutabel sind die Leistungen anderer KI-Algorithmen oftmals nicht.

Viele Daten, viel Zufall

Künstliche Intelligenzen haben keine Gedächtnisprobleme.  Das gibt ihnen auch die Möglichkeit, aus einer Unmenge von Daten zu lernen, wie man Go! oder Civilization spielt, und wie man Katzen auf Bildern erkennt (theoretisch fehlt zu einer akzeptablen Hochkultur also nur noch Starcraft und guter Kaffee).

Das heißt aber auch, dass sie theoretisch eine riesige Auswahl an möglichen Antworten parat haben, unter denen sie sich für die beste entscheiden müssen. Für viele Anwendungen gibt es aber kein eindeutig bestes Ergebnis (anders als bei Katzen-Erkennung oder Go), sondern viele gute: Wenn wir uns von Produkt- oder Videoempfehlungen inspirieren lassen, gibt es viele gute Möglichkeiten. Auch bei Suchergebnissen möchte man vielleicht manche Dinge immer wiederfinden (wie Wikipedia-Artikel), aber die meisten anderen Ergebnisse sollen eine gute Mischung aus wichtig und aktuell sein. Varianz kann hier einfach durch Zufall entstehen – weil der Algorithmus zu viel Auswahl hat und zufällig entscheiden muss.

Menschen würden sich als Berater hinter der Ladentheke typischerweise anders verhalten: Sie hätten nicht nur weniger Optionen für eine Empfehlungsliste (wegen des eingeschränkten Gedächtnisses), sie hätten vielleicht auch die Tendenz, bei gleichwertigen Optionen die altbewährte zu nehmen – ähnlich wie bei der Auswahl im Lieblingsrestaurant, wo man doch oft das gleiche isst. Maschinen bleiben nur bei einer Wahl, wenn es wirklich keine andere aktuell bessere oder gleich gute gibt.

Konsistenz dürfen wir von einer Maschine als Qualitätskriterium also nicht erwarten – diese zuverlässig wirkende, aber oft nicht optimale Entscheidungs-Art ist nur für uns Menschen typisch. Richtig zufällig entscheiden kann ein Mensch gar nicht (und oft auch nicht optimal) – die Maschine aber schon.

Menschenähnlicher bedeutet nicht immer besser

Menschenähnlicher bedeutet nicht besser.

Im Sinne der Erklärbarkeit von KI würden sich wahrscheinlich viele wohler fühlen, wenn man Ergebnisse von KI garantiert oder zumindest in einem gewissen Rahmen vorhersehen könnte. Insbesondere dann, wenn es um direkte Eingriffe ins Menschenwohl geht: Wenn beispielsweise IBMs Watson medizinische Diagnosen berechnet oder die Künstliche Intelligenz VALCRI Gerichtsurteile fällt.

Leider wirken auch scheinbar irrelevante Faktoren auf die Objektivität, selbst bei den professionellsten, unbestechlichsten Menschen: So geben Richter mildere Urteile nach dem Mittagessen, und Fehldiagnosen (ohnehin schon ein beängstigender Faktor in der Medizin) treten öfter auf, wenn der Patient aggressiv ist oder eine Frau.

Wenn man die KI jetzt möglichst menschenähnlich bauen möchte, produziert sie auch menschliche Vorurteile. Ein prominentes Beispiel ist Microsofts Chatbot Tay, der nach kürzester Zeit zum Rassisten und Sexisten wurde. Betroffen sind aber auch Algorithmen zur Bilderkennung oder Software zur Verbrecher-Identifikation.

Erwartet man von der Maschine möglichst menschenähnliche, konstante Entscheidungen, verschenkt man viel Potential. Eine Hauptarbeit in der KI-Entwicklung besteht deshalb darin, ein Qualitätsmaß für die KI-Ausgabe zu entwickeln, insbesondere, wenn es keine eindeutigen Kriterien gibt. Bei Diagnosen ist das End-Kriterium eindeutig: die richtige Krankheit, so sie ermittelbar ist. Für Produktempfehlungen könnten das Käufe, Klicks und ähnliches sein – für Gerichtsurteile oder Chatbots ist die Lösung weniger klar und erfordert hohe Sachkenntnis und viel Fingerspitzengefühl. Hierfür braucht es Menschen, die mit analytischem Know-How Empathie für Künstliche Intelligenzen entwickeln und die Unwägbarkeiten des Machine Learnings nicht nur spannend finden, sondern auch pragmatisch anpacken (suchen wir übrigens laufend).

Chancen Nutzen – Bedenken ernst nehmen

Chancen nutzen, Bedenken ernst nehmen.

Wenn wir KI nutzen wollen, müssen wir nicht warten, bis sie sich verhält wie ein Mensch, und wir sie so auch ganz genau verstehen. Wir müssen aber dringend nachdenken, worin sie gut sein soll (z.B. Go Spielen), und wie man das messen kann (z.B. durch Gewinnen), ohne unsere Fehler mit einzubauen. Oft findet man Antworten im eigentlichen Ziel der KI, beispielsweise der Generierung von Umsatz, Engagement, Kundenzufriedenheit oder schlicht Zeitersparnis. Auf otto.de überwachen wir die Qualität unserer automatisierten Produktempfehlungen unter anderem anhand von Klicks, die uns unmittelbar zurückmelden, ob die von der Maschine vorgeschlagenen Artikel für die Besucher unseres Shops tatsächlich relevant sind. So hilft uns KI, bei wachsendem Sortiment auf immer individuellere Kundenwünsche einzugehen, ohne dass wir den Algorithmen zu detailliert auf die Finger schauen müssen.

Hinzukommen können und sollten immer Regeln im Sinne eines Corporate Designs. Solche Regeln können sowohl die Objektivität fördern als auch ein individuelles Branding zum Ausdruck bringen: Bestimmte Daten wie Geschlecht oder Alter können zum Beispiel absichtlich ignoriert werden, oder ein Chatbot kann eine Corporate Language oder eine Persona verkörpern. Dann bekommt die objektiv messbare Qualität einen zum Unternehmen passenden Stil.

Sind diese durchaus anspruchsvollen Rahmenbedingungen gewährleistet, sollte man sich unbedingt trauen, die Fähigkeiten lernender Systeme zu nutzen: AlphaGo kann mittlerweile Go lernen, ohne ein einziges menschliches Spiel gesehen zu haben – einfach dadurch, dass es gegen sich selbst antritt, und anfänglich nur zufällige Züge macht. Das funktioniert, weil das Spiel klare Regeln hat, und es einfach ist, eine gute neue Taktik zu identifizieren, nämlich indem man gewinnt. Das System spielt nach ein paar Tagen Übung besser als jeder Mensch, wenn auch ganz anders.

Wenn uns dabei für manche Aufgaben kein gutes Messkriterium einfällt, hilft uns vielleicht auch bald eine Maschine weiter, die andere Maschinen beurteilen kann. Das könnte eine salomonische Maschine werden, die gerecht und unbestechlich ist. Und für fast alles andere können wir ruhig weiterhin weniger langweilige Maschinen haben, die sich mehr verhalten wie wir Menschen.

Dr. Michaela Regneri begeistert sich für künstliche Intelligenz, insbesondere im Bereich Cognitive Computing mit Sprache, Bildern und allen anderen Arten von Mensch-Maschine-Interaktion. Nach ihrer Promotion in Computerlinguistik war sie zunächst beim SPIEGEL verantwortlich für Suche und Data Mining im Verlagsbereich. In ihrer aktuellen Rolle als Produktmanagerin für Business Intelligence Analytics bei OTTO gestaltet und hinterfragt sie unterschiedlichste KI-Anwendungen für E-Commerce, die für den Wachstumskurs und die Weiterentwicklung des Hamburger Onlinehändlers zur Plattform von strategischer Relevanz sind.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

21346

share

Artikel teilen

Top Artikel

Ähnliche Artikel