Bereits 2014 testete Amazon den Einsatz von KI-Werkzeugen bei der Vorauswahl von Bewerbungen. Die HR-Sachbearbeiter freuten sich, dass sie mehrere hundert Eingangsbewerbungen nicht mehr von Hand durcharbeiten mussten, sondern von der KI die vermeintlich am besten passenden Kandidaten vorausgewählt bekamen. Bis sie feststellten, dass die Auswahl weiße Männer bevorzugte. Frauen und Angehörige anderer Ethnien wurden systematisch benachteiligt. Die Analyse der Entscheidungsprozesse zeigte, dass das Machine-Learning-System beim Training erkannte, dass in der Vergangenheit überwiegend weiße Männer im Unternehmen Karriere machten – und bildete dieses unbeabsichtigte Ungleichgewicht in seinen Entscheidungen ab. Das problematische Tool wurde schnell wieder abgeschafft [1].
Ein anderes Beispiel aus den technikaffinen USA geht in eine ähnliche Richtung: Das staatliche Gesundheitssystem ließ eine KI einschätzen, welche Patienten einen besonderen Pflegebedarf hatten. Eine im Oktober 2019 erschienene Studie [2] wies allerdings nach, dass Afroamerikanerinnen und Afroamerikaner bei gleich schwerer Krankheit vom System seltener für die zusätzliche Pflege vorgeschlagen wurden. Offenbar hatte der Algorithmus die Risikohöhe der Patienten anhand der zu erwartenden Kosten für die weitere Behandlung berechnet. Da im US-Gesundheitssystem in der Vergangenheit mehr Geld für die Behandlung von Weißen beziehungsweise umgekehrt weniger Geld für die Behandlung von Afroamerikanern ausgegeben wurde, wurde genau diese vorurteilsbedingte Daten-Historie zur selbsterfüllenden Prophezeiung.
Aber auch hierzulande gibt es Beispiele, dass Scoring-Systeme wie etwa die Prüfung von Kreditwürdigkeit durch Banken Ungerechtigkeiten produzieren, indem sie etwa die Solvenz eines Antragstellers auf Basis der Wohngegend der angegebenen Adresse einschätzen – und somit die Kreditwürdigkeit des Beurteilten an der seiner Nachbarn.
Unintelligente KI kann sehr problematische Konsequenzen haben
Die Beispiele zeigen, dass vermeintlich „intelligente“ Systeme zu unintelligenten Ergebnisse führen können, die dann möglicherweise sehr problematische Konsequenzen zeigen. Umso schlimmer ist dies, wenn die Betroffenen – und oft nicht einmal die Nutzer – solche Verzerrungen und Fehlentscheidungen gar nicht erkennen.
Wie lässt sich dies überhaupt erkennen und im nächsten Schritt verhindern? Diese Frage stellten wir dem aus den bisherigen Folgen bereits wohlbekannten KI-Experten und Philosophen Dr. Leon R. Tsvasman [3]. „Daten sind schlecht, wenn sie unvollständig sind“, so der Experte. „Also liegt das Problem in der reduzierten Komplexität – der spezifisch menschlichen Neigung, komplexe Zusammenhänge zu vereinfachen – sie zu verkürzen, zu pauschalisieren, zu trivialisieren.“
Das Problem liege also darin, wie sich die an der Datenaufbereitung [4] beteiligten Menschen organisieren und verständigen. Die Datenquellen, so Dr. Tsvasman, werden ja im Auftrag von Unternehmen oder Organisationen bereitgestellt, die Systeme entsprechend im Auftrag solche Instanzen trainiert. „Wenn sich ein Mensch mit einem anderen Menschen verständigt, um gemeinsam etwas zu tun – was direkt oder indirekt wohl immer der Fall ist – vereinfacht man gerne, um zügig zu Ergebnissen zu kommen.“
Wohin dies führt, ist an vielen Beispielen klar zu erkennen: „Umwelt? Nachhaltigkeit? Alles schön und gut und auch irgendwie relevant. Aber eigentlich müssen wir Autos verkaufen.“
Die meisten wirklichen Probleme sind nicht so eindeutig wie Komplexitätsreduktion nahelegt
Mit einem anderen Beispiel unter dem Eindruck der Fußball-EM verdeutlicht der KI-Experte seine Einschätzung: „Ein Dichter, der sich – frei von Verständigung zwecks gemeinsamer Zielerreichung –den Nuancen eines Moments widmet, erkennt darin eine ungeheurere Vielfalt und Komplexität, und würdigt sie entsprechend. Aber ein Fußballspieler sieht nur den Ball, die Mit- und Gegenspieler, die Situation auf dem Feld usw. Die Poesie des Fußballs mag auch spannend sein – aber weniger relevant, wenn man vor dem Tor steht. Wenn Sie einen Spieler trainieren, der ein Spiel gewinnen soll, sind Sie auf die Pragmatik des konkreten Spiels und des angestrebten Siegs fokussiert. Der Mensch als Spieler ist deshalb nicht der ,ganze Mensch‘ mit allen seinen Potenzialen. Ebenso ist eine konkrete KI-Lösung nur ein Problemlösungsinstrument für ein konkret definiertes Problem.“
Doch die meisten wirklichen Probleme der Welt, betont Dr. Tsvasman, seien eben selten so eindeutig wie in der symbolisch reduzierten Wirklichkeit des Spiels. Und genau dies stehe stellvertretend für die meisten Situationen, die Menschen als problematisch sehen. Vereinfacht arbeitende KI-Werkzeuge führen dann auch nur zu vereinfachten und verzerrten Lösungen.
Hinzu komme ein weiterer Aspekt: Alle aktuell verfügbaren Daten kommen nicht „sauber“ von ihren menschlichen Urhebern, sondern beinhalten immer noch – in die semantische (also begriffliche) Hülle unserer Sprachen und Begriffswelten verpackt – die Setups und Arrangements der bestehenden gesellschaftlichen Verhältnisse.
Zeitdruck kostet uns Wahlmöglichkeiten
„Das Lückenhafte der vorhandenen Daten hat immer den Stempel einer konkreten menschlichen Aktualität in sich. Und die Muster dieser Lücken sind vielfältig, weil sie in den konkurrierenden Machtinteressen medialisiert und somit verzerrt werden – durch diverse tradierte und zum Teil auch willkürliche Verfahren, Filter, Abläufe, Bedenken, Vorurteile, Ängste und Glaubenssätze. Dies passiert schon lange bevor diese Daten für die Verarbeitung durch KI-Systeme verfügbar gemacht werden.“
Der Philosoph und Medienforscher führt weiter aus: „In jedem von Menschen aus seiner konkreten Aktualität stammenden ,Fakt‘ stecken Anteile von Visionen, Machtkonstellationen oder Ungewissheit. Solche Fakten sind nicht identisch mit Daten, die KI nachhaltig zum Lernen befähigen können.“ Wir seien es gewohnt, unter Zeitdruck zu handeln, und uns dabei – oft leider ziemlich willkürlich – auf das Wesentliche zu reduzieren. „Unsere eigenen Potenziale zugunsten einer allzu eng skalierten Aktualität opfernd, überwältigen wir uns selbst oder unsere Mitmenschen. Eine globale KI müsste das nicht – es sein denn, ihr wird es mehr oder weniger durch missverständliche Vorenthaltung oder systemische Verzerrung von Daten im Sinn willkürlicher Paradigmen aufgezwungen.“
Ein Mensch könne die ethische Maxime der Kybernetik („Handle stets so, dass die Anzahl deiner Wahlmöglichkeiten steigt.“) kaum umsetzen, weil er die Komplexität seiner Wahlmöglichkeiten gar nicht zu überblicken vermag. „Das menschliche Gehirn wäre dazu zwar in der Lage – das Ergebnis würde uns als Intuition erscheinen –, könnte aber nicht bewusst mit Begriffen in seiner konkreten sozialen Aktualität kommunizieren. Die meisten von uns würden nicht einmal nachvollziehen, dass man bessere Wahlmöglichkeiten hat, wenn die anderen sie auch haben. Aber selbst wenn man diese Zusammenhänge indirekt versteht, hat man in seiner Aktualität nicht die Bedenkzeit, adäquat in diesem Sinne zu handeln.“
KI muss von interessengeleiteten Verzerrungen befreit werden
Wie aber könnte eine Lösung dieses Dilemmas aussehen? Hierzu verweist Dr. Tsvasman auf einen Gedanken aus seinem jüngst erschienenen Buch „Infosomatische Wende“: „Es wird zunehmend offensichtlich, dass alle beschreibenden, klassifizierenden oder zuweisenden Differenzbegriffe unter Beachtung höherer Komplexität im übergreifenden Aktualitätsdiskurs tendenziell diskriminierend sind, weil Bedeutungen der meisten Wörter die Chimären tradierter Aktualität auf undefinierbare Potenzialitäten realer Subjekte übertragen. Wie kann also etwas aus den Daten getilgt werden, was schon unter den Menschen, die die Daten liefern, nicht ausreichend geklärt ist, dass die begrifflichen Limits aufgebrochen werden?
Aber eins ist sicher, und davon dürfen wir ausgehen: Wenn sich Algorithmen anhand von tendenziell vollständigen und nicht durch Interessen oder im Auftrag von Unternehmen, Organisationen oder Menschengruppen verfälschten oder ignorierten Daten in Echtzeit anpassen, womit die Mensch-KI-Intersubjektivität priorisiert wird, gibt es weniger Diskriminierung als in allen bisherigen Regulationen, an denen Menschen unmittelbar beteiligt sind. Und es ist auch wenig bedenklich, wenn einige Datenschleifen dabei aufgrund der Komplexität zunehmend oder gar exponentiell KI-intern ablaufen und somit in sich hermetisch werden, also zwar von internen Routinen, aber nicht mehr von Personen-im-Auftrag kontrolliert werden.“
Analog zur Medizin soll auch KI zunächst einmal keinen Schaden zufügen
Um Missverständnisse zu vermeiden, unterstreicht Dr. Tsvasman: „Kontrolle durch Personen-im-Auftrag – etwa im Auftrag von Organisationen oder Unternehmen – meint NICHT die Kontrolle durch den Menschen, sondern im Interesse von komplexitätsreduzierter Sinnproduktion trivialisierten systemischen Strukturen, die keine Wahrheit besitzen und nicht mal danach streben, sondern eine mehr oder weniger verkürzte, vereinfachte und kurzfristige Relevanz verkörpern.
Echte Kontrolle durch den Menschen ist an die menschliche Potenzialität gekoppelt – die Daten entstehen aus echten, lebenden sich orientierenden und sich änderndem Menschen in Echtzeit. Diese Menschen sind nicht irgendwelchen externen Parametern aus einer tradierten Aktualität heraus („du sollst“), sondern der echten gelebten hochkomplexen Subjektivität verpflichtet, die in einer realen Intersubjektivität aufgeht. Oder anders gesagt: In einem dynamischen Äquilibrium von intersubjektiven Wirklichkeitskonstruktion, die laufend aktualisiert wird.“
Der KI-Experte fährt fort: „Solange es verkürzte, das heißt komplexitätsreduzierte und kurzfristige Interessen gibt – und die gab es im Rahmen der Mensch-Mensch-Intersubjektivität immer schon –, bestimmen auch Intrigen und Machtkämpfe die Relevanz. Also geht es kurz- bis mittelfristig nicht darum, menschliche Akteure mit Kontroll-Interessen von der KI-Regulation fernzuhalten, sondern diese in einem vorsichtigen Ansatz so zu berücksichtigen, dass möglichst wenig unumkehrbarer Schaden in Form von Verzerrungen, die das Leben von Menschen und die Natur betreffen, erzeugt wird.“
„Das Hauptgebot der Medizin lautet „keinen Schaden zufügen“. Und das kann nicht nur passiv geschehen, sondern auch aktiv – etwa durch „unterlassene Hilfeleistung“. So ähnlich sollte es bei jedem Versuch laufen, KI durch kurzfristige, lokale oder pragmatische Interessen von menschlichen Organisationen präventiv oder reaktiv zu kontrollieren – und somit einem kleineren Übel eine viel größere Gefahr entgegenzustellen.“
Das Dilemma lässt sich nicht ohne Aufklärung, Bildung und Förderung systemischen Denkens lösten
Was sich in der Theorie einfach fordern lasse, stelle sich in der aktuellen Wirklichkeit als komplexes, aber notwendiges Unterfangen dar. Eine wesentliche Rolle spiele dabei Aufklärung, die schon heute auf die zukünftige Mensch-KI-Intersubjektivität vorbereiten müsse. Und das sei gar nicht so einfach zu erreichen, denn das dafür notwendige systemische Denken sei grundlegend anders als heute verbreitete Denkweisen: Relational und nicht faktenbezogen, und einhergehend mit der Einräumung eine höheren (Eigen-)Verantwortung des sich orientierenden Subjekts – gegenüber unterkomplexen, naiv-realistischen Weltbildern.
„Vollendet ist diese Aufklärung erst dann, wenn es zur Selbstverständlichkeit wird, dass Vielfalt mehr Wert hat als Klarheit, wenn den intrinsisch motivierten Denkertum selbstverständlicherweise der höhere Respekt entgegengebracht wird als etwa den nach den strikten ,klaren‘ Regeln untereinander und unter gesundheitsschädlichem Einsatz konkurrierenden Athleten.“
Bezogen auf die Datenqualität ergebe sich daraus: „Je ,echter‘ – also fließender, dynamischer und somit individueller – die Daten sind, desto präsenter werden auch einzelne Personen, Zustände und somit auch ihre „wahrhaftigen“ Potenziale.“
Dies geht nach Einschätzung von Dr. Tsvasman nicht ohne ein konzeptionelles „Upgrade“ von Governance, Wirtschaft und Bildung: „Wenn Personengruppen aufgrund von selektiven Merkmalen wie Hautfarbe, Herkunft, Gesundheitszustand präventiv schützen wollen, werden im Gegenzug automatisch Personen mit anderen Merkmal-Konstellationen oder die gleichen Personen mit nicht gruppentypischen Verhaltensweisen oder in nicht klassifizierbaren Lebenssituationen diskriminiert.“ Diese Verzerrungen seien auch schon deshalb „einprogrammiert“, weil aktuell in jeder einzelnen Gemeinschaft oder gar geopolitisch unterschiedliche Relevanzleitkulturen priorisiert werden.
Dr. Tsvasmans Fazit: „Solange wir selbst nicht genau wissen, was ,das Wohl der Menschen ausmacht‘, können wir von keiner Hilfsintelligenz verlangen, in diesem Sinne ,gerecht‘ zu entscheiden.“ Den Ausweg, so der KI-Experte, böten die Konzepte, die in den bisherigen Folgen unserer Gesprächsreihe, schon ausführlich vorgestellt wurden: „Die Lösung kann nur sein, diese Hilfsintelligenz so zu konzipieren, dass sie uns dazu befähigt, die entscheidenden Erkenntnisfragen selbst zu beantworten.“
Quellen und Referenzen
[1] https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
[2] https://www.nature.com/articles/d41586-019-03228-6
[3] https://www.linkedin.com/in/tsvasman/
[4] https://www.techtag.de/it-und-hightech/kuenstliche-intelligenz/data-science-lifecycle-iterativ-zum-erfolgreichen-ki-projekt/
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.