Auf Zahlen vertrauen: Ein ethischer (und praktischer) Standard für identitätsorientierte Algorithmen

bei

 / 11. June. 2019

Wer war die echte Tarra Simmons? Am 16. November 2017 [1] saß sie vor dem Obersten Gerichtshof des Staates Washington. Kind drogensüchtiger Eltern und früher selbst süchtig und kriminell, hatte sie später Jura studiert und das Studium als eine der Besten ihres Jahrgangs abgeschlossen. Das Washington State Law Board hatte ihr jedoch die Anwaltszulassung verweigert, aus Angst, die „alte Tarra“ könne zurückkehren. Tarra Simmons wiederum bat das Gericht, ihr zu vertrauen und sie Anwältin werden zu lassen. Der Ausgang ihres Falls hing somit davon ab, ob Tarras Vergangenheit herangezogen werden konnte, um ihre Zukunft vorherzusagen.

Algorithmen, die die Vergangenheit heranziehen, um die Zukunft zu prognostizieren, sind gang und gäbe. Sie sagen voraus, was wir als nächstes anschauen werden, wie stabil unsere Finanzen bleiben werden oder, wie im Fall von Tarra, wie hoch die Wahrscheinlich ist, dass wir ein Verbrechen begehen werden. Die Annahme lautet dabei: „Wenn nur ausreichend Daten vorliegen, ist alles vorhersagbar.“ In den letzten Jahren haben Medienberichte immer wieder den Einfluss von Algorithmen auf das menschliche Wohlergehen aufgezeigt,  aber auch auf die inhärenten Vorurteile und Verzerrungen, die Algorithmen oft zugrunde liegen [2]. Bevor wir also vorschnell KI-Algorithmen einsetzen – wie können wir gewährleisten, dass sie Gerechtigkeit und Fairness fördern und nicht bereits bestehende Ungleichheiten zementieren?

Jüngste Arbeiten von IBM und des IEEE haben dazu beigetragen, einen ethischen Ansatz für künstliche Intelligenz herauszuarbeiten. Die folgenden fünf Grundsätze verdienen besondere Aufmerksamkeit, wenn wir Technologien mit einer identitätsorientierten Herangehensweise überlegt einsetzen wollen.

1. Wohlergehen

Der erste Grundsatz für eine praktische ethische Herangehensweise lautet, dass die künstliche Intelligenz das menschliche Wohlergehen an erste Stelle setzen muss. Das klingt schön und gut, doch wie ist Wohlergehen eigentlich definiert? Sicherlich gibt es allgemeingültige Vorstellungen darüber, was Wohlergehen bedeutet, doch zu einem großen Teil ist es kultur- oder gesellschaftlich bedingt. Es müssen also schwierige Entscheidungen getroffen werden – und der Schutz einer bestimmten Gruppe kann negative Auswirkungen auf eine andere haben.

Mithilfe eines Werkzeugs, das als Ethics Canvas [3] bezeichnet wird, können Unternehmen diese Entscheidungen und Ergebnisse untersuchen und zentral dokumentieren, sodass jeder Mitarbeiter die moralischen Auswirkungen seines Handelns klar verstehen kann.

2. Verantwortung

Wenn die ethischen Entscheidungen mithilfe der oben genannten Ethics Canvas dargelegt sind, müssen Unternehmen gewährleisten, dass sie für die Einhaltung des dokumentierten ethischen Standards Verantwortung übernehmen. Dies geschieht im Wesentlichen auf zweierlei Weise. Erstens müssen beim Entwurf und der Ausgestaltung von Lösungen alle ethischen Entscheidungen dokumentiert werden. Dies spornt die Entwickler, Lösungsarchitekten und Implementierenden dazu an, ethische Entscheidungen zu treffen, und macht für jede einzelne Entscheidung nachverfolgbar, warum sie getroffen wurde. Zweitens muss die Lösung eine Feedback-Schleife umfassen, sodass die Endnutzer (also diejenigen, die von der Technologie direkt betroffen sind) ebenfalls eine Möglichkeit haben, uns zur Verantwortung zu ziehen.

3. Transparenz

Damit uns die Nutzer jedoch zur Verantwortung ziehen können, müssen die Gründe für unsere Entscheidungen für sie transparent sein. Echte Transparenz beantwortet nicht nur die Frage nach dem Warum, sondern macht auch das Wie leicht nachvollziehbar. Wenn es dabei um künstliche Intelligenz geht, ist es wichtig, sich auf eine Weise auszudrücken, die für den Endnutzer gut verständlich ist, da Fachjargon schnell komplex werden kann. Bei einigen Formen der künstlichen Intelligenz ist diese Einfachheit leichter zu erreichen als bei anderen. Nehmen wir zum Beispiel das maschinelle Lernen: Wie soll man wissen, auf welchen Faktoren ein Ergebnis beruht, wenn die künstliche Intelligenz selbstständig lernt? Eine Möglichkeit ist hier der Einsatz von Open-Source-Tools wie LIME [4], die helfen können festzustellen, aus welchen Gründen und anhand welcher wesentlicher Faktoren eine bestimmte Lösung als die richtige gewählt wurde. Diese Transparenz ist mehr als nur Offenlegung um der Offenlegung willen – durch eine klare Kommunikation des Argumentationsprozesses trägt sie dazu bei, Vertrauen auf die KI selbst aufzubauen.

4. Fairness

Damit KI Fairness fördern kann, muss sie ihre eigenen Vorurteile aufdecken – was selbst unter den günstigsten Umständen nicht leicht zu bewerkstelligen ist. Ein Beispiel dafür sind Algorithmen zur Mitarbeitereinstellung oder Gehaltsbestimmung, die historische Daten verwenden, was den Marktwert von Frauen tendenziell nach unten drückt. Diese Datensätze spiegeln kulturelle Trends aus einer Vergangenheit, in der weniger Frauen beruflich so weit aufstiegen wie ihre männlichen Kollegen, aufgrund familiärer Aufgaben oder auch damaliger kultureller Stereotypen. Diese schlechten Daten werden dann zu einer sich selbst erfüllenden Prophezeiung, die Frauen in den Mustern der Vergangenheit gefangen hält. Wenn historisch benachteiligte Gruppen bei der Entwicklung von KI-Systemen nicht mitbestimmen können, bleiben Verzerrungen in den Daten unkorrigiert, und das Ergebnis wird wahrscheinlich die institutionalisierten Vorurteile fortschreiben, die beseitigt werden müssten. Frauen und Minderheiten sind in den Bereichen künstliche Intelligenz und Datenwissenschaft schlecht repräsentiert (an den Universitäten weltweit sind nur 20 % der Fakultätsmitglieder im Bereich KI Frauen). Um Verzerrungen aufdecken zu können, brauchen wir Frauen und Minderheiten in der Forschung, als Rednerinnen und Redner auf Konferenzen und als Leiterinnen und Leiter künftiger KI-Projekte.

5. Rechte an den Benutzerdaten

Die weiteren Grundsätze der Ethik finden ihren wahren Ausdruck in den Rechten an den Benutzerdaten. Die Kontrolle über die Daten, aus denen sich die eigene Identität zusammensetzt, ist nicht nur „nice to have“, sondern ein grundlegendes Menschenrecht.  Technologien, die die Rechte der Benutzer an ihren Daten unterstützen – UMA und Einwilligungsmanagement, Datenanonymisierung und Pseudonymisierung –, sollten für Identitätsexperten eine Selbstverständlichkeit sein. Diese Techniken und Taktiken bilden eine solide Grundlage, um die ethischen Standards zu erfüllen.

Selbstbewertung und Messung

Eine ethische Norm ist nur praktikabel, wenn sie auf irgendeine Weise messbar ist. Wenngleich sich kein Unternehmen und keine Person jemals zu 100 % ethisch verhalten wird, ist es wichtig, regelmäßige Selbstbewertungen durchzuführen, um den Fortschritt auf jeder Achse der ethischen Norm zu messen:

Ziel ist es dabei, ständig besser zu werden: sich der Auswirkungen der KI auf das menschliche Wohlergehen stärker bewusst zu werden;  auf Verantwortlichkeit nach innen und außen hinzuarbeiten; unsere Entscheidungsfindung immer transparenter zu machen; Stimmen einzubeziehen, die sonst vielleicht ungehört bleiben würden; und Standards zu nutzen, um die Rechte der Benutzer an ihren Daten besser zu schützen.

Der Oberste Gerichtshof des Staates Washington entschied am Ende einstimmig zu Tarras Gunsten. In der Urteilsbegründung hieß es: „Wir bekräftigen damit die lange Tradition dieses Gerichts, der Tatsache Rechnung zu tragen, dass die Vergangenheit nicht die Zukunft bestimmt.“ Das ist eine passende Devise in einer Zeit, in der ein Wettlauf um die Einführung neuer prädiktiver Technologien im Gang ist und vielfach die Annahme herrscht, dass mit einer ausreichenden Menge von Daten alles vorhersehbar sei.

Aggregierte Muster aus der Vergangenheit können hilfreich sein, doch dürfen dabei die Menschen nicht vergessen werden, die von den Systemen betroffen sind, die entwickelt werden. Die Verführung durch die Macht und Möglichkeiten von Technologien darf nicht die Ethik überrunden. Wir müssen danach streben, künstliche Intelligenz zu nutzen und doch menschlich zu bleiben.

Quellen und Referenzen

[1] https://www.seattletimes.com/seattle-news/seattle-law-school-grads-bright-future-outshines-her-rough-past-state-high-court-says/

[2] https://www.vox.com/future-perfect/2019/4/19/18412674/ai-bias-facial-recognition-black-gay-transgender

[3] https://ethicscanvas.org/

[4] https://www.oreilly.com/learning/introduction-to-local-interpretable-model-agnostic-explanations-lime

 

Mike Kiser ist Global Security Strategist und Evangelist bei SailPoint, einem führenden Anbieter von Identity Access Governance. Zuvor war der Informatiker und Theologe mehr als 15 Jahre bei IBM in verschiedenen Positionen tätig, darunter als Security Architect und Security Strategist.

Vorheriger ArtikelIoT Security. Digitale Transformation benötigt eine Transformation der Security.
Nächster ArtikelWie KI unsere Gesellschaft verändert: Worauf es jetzt ankommt