Wer glaubt, Künstliche Intelligenz sei aus sich selbst heraus perfekt, muss umdenken. Der menschliche Faktor spielt immer noch eine wichtige, aber bislang zu wenig reflektierte Rolle.
Künstliche Intelligenz ist menschlich geprägt. Eine aktuelle Studie der Universität von Columbia zeigt den großen – und gleichzeitig subtilen – Einfluss natürlicher Intelligenz auf die Ergebnisse von KI-gestützten Analysen und Prognosen. Danach beeinflussen die Auswahl der Trainingsdaten (Samples) und die Biografien der entwickelnden IT-Ingenieure die Ergebnisse von Machine Learning und deren Nutzung in KI-gestützten Systemen.
Die Untersuchung zeigt die Brisanz des aktuell heiß diskutierten Themas „Ingroup Bias“ oder „WEIRD Samples“. Es beschreibt den Einfluss persönlicher, gruppenspezifischer Erfahrungen und Einstellungen auf die Ergebnisse von ML und KI. „WEIRD“ steht dabei für „Western, Educated, Industrialized, Rich, Democratic“ und die Tatsache, dass Programmierer und IT-Ingenieure überwiegend aus vergleichsweise wohlhabenden westlichen Industriestaaten mit demokratischen Ordnungen und ausdifferenzierten Bildungssystemen stammen. Und die transportieren ihre dort erworbenen Vorstellungen und Prädispositionen unbewusst auch in die Algorithmen ihrer KI-Modelle, die in den entsprechend disponierten Peer Groups entwickelt werden.
Um Missverständnissen vorzubeugen: Prägungen und die daraus resultierenden Voreingenommenheiten sind völlig normal und selbstverständlicher Teil jeder Persönlichkeit. Es kommt jedoch darauf an, wie man damit umgeht, wie bewusst man sie sich macht und welche Konsequenzen man daraus zieht. Negativ werden sie dann, wenn sie Denken und Handeln unreflektiert bestimmen und zu Diskriminierungen (Bias) von Menschen mit anderer Biografie führen. Die beste Prophylaxe dagegen ist Diversifizierung. Sie verhindert die unbewusste algorithmische Diskriminierung durch eine KI-Community, die vornehmlich aus weißen, männlichen Software-Entwicklern aus westlichen Staaten besteht. Eine repräsentative Mischung von Herkunft, Hautfarbe, Geschlecht, Religion und sozialem Umfeld gehört deshalb zu den Vorgaben bei den Auswahlkritierien für die Zusammensetzung von ML- und KI-Teams.
Die zweite Lehre, die aus den Ergebnissen der Studie gezogen werden muss, ist die Schärfung des generellen Bewusstseins für die Bedeutung des menschlichen Einflusses in der KI-Entwicklung. Er ist keine methodische Verunreinigung oder ein zu eliminierender Störfaktor sondern elementarer Teil des Entwicklungsprozesses. Er muss einkalkuliert, kontrolliert, gesteuert und sinnvoll genutzt werden. Wir müssen uns klar darüber werden, wie schwerwiegend die Folgen andernfalls sein könnten, beispielsweise bei der Gesichtserkennung in komplexen algorithmischen Entscheidungssystemen.
Wichtige gesellschaftliche Aufgaben wie Gesundheitssysteme, Arbeitsmärkte oder Strafverfolgung werden in Zukunft nicht ohne KI-Unterstützung zu bewältigen sein. Dafür werden auf Dauer nur Bias-resistente Systeme akzeptiert. Diversifizierte Teams und deren diskriminierungsfreie Algorithmen sind daher ein dringend benötigtes Gut.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.