“Künstliche Intelligenz ist wahrscheinlich das Beste und das Schlimmste, was uns passieren kann”, hat Stephen Hawking einmal gesagt. Damit hat er die beiden Pole beschrieben, zwischen denen sich die aktuelle Diskussion um den Einsatz von KI in Unternehmen abspielt. Da sind zum einen diejenigen, die in KI vor allem unendliche Möglichkeiten sehen, das (Arbeits-)Leben von Millionen von Menschen zu gestalten und – ja – auch Geld damit zu verdienen, zum Beispiel Tech-Start-ups, die mit Begeisterung immer schneller neue digitale Lösungen entwickeln.
Zum anderen gibt es aber auch mehr oder weniger konkretes Unbehagen aufgrund der kolportierten und tatsächlichen Risiken mit Blick auf einen potenziellen Missbrauch von KI. Stimmen, die eine stärkere Regulierung fordern, werden lauter. Zu den Skeptiker*innen gehören unter anderem Betriebsräte in Unternehmen. So sprechen sich laut einer Studie des Bundesverbandes der Personalmanager*innen (BPM) und des Ethikbeirats HR-Tech 86 Prozent von ihnen für gesetzliche Vorgaben aus, um den Einsatz von KI in kontrollierte Bahnen zu lenken.
Die Diskussion ist in vollem Gange und beinhaltet viele spannende Fragen:
● Wenn Menschen KI-Systeme programmieren: Wie lässt sich verhindern, dass Vorurteile, die in vergangenheitsbezogenen Daten stecken, systemseitig auch in der Zukunft fortgeschrieben werden? Muss eine Technologie reguliert werden, bevor sie überhaupt richtig entwickelt ist?
● Was, wenn selbstlernende Maschinen irgendwann besser sind als Menschen und diese sogar manipulieren?
● Kommen gesetzliche Regelungen zu spät?
● Ist die Realität dem Wissensstand der Politik nicht bereits voraus?
Gütesiegel oder Gesetz?
Dass es bei einer so mächtigen Technologie eine Form von Kontrolle geben muss, ist den meisten klar. Wie diese aussehen kann und sollte, bleibt zu klären. Der Journalist Veit Dengler schreibt diesbezüglich in einem Beitrag für Der Standard sinngemäß, dass eine Firma wie Apple, die in einer Garage gegründet wurde, im europäischen Kulturraum schon wegen diverser Garagennutzungsverordnungen nicht entstehen könnte. Dabei verweist er auf die Errungenschaften in puncto Lebensqualität, die uns strenge Regulierungen durch die EU beschert haben, warnt aber zugleich vor Überregulierung als Bremse auf dem Weg in die Zukunft.
Ähnlich sehen es viele Unternehmen, die KI entwickeln. „Statt dystopischer Zukunftsszenarien muss die Regulierung die Potenziale von KI in den Mittelpunkt rücken“, meint Nicole Formica-Schiller, Vorstandsmitglied des KI Bundesverbandes. Dieser Verband, unter dessen Dach sich vor allem Tech-Start-ups zusammengeschlossen haben, hat 2019 ein Gütesiegel für KI auf den Weg gebracht, mit dem sich die Zertifizierten klare Regeln im Umgang mit KI auferlegen wollen. Ein Jahr später erschienen zudem die Leitlinien des Ethikbeirats HR-Tech für die verantwortungsvolle Nutzung von Mitarbeiterdaten.
Orientierung in der Blackbox
Selbstverpflichtungen und Leitlinien sind zweifellos ein erster, wichtiger Schritt, auf den weitere folgen müssen, sind sie doch vor allem effektiv, wenn sie auch kontrolliert werden und ihre Nichteinhaltung sanktioniert wird. Und speziell auf Leitlinien kann sich nur stützen, wer sie auch kennt und bereit ist, sie anzuwenden. Die bereits zitierte Umfrage von BPM und Ethikbeirat HR-Tech belegt, dass sich zwar 80 Prozent der befragten Betriebsräte entsprechende Leitlinien wünschen, die vorhandenen Empfehlungen aber nur vier Prozent bekannt sind.
Neben der generellen Kenntnis über entsprechende Angebote bleiben zudem einige grundsätzliche Fragen:
● Wer hat das nötige Wissen, um KI-Systeme wirklich zu durchdringen? – Algorithmen sind mitunter so komplex, dass nicht einmal die Entwickler*innen genau wissen, wie sie funktionieren. Dieses sogenannte Blackbox-Problem macht es schwer, sie zu kontrollieren.
● Wie kann Rechtssicherheit geschaffen werden in Bereichen, deren zukünftige Entwicklung kaum vorhersehbar sind?
Diese Fragen auch nur ansatzweise zu beantworten, wird vermutlich Jahre dauern, während die technologische Entwicklung rasend voranschreitet. Wie können Unternehmen in diesem Dilemma KI so einsetzen, dass sie dem Menschen (möglichst nur) das Beste beschert, wie Stephen Hawking es sich wünscht?
Tatsächlich haben Unternehmen einen Hebel, um in Übergangsphasen wie der aktuellen nicht zum Abwarten verdammt zu sein: ihre Unternehmenskultur, oder genauer: eine ethische Unternehmenskultur, die eine ethische Nutzung von Technologie maximal wahrscheinlich macht. Folgende Schritte können dabei einen Kulturwandel einleiten:
1. Revision und Zieldefinition
Bevor sich Organisationen voreilig und pseudo-innovativ neuer Technologien bedienen, sollten sie zunächst überlegen, welche Fragen sie mittels KI überhaupt beantworten wollen. Es bringt nichts, Unmengen von Daten anzuhäufen und zu analysieren, wenn das Warum und Wofür nicht geklärt ist. Dieses Wofür sollte sich vor allem daran orientieren, was Menschen brauchen, die mit dem Unternehmen in Beziehung stehen.
2. Angst durch Zuversicht ersetzen
„Angst ist ein schlechter Berater, weil durch sie unsere ohnehin nicht besonders gute Risikoeinschätzung noch miserabler wird. (…) Ein Gehirn im Alarmmodus (…) sorgt nicht dafür, dass sein Träger gute Entscheidungen (…) mit langfristigem Blick nach vorn treffen kann.“ schreibt Dr. Maren Urner, Professorin für Medienpsychologie. Unternehmen können also selbstkritisch ihre Haltung hinterfragen und sich bewusst entscheiden, KI offen statt ängstlich zu begegnen und die Chancen in den Blick zu nehmen. Ein mitarbeiterzentrierter, transparenter, selbstbestimmter und verantwortungsbewusster Umgang mit HR-Daten kann die Basis verbessern, auf der Entscheidungen in Unternehmen getroffen werden, und im Ergebnis das Arbeitsleben vieler Menschen zum Positiven beeinflussen.
3. Fortschritt transparent machen
Alle Auswirkungen von KI bereits im Vorfeld zu kennen, ist ein Anspruch, dem niemand gerecht werden kann. Umso wichtiger sind regelmäßige Tests, Evaluationen und Risikoabwägungen, getreu dem Motto: Wenn du es denken kannst, könnte es auch passieren. Sprich: Szenarien, die schon jetzt vorstellbar sind, sollten theoretisch und praktisch durchgespielt, bewertet und bei negativen Ergebnissen durch entsprechende Interventionen zukünftig verhindert werden.
Alle Erkenntnisse auf diesem Weg sollten dokumentiert werden, sodass sie für Dritte auch ohne technische Vorkenntnisse nachvollziehbar sind. Denkbar wäre ein öffentlich zugänglicher Registerauszug analog zum Handelsregister, in dem Tech-Firmen anhand fester Fragestellungen ihren Fortschritt in puncto ethischer Datennutzung dokumentieren bzw. Prozesse und Ansprechpersonen offenlegen.
Die Initiative Fairness, Accountability, and Transparency in Machine Learning, kurz FAT/ML, hat Leitfragen erarbeitet, die Tech-Unternehmen als Grundlage in den verschiedenen Entwicklungsphasen dienen. Ein damit verknüpftes Punkte-System könnte regeln, wann eine Software die Kriterien erfüllt, um in Unternehmen eingesetzt zu werden. Analog dazu könnte es einen Kriterienkatalog auf Seiten des nutzenden Unternehmens geben, der erfüllt sein muss, bevor die Technologie dort zum Einsatz kommen kann.
4. Neue Rollen festlegen
Zu den Kriterien, die vor einer Implementierung von Technologie erfüllt sein müssen, gehört die Einführung und Besetzung neuer Rollen. Martin Kersting, Professor für Wirtschaftspsychologie und Mitglied des Ethikbeirats HR-Tech, ist beispielsweise überzeugt, dass Unternehmen KI nicht allein den „Nerds“ überlassen dürfen. Stattdessen sollte eine offene Diskussion über die verantwortungsvolle Nutzung von Algorithmen und Daten in der breiten Belegschaft geführt werden. Dafür braucht es Rollen an der Schnittstelle von Technologie und Kultur, die diese Diskussion forcieren, moderieren und dokumentieren. Denkbar wäre ein*e “Chief of Technology & Ethics” mit Fokus auf der Einhaltung relevanter Kriterien und Überwachung kritischer Prozesse.
5. Mehr Zeit für Reflektion
Sich immer wieder aktiv mit Denkmustern, Verhaltensweisen und (ungewollten) Vorurteilen auseinanderzusetzen sollte fest in Unternehmen verankert werden. Mitarbeitende brauchen Zeit und geschützte Räume, um sich und anderen kritische Fragen zu stellen. BarCamps oder andere Formate, zu denen alle Mitarbeitenden eingeladen sind, könnten regelmäßig explizit zum Thema KI stattfinden. Auf diese Weise werden möglichst viele Perspektiven und Argumente gehört und es ist wahrscheinlicher, blinde Flecken im Umgang mit KI und Daten zu erkennen.
6. Lernen als Arbeitszeit etablieren
KI mag einige menschliche Tätigkeiten überflüssig machen. Vor allem aber ruft ihr Einsatz neue Kompetenzen auf den Plan. Wer sich für eine Karriere im HR-Bereich entschieden hat, um möglichst viel mit Menschen und möglichst wenig mit Zahlen zu tun zu haben, wird umdenken müssen. Datenanalyse und die Einordnung von Entscheidungen, die KI auf Basis von Big Data getroffen hat, gehören zu den neuen Aufgabenfeldern in HR. Mitarbeitende, die KI nutzen, müssen diese verstehen lernen. Gleiches gilt für Betriebsräte, die nicht nur die sozialen Folgen Algorithmen-basierter Entscheidungen im Blick haben müssen, sondern auch Weiterbildungen im Hinblick auf die Beschäftigung von Mitarbeitenden in tiefgreifenden Veränderungsprozessen. Der Arbeitsalltag der Zukunft wird zu einem großen Teil von (bezahltem) Lernen bestimmt. Hier braucht es entsprechende Signale aus der Unternehmensleitung sowie neue, offene und flexible Strukturen, in denen kontinuierliches Lernen möglich ist.
7. Diversität fördern
Diversität ist so wichtig wie nie zuvor. Eine durch Vielfalt charakterisierte Belegschaft erlaubt es, möglichst viele Erfahrungswerte, Kenntnisse und Blickwinkel in die Diskussion um eine ethische Datennutzung einzubeziehen und (unbewussten) Vorurteilen entgegenzuwirken.
8. Jobsharing und vernetztes Arbeiten in allen Bereichen einführen
Job Sharing sollte Normalität in allen Teilen und auf allen Ebenen des Unternehmens werden. Das Vier-Augen-Prinzip sorgt dafür, dass Entscheidungen immer von mindestens zwei Perspektiven geprägt sind. Bei der Entwicklung von KI könnten divers und interdisziplinär besetzte Teams verpflichtend sein. Weitere Lern- und Vernetzungsformate, wie Mentoring, Job Shadowing oder Peer-Learning fördern eine Unternehmenskultur, in der der eigene Standpunkt nicht als das Maß der Dinge betrachtet wird.
9. Werte verankern: Der Mensch im Fokus
Die Auswertungen, die KI liefert, stützen sich auf Daten. Doch weder Daten noch Auswertungen sind neutral. Sie dienen lediglich als Referenzpunkte für Entscheidungen, die von Menschen getroffen werden. Alles, was an Erfahrungen, Wissen, Erwartungen und Weltsicht in unserem Gehirn vorhanden ist, so Dr. Maren Urner, beeinflusst unsere Wahrnehmung und damit auch die Grundlage, auf der wir entscheiden. Die Erfahrungen, die Menschen täglich in ihrem Arbeitsumfeld sammeln, dürften einen erheblichen Einfluss auf ihre Weltsicht haben – und damit auf ihre Entscheidungen.
Identifiziert die KI-basierte Software beispielsweise eine hohe Kündigungsbereitschaft einer Mitarbeiterin, gibt es verschiedene Möglichkeiten, damit umzugehen. In einem Umfeld, in dem Menschen vor allem als Ressource gesehen werden, würde HR vermutlich entscheiden, die Person von weiteren Entwicklungsmaßnahmen auszuschließen und die Nachfolgeregelung zu überprüfen. In einer Organisation wiederum, die ein echtes Interesse an den Bedürfnissen ihrer Mitarbeitenden hat, würde das Ergebnis aus der Datenanalyse vermutlich als Anlass genommen, mit der kündigungswilligen Kollegin zu sprechen und sie nach ihren Wünschen, Interessen und Entwicklungsbedarfen zu fragen, um sie im Unternehmen zu halten.
Fazit
KI ethisch zu entwickeln und zu nutzen, kann nur gemeinsam gelingen – mit Akteur*innen aus Wirtschaft, Wissenschaft, Politik und Zivilgesellschaft. Neue Erkenntnisse auf diesem Gebiet entsteht nur, wenn wir den vor uns liegenden Weg mit Neugier und Offenheit gehen, bepackt mit einem Rucksack freiheitlicher, demokratischer und inklusiver Werte.
Leitlinien, wie die des Ethikbeirats HR-Tech oder der Initiative Fairness, Accountability, and Transparency in Machine Learning sowie Selbstverpflichtungen, wie das Gütesiegel des KI Bundesverbandes, können dabei als Orientierungshilfe und als Basis für verbindliche Umsetzungsregeln dienen. Ihre Einhaltung muss von entsprechenden Rollen sowohl auf Seiten der Anbieter als auch ihrer Firmenkunden nachgehalten werden. Je vielfältiger und interdisziplinärer diese Rollen im Unternehmen besetzt sind, desto wahrscheinlicher ist es, dass die Weiterentwicklung und Verbreitung von KI ethischen Grundsätzen folgt.
Im Wettstreit um die besten Lösungen sind Unternehmen – Start-ups wie Etablierte – in der Position, immer wieder neues Terrain austesten zu müssen, gestützt durch eine ethische Unternehmenskultur, die Menschen im Arbeitskontext inneres Wachstum und Weiterentwicklung ermöglicht. Die Diskussion rund um den Einsatz von KI zeigt einmal mehr, dass die Digitalisierung in erster Linie ein kultureller Wandel ist, den wir alle gemeinsam hier und jetzt gestalten müssen. Dabei ist jede*r Einzelne gefragt, eigene Denkmuster und Handlungsweisen immer wieder zu hinterfragen und anzupassen. Wenn wir das schaffen, werden wir Wege finden, Technologie so zu nutzen, dass sie den meisten Menschen ein besseres (Arbeits-)Leben ermöglicht.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.