KI gehört die Zukunft, sie braucht aber Regeln

bei

 / 21. June. 2019

Einsatz Künstlicher Intelligenz muss ethischen Grundsätzen unterliegen

Der Einsatz Künstlicher Intelligenz (KI) schreitet voran und ist kaum mehr aufzuhalten. Selbstlernende Algorithmen verfeinern KI-Systeme und mit ihrer Anwendung sollen diese immer besser werden. Die ethische Dimension von KI bleibt bisher oftmals unterbelichtet. Unternehmen mit KI-Systemen unterliegen Compliance-Richtlinien, Grundsätzen guter Unternehmensführung und allgemein gesellschaftlicher Erwartungen. Markus Dohm, Executive Vice President TÜV Rheinland Academy & Life Care beleuchtet kritische Entwicklungen durch KI, ob im Recruiting, bei der Vergabe von Leistungen oder durch falsche Beratung. Sein Fazit: KI ohne menschliche Intelligenz ist (noch) nicht möglich.

Seit Menschengedenken existiert die Idee, die Krone der Schöpfung nachzubauen. Über die Fähigkeiten des Homunkulus [1], eines künstlichen Menschleins, philosophierte schon Cicero. Im Mittelalter war es ein Konzept von Paracelsus, der künstliches Leben auf Pferdemist ausbrüten wollte. Auch im Golem-Mythos und in dem Briefroman „Frankenstein oder Der moderne Prometheus“ ist es die Faszination am künstlich erschaffenen Menschen, die seither ganze Generationen von Autoren zu Horrorromanen und Filmen inspirierte. Der Begriff „Künstliche Intelligenz“ (KI) taucht erstmals 1956 im Titel einer Tagung auf, die am Dartmouth College in den USA stattfand. Der amerikanische Informatiker John McCarthy stellte auf seiner Tagung Schachprogramme vor. Er war von Alan Turing inspiriert, der den ersten Schachcomputer entwickelte und wenige Jahre zuvor mit einem Beitrag über „Computing Machinery and Intelligence“ [2] brillierte. Bis zu seinem Tod im Jahr 1954 legte Turing die theoretischen Grundlagen für Computer, die den Menschen vollständig imitieren sollten. Er prognostizierte, dass es im Jahr 2000 soweit sein würde. Heute wissen wir, dass menschliche Fähigkeiten mit der steigenden Anzahl von Rechenoperationen moderner Prozessoren und schnelleren Speicherelementen simuliert werden können. Aber was genau braucht es wirklich, um menschliche Intelligenz vollständig zu imitieren?

Was ist Intelligenz?

Über die menschliche Intelligenz forscht die Wissenschaft seit Jahrhunderten und versucht, eine allgemein gültige Theorie zu formulieren. Sie wird sprachlich oft als Oberbegriff für kognitive Leistungen des menschlichen Gehirns verwendet. Stark verkürzt subsumieren Psychologen darunter die Fähigkeiten des Menschen, sich selbst und seine Umwelt wahrzunehmen, Informationen zu identifizieren und zu differenzieren, sie zu verarbeiten und daraus logische Schlussfolgerungen, Erkenntnisse und Handlungsoptionen abzuleiten. Die Grundlagen für diese Fähigkeiten werden zum Teil angeboren und als fluide Intelligenz bezeichnet. Übertragen auf einen Computer bedeutet fluide Intelligenz praktisch die Verarbeitungsgeschwindigkeit und -kompetenz sowie die Speicherkapazität im Arbeitsgedächtnis. Neben der fluiden unterscheiden Psychologen die kristalline Intelligenz, die im Laufe des Lebens durch Lernen erworben wird. Diese umfasst sowohl Faktenwissen als auch implizit Gelerntes. Darunter fallen Verhaltensweisen, trainierte Fähigkeiten wie Schwimmen oder Fahrradfahren. Mathematische oder sprachliche Begabungen sowie soziale und emotionale Kompetenzen sind Ergebnisse kulturell geprägter Lernprozesse. Intelligenz wird also als eine Fähigkeit beschrieben, das im Leben erworbene Wissen über seine Umwelt und sich selber anzuwenden, sich zu positionieren und eine Meinung zu bilden, sich adäquat zu verhalten sowie auf konkrete Fragen sinnvolle Lösungen zu finden. Dem Menschen stehen dafür ethische, moralische und soziale Kategorien zur Verfügung, wie er seine Meinung bildet und handelt. Diese Einflussfaktoren sind durch die Weltreligionen, die Aufklärung, durch Gesetze und allgemeinverbindliche Normen wie den kategorischen Imperativ von Immanuel Kant über Jahrhunderte entstanden. Sie bilden ein Wertegerüst, mit dem der Mensch über das rein Faktische hinweg sein Verhalten steuert und überprüft.

Wie funktioniert KI?

Künstliche Intelligenz orientiert sich am menschlichen Intelligenzbegriff und versucht, die Erkenntnis- und Entscheidungsfähigkeit des Menschen zu imitieren. Schon heute gelingt es zumindest, KI-Systeme intelligent erscheinen zu lassen. Sie sind in der Lage, große Datenmengen in kurzer Zeit mit von Menschen geschriebenen Algorithmen auf Muster hin zu analysieren. Den Algorithmen kommt hierbei eine Schlüsselfunktion zu. Darin sind Anweisungen definiert, um ein Problem systematisch zu lösen. Wie ein Bauplan oder eine Gebrauchsanweisung verfolgt der Algorithmus diesen einen und vorgegebenen Weg und führt zu einem eindeutigen Ergebnis. Um die Leistungsfähigkeit von KI zu steigern, entwickelten Neurowissenschaftler und Informatiker Künstliche Neuronale Netze (KNN) [3], die sich am biologischen Vorbild der Vernetzung von Neuronen im Gehirn orientieren. KNN sind in der Lage, sich jederzeit durch neue Informationen, die sie bei Lernprozessen ähnlich wie das Gehirn verarbeiten, neu zu vernetzen oder alte Verbindungen höher oder geringer zu gewichten oder vollständig aufzulösen. Durch die KNN sind auch KI-Algorithmen heute in der Lage, bei ihrer Anwendung zu „lernen“, sich also selbständig weiterzuentwickeln. Dieser Prozess wird als Machine oder Deep Learning bezeichnet. Was der Mensch als Erkenntnis speichert, jederzeit erinnern und wieder anwenden kann, bedeutet bei den Maschinen, dass sie ihren Algorithmus „umschreiben“, um die ihnen gestellten Aufgaben immer besser lösen zu können. Aber dabei verlassen sie nicht den vorgezeichneten Weg ihrer Algorithmen ihrer Aufgabe. Zumindest bisher nur selten, wie das Beispiel aus dem Forschungslabor von Facebook zeigte. 2017 mussten die Facebook-Programmierer ein KI-System aus zwei Bots abschalten [4], als sie bemerkten, dass sich die beiden in einer selbsterfundenen Sprache „unterhielten“. Die Programmierer hatten vergessen, den Bots vorzuschreiben, in Englisch zu kommunizieren. Diese wollten ihre Kommunikation mutmaßlich effektiver gestalten und sprachen ein Kauderwelsch, das sie allerdings untereinander verstanden. Den KI-Experte war das nicht mehr geheuer und sie schalteten die Bob und Alice getauften Bots kurzerhand ab. Dhruv Batra, Gastwissenschaftler von Georgia Tech bei Facebook AI Research (FAIR), gab danach zu: „Es ist wichtig, sich daran zu erinnern, dass es keine zweisprachigen Sprecher von KI und menschlichen Sprachen gibt. Wir verstehen bereits im Allgemeinen nicht, wie komplexe KIs denken, weil wir nicht wirklich in ihren Denkprozess sehen können. Das Hinzufügen von KI-zu-KI-Gesprächen zu diesem Szenario würde dieses Problem nur noch verschärfen.“

Was kann KI heute?

Vielfach begegnen Internet- und vor allem Smartphone-Nutzern im Alltag KI-Systeme, ohne dass sie sie erkennen. Eine Studie [5] des amerikanischen Softwareunternehmens Pega ergab beispielsweise, dass nur 33 Prozent der weltweit 6.000 Befragten bewusst ist, wenn sie KI-Lösungen nutzen. Defacto nutzen aber 77 Prozent KI-Systeme. Dies beginnt schon bei der Anfrage bei einer Suchmaschine oder beim Shoppen auf den großen Handelsplattformen, wo die Kaufempfehlungen längst einen beträchtlichen Umsatzanteil einbringen. Auch die Gesichtserkennung auf dem Smartphone oder bei einer Plauderei mit Siri, Cortana oder Alexa arbeiten im Hintergrund KI. Beeindruckende KI-Lösungen stehen hinter Übersetzungs- und Diktierprogramme sowie solche, die natürliche Sprache in Text umwandeln sowie umgekehrt selber in natürlicher Sprache Unterhaltungen führen können. Solche Chatbots genannten Programme geben telefonische Auskunft, arbeiten auf Webseiten, um eine menschliche Interaktion zu simulieren. Auch in Navigationsgeräten arbeiten im Hintergrund KI-Lösungen. Und im Auto von Morgen sorgt KI zusammen mit einer Unzahl von Sensorgen und Aktoren für ein autonomes Fahren. Segensreich sind KI heute schon in Wissenschaft, Medizin, Marketing und selbst für Juristen, wenn sie große Datenbestände durchforsten, um bei einem vorgegebenen Problem Lösungen zu finden. In der Krebstherapie analysieren KI Röntgen oder CT-Aufnahmen [6], um sie mit abertausenden Aufnahmen zu vergleichen und einen Tumor zu identifizieren. In vielen Forschungsgebieten kommen KI als Hilfswissenschaftler [7] zum Einsatz, indem sie beispielsweise riesige Datenmengen wie bei der Genanalyse [8] in Windeseile abgleichen. KI arbeiten als Anwaltsgehilfen [9] und durchwühlen Urteilsdatenbanken. Und sogar einfache Texte können die ersten Text-KIs bereits schreiben, wenn sie etwas Börsen- oder Sportnachrichten automatisch zu Standardtexten zusammenfügen. Im Marketing [10] analysieren KI Verbraucherverhalten; Datenanalysen ermitteln Umsatzpotenziale, liefern personalisierte Werbung aus und stellen den Marketern Grundlagen für deren Gestaltung zur Verfügung. Allesamt Leistungen, die ohne „menschliche“ Fachkräfte und entsprechende Qualifikationen gar nicht denkbar wären.

Aber ist das schon Künstliche Intelligenz? Oder führt der Begriff in die Irre, wenn lediglich große Datenmengen mit immer leistungsfähigeren Rechnern ausgewertet werden?

Starke vs. Schwache KI

Die aktuell verfügbaren KI-Anwendungen sind anders als Bob und Alice trotz Machine Learning zum Glück noch nicht in der Lage, ihren durch den Algorithmus vorgegebenen Weg zu verlassen und „zur Abwechslung einfach mal was anderes zu tun“. Eine KI, die Experten für die Auswertung von Lungentumoren programmiert haben, ist nicht in der Lage, einfach mal Nierenkrebs zu diagnostizieren. Wissenschaftler bezeichnen daher diese als schwache KIs – und träumen von starken KIs. Denn bisher ist es keinem gelungen, eine KI zu programmieren, die die intellektuellen Fähigkeiten des Menschen auch nur annähernd simulieren kann. Eine starke KI müsste in der Lage sein, logisch zu denken, Entscheidungen auch tatsächlich wie ein Mensch zu fällen, also abzuwägen beispielsweise zwischen zwei gleich schlechten Alternativen. Sie müsste sich planvoll neue Wissensgebiete erschließen und sich systematisch selbst anlernen. Vor allem aber müsste sie in natürlicher Sprache selbständig Ideen formulieren können und alle ihre Kompetenzen auch in ein Wertesystem einordnen und einem höheren oder ferneren Ziel unterordnen können. Kurzum: Sie müsste nach ethischen, moralischen und sozialen Kategorien ihr Verhalten und ihre Entscheidungen verantwortungsvoll selbst steuern. Das bedeutet: Ohne den Faktor Mensch wird es bei aller Dynamik der technologischen Entwicklung in der digitalen Transformation auf absehbare Zeit nicht gehen.

Was darf KI und wer kontrolliert bei Irrtümern?

Viele KI-Enthusiasten hoffen auf den Tag, der allerdings noch 20 bis 40 Jahre entfernt sein dürfte, bis eine KI intellektuelle Fähigkeiten haben wird. Vielleicht gelingt es mit Quantencomputern [11] sogar schon früher, noch größere Datenbestände auszuwerten und mit Hilfe von KNN sogar mit einer menschlichen und ethisch orientierten Entscheidungsmatrix zu ertüchtigen. Davon abgesehen, stellen sich aber bei den heutigen Anwendungen schon mit schwacher KI ethische Fragen. Was passiert, wenn eine KI durch Machine Learning diskriminierende Entscheidungen fällt? Heute schon sind erste Lösungen für das Bewerbermanagement bei Recruiting-Prozessen [12] im Einsatz. Bei Amazon soll es bereits vorgekommen sein, dass Frauen bei der Vorauswahl benachteiligt wurden. Auch bei Finanzdienstleistern sind KIs im Einsatz, sogar schon länger, als es Chatbots gibt. Mit der „falschen Adresse“ oder einem Schufa-Eintrag kann es schon länger passieren, dass eine Versicherung oder ein Kredit verweigert werden. Mit solchen Fragen beschäftigte sich kürzlich ein Expertengremium der EU, das Ende 2018 seine Ethischen Leitlinien [13] zur Diskussion stellte und im April seine finale Version veröffentlichte. Bis Juni 2019 erarbeitet das Gremium eine Handlungsempfehlung für die EU. Nach allem, was bisher bekannt ist, greifen diese Leitlinien aber nicht weit genug. Sie beschreiben einen Weg, „den größtmöglichen Nutzen aus der KI erzielen und gleichzeitig die geringstmöglichen Risiken eingehen. Um sicherzugehen, dass wir auf dem richtigen Weg bleiben, brauchen wir einen auf den Menschen ausgerichteten („menschenzentrierten“) Ansatz für die KI …“. Das Gremium hat auch eine Checkliste mit Fragen für Anbieter von KI entwickelt, wie sie ihre Systeme sicher betreiben können. Leider aber fehlen Empfehlungen an die EU-Kommission, welche Mindestanforderungen und Sicherheitsauflagen sie den KI-Betreibern auferlegen sollten, damit der Mensch als Gestalter und Nutznießer der digitalen Transformation wirklich im Fokus bleibt. Denn eines ist klar: Eine wirtschaftlich oder aus Sicht von Behörden erfolgreiche KI werden Betreiber nicht ändern, nur weil sie ein wenig diskriminierend agiert.

KI-Systeme müssen mit offenem Visier agieren und überwacht werden

Hier müssen die EU und internationale Institutionen wie die UN klare Regeln aufstellen und anordnen, dass externe Institutionen die Einhaltung regelmäßig überprüfen dürfen. Eine notwendige Regel wäre beispielsweise, dass immer dann, wenn eine KI mit einem Menschen interagiert, diese sich zuvor als solche zu erkennen gibt. Im Zweifelsfall muss der menschliche Nutzer das Recht erhalten, eine natürliche Person des Betreibers oder einer externen Stelle mit der Überprüfung einer KI-Entscheidung zu beauftragen. Darüber hinaus müssen die Betreiber bei einer KI mit Machine Learning verpflichtet sein, ihre selbständig sich umschreibenden Algorithmen durch Testläufe zu überwachen. Und weil es Menschen sind, die KI-Algorithmen schreiben, sollten diese durch Weiterbildung ihre Kompetenzen als Fachleute regelmäßig vertiefen müssen.

Denkbar wäre auch, wenn sich große Unternehmen einen eigenen Ethikrat mit externen Experten geben, der die Weiterentwicklung der Anwendungen überwacht. Auch und vor allem beim KI-Einsatz staatlicher Stellen sind Sicherheitslinien einzuziehen, die nicht überschritten werden dürfen. So sehr sich auch Verwaltungshandeln künftig mittels KI vereinfachen lassen dürfte, müssen staatliche Stellen ein enges Korsett erhalten, um Freiheitsrechte der Bürger nicht schleichend einzuschränken.

Fazit: Ein starkes Werkzeug braucht Sicherheitsschalter

Wie mächtig die KI heute schon ist und in Zukunft erst noch werden wird, können momentan selbst Experten kaum einschätzen. Klar ist, dass sie ein starkes Werkzeug in der Hand von Staat und Unternehmen, aber auch künftig von Nicht-Regierungsorganisationen und der Zivilgesellschaft ist und nicht zuletzt in der Hand von Kriminellen sein kann. Wie früher bei der Dampfmaschine können verheerende Unfälle passieren, wenn zu viel Druck auf dem Kessel ist. Erst die regelmäßige Überprüfung durch unabhängige Fachkräfte von TÜV Rheinland, dem früheren Dampfkesselüberwachungsverein DÜV, in diesem Falle von Sachverständigen, hat dazu geführt, dass technische Großanlagen, Fahrzeuge und Aufzüge bis hin zu Kraftwerken zu sicheren Einrichtungen wurden. Bei der KI mag der Vergleich mit einem Atomkraftwerk vielleicht verwegen klingen. Aber ohne Überwachung durch unabhängige Dritte und lebenslange Weiterqualifizierung der menschlichen Fachkräfte wird es kaum gehen. Eine fehlgeleitete KI könnte verheerende Wirkung entfalten, wie das Beispiel Facebook 2017 zeigte. Am Ende sollte es nicht so kommen wie in Goethes Zauberlehrling [14]: „Ach, da kommt der Meister! Herr, die Not ist groß! Die ich rief, die Geister, werd ich nun nicht los.“

Quellen und Referenzen

[1] https://www.sapereaudepls.de/2016/10/16/homunkulus/

[2] https://www.csee.umbc.edu/courses/471/papers/turing.pdf

[3] https://jaai.de/kuenstliche-neuronale-netze-aufbau-funktion-291/

[4] https://www.fastcompany.com/90132632/ai-is-inventing-its-own-perfect-languages-should-we-let-it

[5] https://www.pega.com/de/topics/artificial-intelligence

[6] https://www.bmbf.de/de/ki-in-der-krebstherapie-sind-computer-bald-die-besseren-aerzte-7074.html

[7] https://www.heise.de/newsticker/meldung/Kuenstliche-Intelligenz-als-Hilfswissenschaftler-KI-revolutioniert-die-Forschung-4158507.html

[8] https://www.grenzwissenschaft-aktuell.de/genanalyse-offenbart-geisterhafte-menschenart-im-erbgut-von-afrikanern20190429/

[9] https://legal-tech-blog.de/ai-in-law-definition-current-limitations-and-future-potential

[10] https://onlinemarketing.de/news/ki-im-marketing-drei-praxisbeispiele

[11] https://www.spiegel.de/thema/quantencomputer/

[12] https://www.zeit.de/arbeit/2018-10/bewerbungsroboter-kuenstliche-intelligenz-amazon-frauen-diskriminierung

[13] https://ec.europa.eu/germany/news/ki20190408_de

[14] https://www.inhaltsangabe.de/goethe/der-zauberlehrling/

 

Markus Dohm ist seit 2015 Leiter des Geschäftsbereichs Academy & Life Care bei TÜV Rheinland. Der Wirtschaftswissenschaftler und Diplom-Ingenieur für Bauingenieurwesen und Umwelttechnik blickt auf einen vielfältigen Erfahrungsschatz aus unterschiedlichen Fach- und Führungspositionen in der Industrie, der Bundeswehr und bei TÜV Rheinland zurück. Als Leiter des Geschäftsbereichs Academy & Life Care verantwortet er das globale Dienstleistungsangebot von TÜV Rheinland auf dem Gebiet des Gesundheitsmanagements, der Arbeitssicherheit und der Qualifizierung von Fach- und Führungskräften. Als führender, technisch orientierter Lerndienstleister und Dienstleister für Betriebliches Gesundheitsmanagement begleitet die TÜV Rheinland Akademie Mittelstand und Großunternehmen weltweit beim systematischen Aufbau und der Nutzung von Kompetenzen. TÜV Rheinland leistet einen wichtigen Beitrag, dass der Einzelne ebenso wie Organisationen die digitale Transformation meistern und ihre Chancen nutzen können.