In unserer Reihe „KI: Thoroughly explained“ sprechen wir mit Dr. Leon R.Tsvasman, Hochschuldozent und KI-Experte, über verschiedene Aspekte Künstlicher Intelligenz. Diesmal geht es um die Frage, wie sich sicherstellen lässt, dass KI bei ihren Entscheidungen ethische Prinzipien einhält.
In der ersten Folge dieser Reihe haben wir mit Dr. Leon R. Tsvasman [1], darüber gesprochen, wie „Künstliche Intelligenz“, menschliches Bewusstsein und das menschliche Selbstverständnis zusammenpassen. Unser Gesprächspartner beschäftigt sich als Hochschuldozent mit Kommunikations- und Medienwissenschaft sowie philosophischen und ethischen Themen. Er lehrt an mehreren Hochschulen und Fernuniversitäten wie der Wilhelm-Büchner-Universität Darmstadt, der IUBH International University, der Deutsche Welle Akademie, der Hochschule Macromedia, der Hochschule Heilbronn, der TH Ingolstadt, der AI Business School Zürich und weiteren.
Dr. Tsvasman [2] forscht auf dem Gebiet der kybernetischen Erkenntnistheorie, der anthropologischen Systemtheorie und der Informationspsychologie. Zudem verfolgt er zahlreiche weitere Interessen in unterschiedlichsten Disziplinen. Er verschiedene wissenschaftliche und populärwissenschaftliche Sachbücher geschrieben, wie zum Beispiel „Das große Lexikon Medien und Kommunikation“ in Zusammenarbeit mit dem Begründer des Radikalen Konstruktivismus Ernst von Glasersfeld oder gemeinsam mit seinem Co-Autor, dem KI-Unternehmer Florian Schild „AI-Thinking: Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz“.
In dieser Folge wollen wir uns mit dem wichtigen Thema „KI und das Selbstverständnis des Menschen“ befassen.
Faust oder Hammer – welches Werkzeug schlägt besser einen Nagel in die Wand?
Intelligente Welt: Herr Dr. Tsvasman, vielleicht einmal ganz allgemein betrachtet – was können KI-Systeme besser als der Mensch, auf welchen Gebieten bleibt der Mensch stärker?
Tsvasman: Wenn ich diese Frage etwas „entschärfen“ darf: Die Gegenüberstellung von Menschen und Maschine wäre nur in Ordnung, wenn wir die beiden nicht als Konkurrenten betrachten. Ein Mensch würde seine Faust nicht verwenden, um einen Nagel in die Wand zu hämmern. Wir rufen auch keinen Wettbewerb zwischen Faust und Hammer aus, um dieses spezielle Problem zu lösen. Ebenso wenig tritt ein Läufer gegen ein Auto um die Wette an. Mit dem Verhältnis zwischen Mensch und Künstlicher Intelligenz verhält es sich nicht anders.
Durch unsere Geschichte waren wir gezwungen, als hochspezialisierte Arbeitnehmer von Industriearbeit zu leben. Das bedeutet aber nicht, dass wir für diese Rolle prädestiniert sind. Solche menschlichen Tätigkeiten waren fast immer eine Ersatzleistung, bis eine technische Lösung gefunden wurde: Muskelkraft wurde durch Motoren ersetzt oder mentale Arithmetik durch elektronische Rechner.
Ein Werkzeug – egal wie universell – setzt immer eine menschliche Entscheidung über seinen Einsatz voraus. Ökonomisch gesehen muss ein Werkzeug vor allem effizient sein, also die Aufgabe richtigerledigen. Menschliche Entscheidungen sollen hingegen effektiv sein – also die richtige Aufgabe erledigen. Mit einem Hammer kann ein Mensch Nägel effizienter einschlagen als mit seiner oder einer fremden Faust. Mit dem Hammer lassen sich aber zum Beispiel nicht die Unebenheiten der Oberfläche des Nagelkopfs ertasten. Eine solche Sensorik wäre für den Zweck des Einschlagens von Nägeln sinnlos. Der Mensch kann das mit seinen Fingern jedoch tun – und vieles andere ebenso.
Doch für jede zielgerichtete Aufgabenstellung gibt es prinzipiell immer eine effizientere technische Lösung. Der menschliche Körper ist generell zum Leben da, ein Werkzeug zu einem spezifischen Zweck. Dabei entscheidet der Mensch, wann er welches Werkzeug benutzt. Dieses Prinzip verändert sich nicht, auch wenn das Werkzeug „KI“ heißt. Dann kann ein Chatbot zum Beispiel Routine-Gespräche automatisieren – und genau diese Aufgabe effizienter erledigen als ein Mensch.
Der Mensch bleibt Gestalter und Auftraggeber
Dabei hat die Technik nie den ganzen Menschen automatisiert – sondern arbeitsteilige Prozesse. Nicht anders verhält es sich auch mit dem noch von Menschen besetzten Expertentum der postindustriellen Ära. Automatisiert werden soll auch hier ausschließlich die arbeitsteilige Routine. Die uns ohnehin davon ablenkt, als Mensch bewusst da zu sein oder Entscheidungen zu treffen. In solchen Aufgaben soll und wird KI viel besser abschneiden als der Mensch. Sie wird zielgerichtete rationale Problemlösung ermöglichen: von einfachen Bürotätigkeiten bis hin zur eigenständigen Verwaltung der gesamten technischen Infrastruktur unserer Zivilisation.
Doch wie auch immer sich die Technik entwickelt, der Mensch bleibt der alleinige Gestalter seiner Lebenswelt und der Auftraggeber. Auch wenn Menschen gerne andere Menschen zu Werkzeugen ihrer persönlichen Ziele machten, war diese Situation immer eine Übergangslösung, und nie zufriedenstellend.
Also konkurrieren wir nicht mit KI, sondern befreien uns mit ihrer Hilfe von Routine und gegenseitiger Instrumentalisierung. Was wir „besser können“, wird davon abhängen, wie wir uns selbst verstehen. Als autonome Bewusstseinsträger mit eigenen Potenzialen sollten wir uns darin emanzipieren, was uns einmalig macht – Kreativität, Spontaneität, Improvisation, Empathie, und natürlich Erkenntnis, Liebe, Kunst. Sogar Subjektivität – sie ist höchst wertvoll, zumal wir als Menschheit langsam begreifen, dass es keine absolute Objektivität geben kann, sondern lediglich eine möglichst wenig verzerrte Intersubjektivität.
All diese Dinge werden bald wichtiger sein als technische Skills, weil sie uns Antworten auf die wichtigsten Fragen nach „was“ und „warum“ geben werden. Das „wie“ wird hingegen irgendwann komplett von KI automatisiert.
Warum künstliche Intelligenz etwas anderes als Bewusstsein ist
Intelligente Welt: Ist der Begriff „Künstliche Intelligenz“ dann nicht unglücklich gewählt? Denn ihn assoziiert der normale Mensch ja schnell mit künstlichem Bewusstsein und „denkenden“ Maschinen.
Tsvasman: KI soll das „intelligente Verhalten“ von Menschen automatisieren – ein Verhalten, das vor allem die Fähigkeit zum Lernen erfordert. Aus diesem Grund setzen Informatiker gerne KI-Teilbereiche wie „maschinelles Lernen“ oder „Deep Learning“ mit KI gleich. Dabei umfasst die KI-Forschung neben dieser Fähigkeit, sich selbst zu optimieren, auch andere Baustellen. Wie etwa neuronale Netze, also den Versuch, das menschliche Gehirn nachzuahmen, und andere aufregende Projekte.
Was dabei automatisiert wird, ist die Expertenfähigkeit des „intelligenten Verhaltens“, nicht der ganze Mensch. Deshalb werden KI-Systeme auch als „Expertensysteme“ bezeichnet. Als assisted intelligence („schwache KI“) dient sie der Automatisierung stark fokussierter Aufgaben, um diese vor allem effizienter auszuführen.
Die höhere und aufwändigere Form von KI (oft augmented intelligence genannt) soll uns helfen, bessere situationsbezogene Entscheidungen zu treffen. Wenn man Assistenz- und Beratungsexpertise mithilfe einer riesigen Datenmenge (Big Data) automatisiert, ist das durchaus eine bemerkenswerte Datenverarbeitungs-Leistung. Es ist aber immer noch keine Denkleistung eines bewussten Wesens. Um den Unterschied zu erklären, muss ich einen knappen philosophischen Exkurs machen.
Als bewusste Person ist man ein Individuum – einzigartig und unersetzlich. In der Rolle eines Experten löst der Mensch arbeitsteilig fremde Probleme und kann in dieser Funktion durch den Inhaber eines vergleichbaren Profils ersetzt werden. Bewusstsein ermöglicht es einem menschlichen Individuum, unter anderen Individuen in einer Gesellschaft zu leben. Ein bewusstes Individuum bleibt also als Ganzes weitgehend autonom, hat freien Willen, kann urteilen und ist für seine Handlungen verantwortlich. Diese Autonomie ist, evolutionsbiologisch gesehen, die wichtigste Voraussetzung für das Bewusstsein, und es gilt die Faustregel: je höher das Bewusstsein, desto mehr Autonomie. „Niedere“ Tiere wie Insekten sind beispielsweise weniger autonom. Sie werden massiv von Instinkten und Reflexen gesteuert und können ihre Verhaltensmuster – im Verhalten eines einzelnen Organismus — kaum überwinden, wenn sich die Umweltbedingungen ändern. Aber sie sind faszinierend in ihrer Effizienz, und entwickeln oft eine verblüffende Schwarmintelligenz.
Unterschiede zwischen Maschine und Mensch
In der Kybernetik sagen wir, dass das Bewusstsein „informationell geschlossen“ ist. Gleichzeitig ist es strukturell mit anderen Subjekten gekoppelt, weil alle menschlichen Gehirne auf die gleiche Evolution zurückblicken, und jedes in einem autonomen Körper steckt. Daher ist ein Subjekt grundsätzlich nicht in der Lage, gültige Aussagen über seine Umgebung zu treffen, ohne ständig damit experimentieren zu müssen. Aus evolutionsbiologischer Sicht hat der Mensch den höchstmöglichen Grad an Autonomie erreicht – mit allen Privilegien und Nachteilen. Zu den Privilegien gehört das Denken – Erfahrungen intern gewichten zu können, um adäquat in einer sich ändernden Umwelt zu handeln. Zu den typischen Nachteilen zählt die Abhängigkeit von Sprachen oder Medien.
Eine autonom lernende Software bleibt dagegen nur ein Expertensystem. Sie kann zwar Fragen beantworten, muss aber keine Fragen nach dem Sinn einer Erkenntnis stellen. Die Eigenschaft der Datenübertragung macht solche KI effizient und präzise. Doch sie ist dazu verdammt, ein Werkzeug zu bleiben. Solche Werkzeuge können Auftragsprobleme effizienter lösen als ein Mensch in seiner Rolle als Experte. Doch ihre Fähigkeit zur Datenübertragung macht KI „informationell offen“ – sie bleibt eine „triviale Maschine“ ohne Bewusstsein.
Rein technisch könnte KI nur unter einer Bedingung Bewusstsein erlangen: wenn Autonomie, die sie aufgrund ihrer Beschaffenheit nicht haben muss, simuliert wird, und wenn an die Stelle von Datenzugang medienvermittelte Kommunikation mit struktureller Kopplung tritt. Das entspräche dann der Idee von autonomous intelligence bzw. einer „starken KI“.
Das planetarische Bewusstsein
Intelligente Welt: Braucht es also nur genügend Rechenleistung, genügend komplexe neuronale Netze – und dann entwickelt eine Maschine doch irgendwann ein Bewusstsein? Würden wir Menschen dies überhaupt erkennen?
Tsvasman: Dieser Frage erinnert mich an die Idee der „Noosphäre“. Sie wurde im frühen 20. Jahrhundert parallel von russischem Philosophen und Geologen Wladimir Wernadski und dem französischen Naturwissenschaftler und Theologen Pierre Teilhard de Chardin wohl unabhängig voneinander aufgestellt. Auf die heutige Technologie übertragen: Wenn sich alle KIs der Welt miteinander vernetzen, könnten sie sich zum technischen „Bewusstsein der Welt“ entwickeln.
Wobei unsere Zivilisation – die eigentliche menschliche Lebenswelt – sozio-technisch-kulturell geprägt ist, und keine unmittelbare Fortsetzung der biologischen Evolution darstellt. Tatsächlich entstünde ein „planetarisches Bewusstsein“ also wohl aus der Symbiose des „technischen Gehirns der Welt“, das ein Stück weit mit dem limbischen System unseres Gehirns vergleichbar ist, und dem menschlichen Bewusstsein.
Die Rechenleistung von unzähligen, über ungeahnte Bandbreiten vernetzten Quantencomputern und hochkomplexen neuronalen Netzen bringt aber gar nichts ohne Daten, die sie verarbeiten kann. Und von solch einer „starken KI“ verarbeitete Daten werden erst dann zu Informationen oder Wissen, wenn Menschen diese auf ihre menschliche Art begreifen können. Das ist schon heute die Problematik von Big Data und etwa Business Intelligence (BI). Dabei geht es ja um angewandte Wissenschaft, um aus Daten valide Erkenntnisse zu gewinnen, und auf ihrer Basis wirtschaftlich zielgerichtete Tätigkeiten durchzuführen oder etwa strategische Entscheidungen treffen zu können.
Würden vernetzte Quantencomputer mit neuronalen Netzen alles nur annähernd Relevante auf der Welt – jede Regung im Makro- und Mikrokosmos, die Körperdaten aller Menschen und so weiter – in Echtzeit erfassen, dann würde in dieser Welt alles realisierbar, was sich prinzipiell vorstellen lässt. Somit hängt es von uns ab, was wir uns vorstellen können.
Werkzeug Künstliche Intelligenz: Wir stellten uns fliegende Teppiche vor, und es wurden Flugzeuge
Aber zuerst müssen wir lernen, die Kontrolle im Sinn der Potenziale aller Menschen dieser Welt zu behalten – und das ist das wichtigste kybernetische Problem der aktuellen Zeit: Wir können mit der Komplexität einer globalen Welt mit ihren exponentiellen Entwicklungen von Big Data über das Corona-Virus bis hin zum Klimawandel und der Bevölkerungsexplosion nicht ohne globale KI zurechtkommen. Die von uns immer schon notgedrungen betriebene Reduktion von Komplexität – damit wir überhaupt gemeinsam etwas erreichen können – stößt gerade an ihre Grenzen. Also sollten wir zuerst das passende Werkzeug, nämlich eine globale KI bauen und dieses zu beherrschen lernen, ohne seine Effizienz bremsen zu müssen. Das stellt neben dem kybernetischen auch ein ethisches Problem dar. Also müssen wir einen ethischen Imperativ für KI entwickeln – die belletristischen drei Robotergesetze reichen dafür nicht aus.
Es war übrigens schon immer so, dass Technik unsere Vorstellungen verwirklichte, auch wenn diese Vorstellungen vorher etwas eigenwillig waren. Wir stellten uns fliegende Teppiche vor, und es wurden Flugzeuge.
In einer virtuell erweiterten digitalen Realität mit globaler KI gäbe es keine Grenzen mehr. Die größte Herausforderung wird sein, dafür eine gangbare Vision zu entwickeln. Diese Herausforderung für die Menschheit ist schwieriger und aufregender als alles, was wir bis jetzt gemeinsam bewältigen mussten.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.