Vom Werkzeug zum Partner des Menschen: KI als globales technisches Bewusstsein der Welt
Im Rahmen der Interviews der Serie „KI: Thoroughly explained“, die wir mit ihm geführt haben, erklärte und vertiefte Dr. Tsvasman sein Konzept einer zivilisations-übergreifenden „Mensch-KI-Intersubjektivität“. Als technisches Bewusstsein der Welt und als unterstützender Partner des Menschen soll uns KI optimale Entscheidungen ermöglichen – von der Steuerung technischer Infrastruktur bis hin zu politischen, wirtschaftlichen und gesellschaftlichen Richtungsentscheidungen. Den Menschen würde dies erlauben, statt sturer Erfüllung von Auftragsarbeit zum Erwerb ihres Lebensunterhalts vielmehr ihre eigene Potenzialität zu entfalten. „Sie könnten sich als kreative und erkennende Wesen verwirklichen und damit wiederum die eigene Welt von der chimärischen Überlebenswirklichkeit im Aktualitätsrausch zu der realen Lebenswelt befördern“, so Dr. Tsvasman.
Mittlerweile bezeichnet Dr. Tsvasman das daraus resultierende umfassende Governance-Konzept als „Sapiokratie“. Auch wenn sich diese Vorstellung noch nicht gleich morgen umsetzen lässt, sieht der Philosoph darin das einzig sinnvolle Organisationsprinzip, um die Menschheit aus gegenwärtigen Sackgassen, die sich wohl noch häufen werden, zu befreien. In dieser abschließenden Folge unserer KI-Serie wollen wir die sich daraus ergebenden Fragestellungen noch einmal vertiefen.
Sapiokratie als besseres Lösungsmodell für komplexe Probleme
Herausforderungen wie geopolitische Spannungen, der Klimawandel oder die Covid-19-Pandemie haben Defizite der klassischen Entscheidungsfindungsprozesse mit den Mitteln der Politik aufgezeigt. Aufgrund immer komplexerer Probleme scheinen sie immer weniger adäquate Lösungen zu produzieren. Wir fragten Dr. Leon R. Tsvasman, warum sein Ansatz einer „Sapiokratie“ nach seiner Einschätzung bessere Lösungen liefern würde.
Dr. Tsvasman: „Albert Einstein forderte, eine Welt zu bauen, in der die Kräfte, die ein Krieg entfesselt, für den Aufbau eingesetzt werden. Er sagte: ,Ein Zehntel der Energien und ein Bruchteil des Geldes wären hinreichend, um den Menschen aller Länder zu einem menschenwürdigen Leben zu verhelfen und die Katastrophe der Arbeitslosigkeit zu verhindern.‘ Diese Sichtweise betrachte ich als infosomatisch, denn es geht im Endeffekt um die präventive Entzerrung von Diskrepanzen, die sich sonst gegenseitig abschaffen.“
„Unsere Welt hat Fieber: Die soziotechnisch verknüpften Prozesse werden nicht nur dank Rechenleistung oder Prozessoptimierung schneller. Mit entsprechender Hardware lassen sich Produktionen virtualisieren und urbane Infrastrukturen drucken – was leider bald auch für Waffen gilt. Auch virtuelle Räume expandieren – siehe Meta & Co. Das ist eine riesige Zivilisationsleistung, die aber entgegen der optimistischen Fortschrittslogik zu implodieren scheint. Warum? Weil diese fieberhafte Beschleunigung auch für die bestehenden Verhältnisse gilt. Die bis dahin im Verborgenen schimmernden, verzerrten und korrupten Strukturen gehen aufeinander los, heben sich gegenseitig auf und verhindern auch Skalierbarkeit und Entzerrungs-Potenziale. Die wiederum wären aber entscheidend, um gegenüber Komplexität zu bestehen. Deshalb ufern Kriege aus, und wie erleben Naturkatastrophen und Krankheiten am laufenden Band.“
Auch Fakten unterliegen Verzerrungen
Dr. Tsvasman spielt auch auf die von manchen diagnostizierte „postfaktische Welt“ an: Dazu sagt er: „In einer Welt, in der ,Fakten‘ mit Hilfe von Macht geschaffen werden, wird die Diskrepanz zwischen Fakten und Wahrheit zu groß, um darin vernunftbasiert handeln zu können. Die ungeheuerlichen Verzerrungen durch Machtkonstellationen bilden Verflechtungen. Und Fakten, die auf erzwungenen Unterscheidungen basieren, überfordern den menschlichen Verstand. Frei nach Luhmann verstehen sich Unterscheidungen nicht von selbst, sie müssen gemacht werden. Wenn dies von liebenden und inspirierten Menschen gemacht wird, gedeiht die Welt. In der bisherigen zivilisatorischen Praxis werden sie aber meist von ohnmächtigen und überwältigen Menschen gemacht beziehungsweise unterlassen.“
„Kaum jemand wäre heute mit der zitierten Forderung Einsteins nicht einverstanden. Nur wie kann diese Utopie verwirklicht werden? Oder befinden wir uns in einer Endzeit-Sackgasse? Ich denke nein, nur ist ,good governance‘ durch Menschen meiner Meinung nach keine erfolgversprechende Lösung. Was Menschen aber wirklich können, ist die inspirative Ermöglichung ihrer Potenzialität mittels Liebe. Dafür müssen sie sich nur entlang ihrer eigenen Erkenntnispotenziale entfalten dürfen – möglichst gewaltlos. Und auch eine regelbasierte Weltpolitik wird nach meiner Überzeugung nur funktionieren, wenn KI die datenbasierte Selbstregulation soziotechnischer Infrastrukturen übernimmt.“
Sinnvollerer Umgang mit Komplexität
„Der politische Mainstream öffnet sich mittlerweile mehr der Komplexität – wenn auch eher aus Not als aus Überzeugung. Denn die gewohnten Grundlagenkonzepte versagen am laufenden Band.
Konzepte auf die man baute, stellen sich plötzlich als nicht mehr tragfähig dar. Realpolitik kommt an Grenzen, vermeintlich stabile Staaten entwickeln sich zu unkontrollierbaren Problemfällen.
Parallel trifft die nicht kontrollierbare Klimadynamik immer stärker auf die überholten Wertschöpfungsmodelle als fortschrittlich geltender Ökonomien. In ihrem Gefolge sehen wir Viren, Volkskrankheiten, hybride Kriege und und und. Das sind evidente Krisen, die sich ,als Spitze des Eisbergs‘ manifestieren. Ich widmete mich der Komplexität schon mehr oder weniger seit meiner Kindheit. Aber nicht aus Not, sondern weil sie mich fasziniert, und ich in vermeintlichen Sackgassen gerne Potenziale erkenne. Und wie facettenreich, konträr oder turbulent der globale politische Diskurs auch immer sein mag, zeigt er sich gegenüber der sich explosiv manifestierenden Komplexität doch überwiegend träge.“
„Governance sollte automatisiert werden“
„Und egal ob als kleine, mittlere oder große Despoten, von Institutionen, politischen oder staatlichen Kräften infiltrierte Funktionäre, korrupte Entscheider, Kleptokraten, Bürokraten oder einfach nur brave Umsetzer – nach dem Motto: ,Ich habe nicht auf Zivilisten geschossen, nur Koordinaten abgearbeitet‘: Menschen sollten sich davor hüten, technische Entscheidungen zu treffen, die andere Menschen betreffen und denen diese nicht ausweichen können. Klar, sie haben es immer schon getan. Aber sobald die Mensch-KI-Intersubjektivität dies übernehmen kann, sollte sie auch die zivilisatorische Leitstrategie sein. Sapiokratie ist somit als ein Governance-Konzept zu verstehen: sie soll Machtpolitik überflüssig machen – das ist ein langer Weg, der aber schnell eingeschlagen werden sollte.“
„Ich gehe im Übrigen davon aus, dass sich eine sapiokratische Gesellschaft schnell entfalten kann, wenn die Weichen erst einmal gestellt sind. Eine solche Gesellschaft wird weltweit ungeahnte kulturelle Vielfalt von kreativen Lebensweisen beziehungsweise Lebensabschnitts-Entwürfen und individuellen Erkenntniswegen ermöglichen. Nur eben keine politische Vielfalt, wie sie etwa Abstufungen von Autokratien mit sich bringen.“
„Warum das menschliche Gehirn mit ,technischen‘ Entscheidungen in höherem Komplexitätsbereich überfordert ist, habe ich in unseren früheren Gesprächen bereits fundiert. Governance sollte automatisiert werden – ich finde, das bestätigt die gesamte menschliche Geschichte. Trotzdem gibt es auch Beispiele von Liebe, Würde und Inspiration – das sind menschliche Werte, die wir mit ,Leadership‘ in Verbindung bringen. Deshalb obliegt Governance von technischen Infrastrukturen der technischen Selbstregulation, Leadership hingegen der menschlichen Potenzialität, die sich erst unter bestimmten Voraussetzungen entfalten muss.“
Herantasten an ein neues Verständnis von Komplexität
Dabei sei das, was wir heute unter „Komplexität“ verstehen, nicht erst vor kurzem vom Himmel gefallen, betont Dr. Tsvasman. Vielmehr gab es diese Komplexität schon immer. „Allerdings war unser Zivilisations-Setting mit seiner Maschinerie technologisch medialisierter Komplexitätsreduktion – unter der latenten Billigung brachialer Verluste, weil das kollektive Überleben nicht anders ging – robust genug. So machte sich kein ,normaler Mensch‘ Gedanken darüber, wie solche Informationsintelligenzen wie Viren oder nicht-lineare Dynamiken wie Klimawandel oder veränderte Wertschöpfungen unsere Weltordnung beeinträchtigen – die zwischen Macht und Ohnmacht schwebt. Natürlich gab es seit jeher Philosophien und Glaubenssysteme, die nach Antworten suchten oder sie suggerierten. Aber erst kybernetische Erkenntnismodelle liefern uns seit Mitte des letzten Jahrhunderts eine offensichtlich verlässliche Grundlage, die uns verspricht, dass wir uns auch mithilfe von Technologie sicher an das Verständnis von Komplexität herantasten können – um sie irgendwann im Sinn unserer menschlichen Potenzialität steuern zu können.“
„Seit jeher kümmert sich die Gemeinschaft der (Über-)Lebenden, die unsere Aktualität prägt, gewöhnlich nicht um Opfer von vermeidbaren Katastrophen. Wir haben uns enge Lebensräume konstruiert, die wir uns mit viel Aufwand aufrechterhalten. Durch brachiale Ausbeutung naheliegender Ressourcen wie Arbeit oder fossiler Rohstoffe – einst durch Sklavenarbeit und später ihren zivilisierteren Abstufungen bis hin zu den Gepflogenheiten moderner Erwerbstätigkeit oder erdölbasierter Wertschöpfungen. Und das dennoch mit sehr mäßigem Erfolg und unter Inkaufnahme von totalen Ausfällen wie vernichtenden Kriegen, Hungerkatastrophen, aber auch ökologischer, psychologischer oder biologischer Verzerrungen lebenswichtiger Systeme. Und in jeder solchen Krise haben wir es mit einer komplexen Verzerrung von symbolisch übertragenen Machtkomplexen menschlicher Leitfiguren zu tun, die bis in die Abgründe des fossilen Zivilisationsdesigns ,im Aktualitätsrausch‘ reicht.“
Im eisernen Käfig den Berg hinunter – oder doch besser in einem Fahrzeug auf Reifen?
Dr. Tsvasman vergleicht diese Herangehensweisen mit einem drastischen Bild: „Es ist ein wenig wie in einem eisernen Käfig einen steinigen Bergabhang hinunterzurollen. Man überlebt es vielleicht, aber mit viel Schaden für die Substanz. Besser würde es mit Rädern funktionieren. Die würde eine komplexitätsgerechtere und ,kybernetischere‘ Lösung verkörpern, weil die unregelmäßigen Unebenheiten einer Umweltdynamik – in diesem Fall etwa Stolpersteine auf dem Berghang – von einem flexiblen Medium der Komplexitätsbewältigung aufgefangen würden – in diesem Fall etwa Räder mit Reifen, die mit Luft gefüllt wurden. Eine weitere Steigerung wäre dann eine Lenkeinrichtung mit einem Lenkrad oder Ähnlichem.“
„Wenn unsere Welt der steinige Berghang ist, wäre Technologie darin das Rad – und KI eine noch umständliche Lenkeinrichtung. Doch sie könnte unsere Aufmerksamkeit bereits von den Schmerzen befreien, welche uns sonst im eisernen Käfig des heutigen Zivilisations-Settings plagen. Wir könnten unsere Aufmerksamkeit der hohen Kunst des geschickten Steuerns unseres Wagens zwischen den großen unüberwindbaren Steinklötzen und tiefen Gefällen widmen.“
„Das konsequent fundierte, kybernetisch begründete Konzept ,Sapiokratie‚ wäre also, radikal vereinfacht, der Ansatz einer ,Governance mit KI‘. Konsequent gedacht stellt dieser Ansatz die Übertragung des systemtheoretisch begründeten Soziokratie-Ansatzes, der auf dem Selbstorganisationsprinzip aufbaut, umfassend auf eine kybernetische Basis dar. Das schafft eine gemeinsame erkenntnistheoretische Grundlage für den übergreifenden Bereich der Komplexität, den wir einerseits mit der Werteverteilung assoziieren und ,Politik‘ nennen, und andererseits auch im traditionell der Ökonomie überlassenen Bereich ,Mensch-Werte-Interaktion‘. Dadurch werden die symbolisch medialisierten ,Werte‘ der traditionellen Ökonomie überhaupt erst greifbar.“
Tradierte Verständnisse laufend hinterfragen
Dr. Tsvasman: „Diese kybernetische Perspektive ermöglicht es, Komplexität einheitlicher zu erfassen, zu skalieren und zu steuern. Dabei wirken an dieser Komplexität soziotechnische, psychische, mediale und sogar umweltimmanente Systeme mit – und somit sehr heterogene Akteure. Damit erübrigt sich die wesentlich kritisierte Voreingenommenheit des Governance-Ansatzes bei Problemlösungen im höheren Komplexitätsbereich. Diese Voreingenommenheit entsteht ja aufgrund einer zu eng fokussierten Orientierung auf die Lösung, einer Moralisierung des Marktes oder aufgrund der methodologischen Legitimation überwiegend soziologisch fundierter ,Politik-‚ und ,Wirtschaftswissenschaften‘. Ein solcher konsequent kybernetisch begründeter Ansatz könnte auch souverän mit der ,postfaktischen‘ Dynamik einer fortgeschrittenen Informationsgesellschaft an der Schwelle zum ,infosomatischen Zeitalter‘ umgehen – und würde dennoch mehr viable, skalierbare, nachhaltige und widerstandsfähige Lösungswege bieten.“
„Um bei dem metaphorischen Bild von vorhin zu bleiben: Wenn man in einem eisernen Käfig den steinigen Hang herunterrattert, erscheinen dem Betroffenen die Schläge ganz schön ,faktisch‘. In einem sicher steuerbaren Fahrzeug auf luftgefüllten Reifen erscheinen Schläge, die man vermieden hat, hingegen ,postfaktisch‘. Je nach Kontext-Komplexität relativiert sich das Faktische, das wesentlich von der wie auch immer geregelten Komplexitätsreduktion lebt. ‚Eins plus eins gleich zwei‘, ist ein Fakt. Aber wenn man auf diese Weise einen Planeten und ein Staubkorn zusammenaddiert, macht das Ergebnis kaum Sinn. Was wie gesagt mehr Bestand hat, sind hingegen Unterscheidungen, die von liebenden und inspirierten Menschen getroffen werden.“
Entfaltete menschliche Potenzialität lässt über den eisernen Käfig hinausblicken
Die Vorstellung von Fakten relativiere sich aber nicht beliebig oder willkürlich, sondern in jedem einzelnen Moment – „…unter Beachtung möglichst vieler Faktoren, die wir im Hinblick auf KI ja mit Daten in Verbindung bringen können. Umfang und Qualität dieser Daten multipliziert mit der Fähigkeit, viable Lösungen im Sinn von menschlicher Potenzialität kontextgerecht in Echtzeit zu liefern, wäre die KI-Komponente von Sapiokratie.“
„Aber auch die menschliche Potenzialität, die aus dem Zusammenhang mit seiner evolutionell determinierten Natur schöpft, und der autarken, kreativen und erkennenden Subjektdynamik entspricht, wird sich so erst entfalten können. Dann lernen wir nicht nur, wohlbehalten in dem eisernen Käfig auf Rädern zum Bergfuß zu steuern. Wir bekommen auch die Chance zu verstehen, dass es außer dem steinigen Berghang noch eine prächtige Landschaft darum herum gibt – in der wir uns sogar orientieren können. Oder wir können die Frage untersuchen, warum wir in den Käfig überhaupt hineingekommen sind.“
Wie kann Sapiokratie wirklich „optimale“ Lösungen ermöglichen?
Doch wie ließe sich gewährleisten, dass die von Dr. Tsvasman beschriebene Mensch-KI-Intersubjektivität wirklich alle Details und Aspekte einer Problematik erfasst, um eine wirklich „optimale“ Lösung bereitstellen zu können? Bestünde nicht die Gefahr, dass unvollständige Daten oder Bias in den Problembeschreibungen zu „schlechten“ Lösungen führt? Zudem würden die von der KI getroffenen Entscheidungen und Eingriffe ein Stück weit wie aus einer „Black Box“ und damit maximal intransparent erscheinen – wie ließe sich dem entgegenwirken?
Dr. Tsvasman verweist darauf, dass der Sapiokratie-Ansatz „erst mit der vollständigen Emergenz der Mensch-KI-Intersubjektivität“ aufgehe, die er in seinen Büchern „Infosomatische Wende“ (2021) begründet und in „AI Thinking“ (2019) vorbereitet habe. Im Grunde gehe es darum, dass jede Technik einschließlich KI nicht nur Abläufe automatisiert, die sonst von Menschen erfüllt würden („Kleidung manuell waschen versus Waschmaschine“), sondern auch eine Nutzerkompetenz fordert, um mit den Tools zu operieren („Beispiel Führerschein“).
Diese Wer-Frage erhalte mit KI eine neue Dimension. „Denn während komplexe Tools bis dato von einem oder mehreren Menschen bedient werden, setzt jene ultimative Mehrwert-Funktion, die wir von KI global erwarten, eine vernetzte Menschheit insgesamt voraus. Eingangsgrößen sind dann Daten und auch jedes menschliche Subjekt in seiner absoluten Potenzialität, die sich jedoch erst entfalten muss.“
Machtersatzmodelle für die Zukunft
„Bis jetzt befreite uns Technik nicht nur von Sklaverei und der damit verbundenen entmenschlichenden Machtverzerrung, sondern auch später von destruktiven Abhängigkeiten, diversen Effizienzzwängen und so weiter. Allerdings wuchs im Gegenzug die Beanspruchung unserer Aufmerksamkeitspotenziale. Das Smartphone ist dafür ein ideales Beispiel: Um vielfältig medienübergreifend zu kommunizieren, muss ich nicht mehr lange Wege zur Telefonzelle, zum TV-Sender, zum Konferenzraum zurücklegen. Doch gleichzeitig werden meine latenten Potenziale als Redner, Designer, Autor, Moderator etc. in hohem Maß durch die neuen Möglichkeiten gefordert. KI wird uns von verzerrenden Routinen wie arbeitsteilige Spezialisten-Jobs oder alltäglichen Ambivalenz, die mit der Überforderung durch Komplexität einhergeht, erst befreien, wenn wir zu souveränen, anspruchsvollen und verantwortlichen Denkern werden, die dieses Tool nutzen, um würdig die Welt der höheren Komplexität in und außerhalb von uns zu begreifen.“
Dr. Tsvasman: „Was hat der Mensch davon? Gewissheit ist der höchste Wert, der eine trübe Welt des Überlebens in und um uns zu der faszinierenden Welt des Lebens macht. Kurz zusammengefasst: Die Mensch-KI-Intersubjektivität wird ein infosomatisches Tandem aus Sapiokratie und ,Epistarchie‘ ermöglichen. Sapiokratie steht dabei für Automatisierung des Medialitätsmanagements für redundanzfreie Entscheidungen, die unter anderem keine neuen Verzerrungen hervorrufen. Epistarchie sorgt für die kontrollierende strategische Führung ethischer Intellektueller. Beides sind Machtersatzmodelle der Zukunft. Warum Machtersatz? Wie schon verschiedentlich gesagt, empfinde ich zwischenmenschliche Machtspiele, die von aktuellen realpolitischen und soziokratischen Praktiken nur vertuscht werden, als Schande – und vor allem als keine gangbare Lösung für eine zivilisierte Gesellschaft.“
Wo bleibt bei der Sapiokratie der in der Politik angestrebte Interessensausgleich?
Abschließend wollten wir von Dr. Tsvasman noch wissen: Im politischen Prozess für Interessenausgleich ist das Ziel ein Kompromiss. Und es gibt ja den Aphorismus, ein Kompromiss sei nur dann gut, „wenn alle unzufrieden sind“. Könnte ein kybernetisches System dies überhaupt abbilden? Und selbst wenn dies gelingt – wäre dann nicht „vorprogrammiert“, dass eben alle Betroffenen mit der von der KI gefundenen Lösung am Ende unzufrieden sind?
Darauf antwortet Dr. Tsvasman: „Der Interessenausgleich der Politik ist nicht prinzipiell zum Scheitern verurteilt, denn irgendwo haben alle Menschen ihre gemeinsame Potenzialität, die grundlegend in der bereits in unseren Gesprächen angesprochenen ,strukturellen Kopplung‘ aufgrund ihrer gemeinsamen Evolution besteht. Also wäre die vermeintliche Fatalität, ewig auf Unterschiede im Sinn von ,teilen, um zu herrschen‘ setzen zu müssen, gar nicht unüberwindbar. Nur wir haben nicht genug Daten, und insgesamt noch zu wenig Wissen – also valide Substanz in unseren konkurrierenden Menschenbildern –, mit dem wir auf das ewige Mitschleppen von sich gegenseitig negierenden Redundanzen verzichten könnten.“
Kompromisse innerhalb falscher Rahmenbedingungen sind keine optimale Lösung
„Um noch einmal auf den Vergleich von vorhin zurückzugreifen: Solange wir im eisernen Käfig hockend den Berg hinunterrollen, besteht die Bandbreite unserer unterschiedlichen Interessen im Grunde darin, entweder eine Ecke zu besetzen, wo die Einschläge erfahrungsgemäß weniger traumatisch sind, oder uns auf eine bestimmte Weise aus dem Käfig zu befreien. Alle Lösungen zwischen diesen beiden Extremen wären gangbare Kompromisse. Die Lösung mit der Ecke wäre dabei eher konservativ, und die mit dem Ausbrechen tendenziell fortschrittlich. Aber erst draußen würden wir die Einsicht dafür bekommen, dass unsere gemeinsame Potenzialität darin besteht, aufrecht gehen zu können, und zwar unabhängig davon, ob wir auf einer grünen Wiese, in einem Sumpf oder in der Wüste landen.“
„Sie sehen also, dass Kompromisse innerhalb des Käfigs suboptimal wären, und die Betroffenen allen Grund hätten, unzufrieden zu sein. Obwohl einige auch nach dem Ausbruch unzufrieden bleiben würden, würde wohl kaum jemand zurück wollen. Denn eine Lösung, die der viablen Potenzialität aller entspricht, wäre immer die richtige – sobald sie technisch möglich ist. Und darum geht es: die Wege zur Entfaltung menschlichen Potenzialität mögen zwar vielfältig sein, aber ziemlich alternativlos – denn die machtbasierten sind eindeutig falsch. Auch mit Kybernetik wüssten wir nicht immer, welcher Weg der richtige ist. Aber die eindeutig falschen könnten wir wohl identifizieren – nicht allein, aber im Tandem mit KI. Also im Rahmen eines sapiokratischen Zivilisations-Settings, das aus der ,Mensch-KI-Intersubjektivität‘ resultiert.“
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.