KI und Governance

Kann Verwaltung durch KI effizienter gemacht werden? Richtige und falsche Entscheidungen können von Menschen wie ihren Maschinen gemacht werden, doch verträgt die Verwaltung eine Effizienzsteigerung bis zur Unsichtbarkeit?
Interview von Intelligente Welt
29. Juni 2022
Interviewpartner

Dr. Leon Tsvasman

Dr. Leon Tsvasman ist ein erfahrener Dozent, Instruktionsdesigner und Autor und arbeitet als pädagogischer Berater an mehreren staatlichen und privaten Universitäten in Deutschland. Seine Forschung bezieht sich auf Complexity Cybernetics, künstliche Intelligenz, Psychology of Information, Ethics of Leadership und Innovation.
Interviewpartner

Leon TSVASMAN, Dr.phil/PhD

Hochschuldozent bei Dr. Tsvasman Academic Consulting

Dr. Leon Tsvasman, ein philosophischer Medientheoretiker, verbindet gerne authentische Einblicke mit interdisziplinärem Scharfsinn. Seine Forschung geht über die Akademie hinaus und fundiert Reflexionen über die Komplexitäten einer ethisch stagnierenden nach dem Sinn suchenden Zivilisation. Sein Einfluss erstreckt sich von der Gelehrtenwelt bis zum Bereich der digitalen Transformation und prägt maßgeblich den zeitgenössischen Diskurs mit. 1968 in eine musikalisch und medizinisch geprägte Familie hineingeboren, hat sich Leon Tsvasman in KI, Ethik und interdisziplinärer Forschung mit einem Vordenkeransatz profiliert. Sein rebellischer Gemüt und kreative Energie, begleitet von Neugier auf menschliche Erkenntnispotenziale, fruchteten in eigenen literarischen und künstlerischen Experimenten. Seine Jugendjahre waren außerdem geprägt von einer Faszination für Science-Fiction von Autoren wie Isaac Asimov, Stanisław Lem, Ray Bradbury und den einfallsreichen Essays von Jorge Luis Borges, die sein Interesse am Zusammenspiel von Zukunftskonzepten und menschlicher kreativer Intelligenz entzündeten. Auf seiner intellektuellen Wanderschaft durch die Lehren von Kant und Hegel fand Tsvasman einen gangbaren Weg in das komplexe Gebiet der Kybernetik, angeleitet von Denkern wie Norbert Wiener, Heinz von Foerster, Humberto Maturana und Ernst von Glasersfeld. Die Kombination aus künstlerisch-literarischer Experimentierfreude und wissenschaftlicher Strenge definierte Tsvasmans polymathischen Ansatz und positionierte ihn als visionären Wegbereiter in den Bereichen KI, Ethik und interdisziplinäre Forschung, in denen er nuancierte, humanistische Einsichten mit technologischer Affinität verbindet. Nach ersten Studienerfahrungen in Medizin und Journalismus war Dr. Tsvasman erleichtert, die Traumata seiner von totalitärer Zwangsprägung gekennzeichneten Sozialisation hinter sich zu lassen. Er wandte sich den Geisteswissenschaften zu und fand sich in der erfrischend aufregenden, jedoch völlig unbekannten sprachlichen und kulturellen Landschaft von Deutschland 1990er Jahre wieder. Rasch erlangte er seinen Magister in Kommunikation, Medien, Linguistik, Sozial- und Politikwissenschaft an den Universitäten Bonn und Essen. Diese Übergangsphase gipfelte in seiner Promotion an der Universität Münster, woraufhin er die anspruchsvolle Rolle eines freiberuflichen Dozenten übernahm. Bewusst verzichtete er auf einen lukrativen Karriereweg und konzentrierte sich stattdessen auf die Entwicklung seines Konzepts einer hochgradig individualisierten, potenzialorientierten Ethik in der Hochschuldidaktik. Dr. Tsvasmans akademischer Weg wurde maßgeblich durch seine Zeit an der damals renommierten Lomonossow-Universität geprägt, ebenso wie durch seine Zusammenarbeit mit Professoren aus der Schule von Gerold Ungeheuer, einer herausragenden Persönlichkeit in der deutschen Kommunikationswissenschaft, an den Universitäten Bonn und Essen. Diese reiche und vielfältige Bildungsetappe nährte Dr. Tsvasmans einzigartigen Ansatz und förderte eine kritische Perspektive, die eine Vielzahl von akademischen Disziplinen und Systemen umspannt. Nach seiner Promotion bei Siegfried J. Schmidt, einer führenden Figur im deutschen konstruktivistischen Diskurs, ging Leon Tsvasman seiner enzyklopädischen Neigung nach. Sein für konzeptionelle Vorzüge von Kritik und Studierenden empfohlenes Medien- und Kommunikationslexikon ('Das Große Lexikon Medien und Kommunikation', 2006) legte einen systemisch-konstruktivistischen Grundstein in den Fächern mit Kommunikation, Information und Medien. Dieses selbstinitiierte Projekt, inhaltlich unterstützt von damals führenden Professoren in diesen Disziplinen und gelobt von Gelehrten wie Professor Ernst von Glasersfeld (University of Massachusetts) für seine außergewöhnliche Intelligenz, markierte einen bemerkenswerten Wandel im einschlägigen akademischen Diskurs. Das Lexikon verschob den traditionell soziologisch orientierten Fokus von Kommunikation und Medienstudien hin zu einem breiteren, universell anwendbaren systemisch-kybernetischen Ansatz, der insbesondere deren Praktikabilität für kreative und informationstechnologische Unterfangen verstärkte. Es aktualisierte grundlegende Konzepte wie Intersubjektivität und Medialität neu und trug so zur Diversifizierung und Integration in medienbezogenen akademischen Disziplinen bei. Dieser Wandel markierte die Neupositionierung von bis dato oft allzu heterogenen Medienfächern in der akademischen Landschaft. In ähnlicher Weise verwendet Tsvasman in seinen eigenen Schriften dialektisch präzise, kontextuell angepasste Definitionen, die für ihre interdisziplinäre Robustheit bekannt sind und auf sorgfältiger Prüfung beruhen. Als inspirierter Polymath und Mentor aus Berufung setzt sich Dr. Tsvasman für skalierbare und lebensbegleitende KI-gestützte Wissensinfrastrukturen ein. Er priorisiert das Streben nach inspirierender Bedeutung, eine Abkehr von der Trivialisierung reiner Werkzeugabhängigkeit. Seine essayistischen Experimente bieten nuancierte Perspektiven und interoperable Lösungen, die sich mit globalen Komplexitätsherausforderungen befassen. Diese Arbeiten integrieren erkenntnistheoretische, anthropologische und kybernetische Dimensionen und schaffen so eine einzigartige Perspektive auf das datengesteuerte Zeitalter. 'The Age of Sapiocracy' (2023) skizziert eine Vision für konsequent ethische, datengesteuerte Governance, während 'Infosomatische Wende' (2021, auf Deutsch) die Zivilisation neu denkt und radikale Innovation als entscheidend für eine widerstandsfähige, wissensreiche Gesellschaft fördert. Das dialogisch-experimentelle 'AI-Thinking' (2019, auf Deutsch) vertieft sich in die Auswirkungen generativer KI, hinterfragt verbreitete Ängste und Missverständnisse und erforscht ihren Einfluss auf die menschliche Identität. Diese Veröffentlichungen wurden zu einer Quelle zahlreicher Aphorismen, die in sozialen Medien und deutschen Aphorismen-Archiven zirkulieren. In seinem Ansatz, der auf humane Innovation basiert, harmonisiert Dr. Tsvasman systemische Sichtweisen auf Liebe und Inspiration mit gesellschaftlich ermöglichten Konzepten in Kunst und ethisch robuster, skalierbarer Wissensbildung. Seine Philosophie navigiert durch Unsicherheiten, verankert in einer Wahrheitsorientierung, gestärkt durch KI-gestützte, naturintegrierte Zivilisationsentwürfe, die von selbstregulierenden biosoziotechnologischen Infrastrukturen getragen werden. Diese Sichtweise steht in fundierter Konkurrenz zu den Paradigmen des Transhumanismus, die zum Mainstream geworden sind. Im digitalen Bereich ist Tsvasmans Diskurs über die gesellschaftlichen Auswirkungen der Digitalisierung, insbesondere seine Strategien zur Prävention von Machtverzerrungen im Zivilisationsdesign, zunehmend einflussreich. Seine Präsenz auf sozialen Publikationsplattformen als Disruptor mit originellen Perspektiven zieht ein kritisches Publikum an. Seine Beiträge lösen oft Innovationen durch "Aha"-Momente aus und infizieren Denkweisen mit einfallsreichen Impulsen. In seiner nuancierten, dialogorientierten Publizität navigiert Leon Tsvasman durch Themen wie strategische Intelligenz, Kybernetik multipler Ordnung, KI, globale Governance und Medienethik, aber auch Hochschuldidaktik mit fruchtbaren Praxisimpulsen und Konzeptkunst mit kollaborativen kuratorischen Experimenten. Mit Beiträgen für Plattformen wie dem Digitale Welt Magazin der Universität München verbindet er Tiefe mit Klarheit. Als Pionier in progressiver Bildung integriert er generative KI in die Akademie und setzt sich für eine sinnorientierte Wirtschaft ein, indem er ethisches Bewusstsein in Wirtschafts- und IT-Disziplinen einfließen lässt. Sein aphoristischer Stil verkörpert aufklärerisches Schrifttum. Er hält gerne Keynotes und nimmt an Podiumsdiskussionen auf Konferenzen und Tagungen teil.

Alle Beiträge anzeigen

Der englische Begriff „Governance“ steht für Regierungsgewalt, aber etwa auch Unternehmensführung. Wenn wir uns in der vorliegenden Folge unserer Reihe „KI: Thoroughly explained“ mit Dr. Leon R.Tsvasman über „KI und Governance“ unterhalten, geht es dabei also um die verschiedenen Aspekte von Führung und gesellschaftlicher Steuerung, bei denen Künstliche Intelligenz in Zukunft eine Rolle spielen könnte.

Vielschichtige Folgen künstlicher Intelligenz

In dieser Reihe sprechen wir mit Dr. Leon R. Tsvasman [1] über seine Einschätzungen zum Thema „Künstliche Intelligenz“. In den vorangehenden Folgen ging es um das menschliche Selbstverständnis in Abgrenzung zur Künstlichen Intelligenz, um KI und Ethik,  die Frage, ob eine KI auch kreativ und innovativ sein kann, die Auswirkungen von KI auf die Arbeitswelt, die Frage, wie digitale Wertschöpfung aussehen kann und die künftige Rolle von KI im Bildungswesen. In der nun siebten Folge unserer Serie beschäftigen wir uns mit der Rolle von KI im Zusammenhang mit Steuerung und Führung im weiteren Sinne – oder etwas griffiger: „KI und Governance“.

Dr. Tsvasman befasst sich als Hochschuldozent mit Kommunikations- und Medienwissenschaft sowie philosophischen und ethischen Themen. Er lehrt an mehreren Hochschulen und Fernuniversitäten wie der Wilhelm-Büchner-Universität Darmstadt, der IUBH International University, der Deutsche Welle Akademie, der Hochschule Macromedia, der Hochschule Heilbronn, der TH Ingolstadt, der AI Business School Zürich und weiteren.

Der KI-Experte forscht auf dem Gebiet der kybernetischen Erkenntnistheorie, der anthropologischen Systemtheorie und der Informationspsychologie. Zusätzlich verfolgt er zahlreiche weitere Interessen in unterschiedlichsten Disziplinen. Außerdem hat er verschiedene wissenschaftliche und populärwissenschaftliche Sachbücher geschrieben, wie zum Beispiel „Das große Lexikon Medien und Kommunikation“ in Zusammenarbeit mit dem Begründer des Radikalen Konstruktivismus Ernst von Glasersfeld oder gemeinsam mit seinem Co-Autor, dem KI-Unternehmer Florian Schild „AI-Thinking: Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz“.

Kann KI Verwaltungen effizienter machen – und ist das überhaupt erstrebenswert?

Frage: Ließe sich KI auch dafür nutzen, Bürokratie und Verwaltung zu vereinfachen? Kann sie einen Teil davon eventuell sogar komplett überflüssig zu machen?

Dr. Tsvasman: Aus Perspektive der Betroffenen wäre Unsichtbarkeit wohl die am meisten ersehnte Eigenschaft einer Verwaltung. Denn kaum jemand möchte aus freien Stücken aufdringlich „verwaltet“ werden. Auf jeden Fall müssen sowohl die Notwendigkeit selbst als auch die damit verbundenen Verfahren offensichtlich sein. Könnte die Bürokratie alle ihre negativen Konnotationen also loswerden, wenn die notwendige Verwaltung mit Hilfe der KI unsichtbar wird?

Dem althochdeutschen Verb „waltan“ liegt die Bedeutung „Gewalt“ inne. Und diese Konnotation prägt den Sachverhalt des Verwaltens bis heute mit: Den eigenen Antrieb durch Anwendung eines externen Willensakts brechen, um diesen in die gewünschte Richtung zu lenken. Wenn diese „gewünschte“ Richtung dem betroffenen Eigenantrieb nicht legitim, sondern kryptisch oder willkürlich erscheint, gibt es ein Problem. Im Kleinen spürt man dies, wenn man vor einer roten Ampel auf der weit und breit leeren Kreuzung steht. Um zu funktionieren, erzeugt eine Verwaltung bei aller Intransparenz auch Ehrfurcht – zumal sie in ihrer erzwungenen Relevanz omnipräsent ist. Franz Kafka deutete dies in seinem Roman „Das Schloss“ schon in den 1920er Jahren an. Und der Soziologe Max Weber versuchte, es mittels wissenschaftlicher Aufklärung zu lindern, indem er „Bürokratie“ als den Idealtypus einer „rationalen Herrschaft“ mit validen Merkmalen versehen hat.

Selbstregulation versus Governance

Professionelle Verwaltung hat viele Erscheinungsformen: Menschen, die einem Regelwerk verpflichtet sind – etwa in Staat, Schule oder Armeen. Oder die Selbstverwaltung als Service-Leistung oder Sparmaßnahme öffentlicher Ämter. Das Management von Unternehmen oder das Selbst-Management von motivierten Freiberuflern. Das Dirigieren eines Orchesters oder Regie eines Spielfilms. Bei allen diesen Konnotationen des Verwaltens geht es darum, gemeinsame Angelegenheiten möglichst unsichtbar zu erledigen – und zwar so, dass involvierte Interessen möglichst reibungslos berücksichtigt werden.

Verwaltung ist überall dort notwendig, wo die natureigenen beziehungsweise systemisch-kybernetisch zu verstehenden Prinzipien der Selbstregulation nicht greifen. Und das ist überall dort der Fall, wo es kein übergreifendes Selbstregulations-Prinzip gibt. Oder wo es noch nicht erkannt wurde. Viele betroffene Bereiche stellen zivilisatorische Zwischenlösungen dar und müssen mindestens mittels Androhung von Gewalt reguliert werden– wie ziemlich alles in den meisten menschlichen Gesellschaften bis auf Weiteres. In der Praxis finden in einem aus fremden Elementen zusammengesetzten Patchwork unterschiedliche Systeme zusammen. Dann geht es darum, den eigenen Selbstregulationsantrieb des jeweiligen Systems zu hemmen, um die intendierte Sinn- und Leistungsproduktion zielgerecht sicherzustellen.

Als eine mehr oder weniger sauber gewachsene Verflechtung selbstregulierender Systeme „verwaltet“ die Natur ihre Systeme nicht „bürokratisch“. Naturereignisse setzen jedoch Grenzen und liefern Impulse, die die betroffenen Systeme in ihrer Co-Evolution absorbieren oder verkörpern. Darüber forscht seit Jahren der kybernetisch inspirierte Evolutionsbiologe Humberto Maturana. In der menschlichen Gesellschaft greift diese „natürliche Ordnung“ aus mehreren Gründen nicht. Und auch das vermeintliche Selbstregulationsprinzip der freien Wirtschaft hat keine „saubere“ Lösung zu bieten. Denn es muss sich der Komplexitätsreduktion menschlicher Kommunikation beziehungsweise gemeinsamen und somit kommunikativen Handelns via Medien verpflichten. Diese Diskrepanz ist die Ursache des traditionellen politischen Haderns zwischen „rechts“ und „links“ oder zwischen mehr Markt (Liberalismus) und mehr Umverteilung (Sozialismus).

Effiziente Verwaltung: Falsche Dinge richtig ausführen

Die Fragestellung, ob KI Bürokratie und Verwaltung vereinfachen kann, geht a priori davon aus, dass sich jede von Menschen entworfene Tätigkeit optimieren lässt. Wenn das gelingt, haben wir aber in der Regel ein noch größeres Problem. Denn dann werden unter Umständen falsche Dinge richtig durchgeführt. Die Optimierung von Effizienz in der Verwaltung ist also keine Lösung, denn meistens wissen die Menschen nicht, ob das, was sie tun, richtig ist. Die Menschenvernichtungs-Maschinerie des 20 Jahrhunderts liefert ein besonders tragisches Beispiel. Aber auch der Alltag im Kleinen ist voller Absurditäten – so werden etwa Maßnahmen zur Kompensation von Diskriminierungen umgesetzt, die in der Folge noch mehr diskriminieren.

Solange Menschen die natürliche Komplexität der Zusammenhänge reduzieren müssen, rufen Verzerrungen weitere Verzerrungen hervor. Und hier kommen wir zum wichtigen Punkt: Verwaltungen neigen zur Effizienz, und diese wird mit Hilfe von EDV und mittlerweile auch lokalen KI-Lösungen zunehmend optimiert. Mit optimierender, der Effizienz verpflichteten KI, kann eine Verwaltung durchaus unsichtbar gemacht werden – egal ob die von ihr vorgenommenen „Verwaltungsakte“ gerecht, sinnvoll, rational, human sind oder nicht. So eine unsichtbare „falsche“ Verwaltung ist dann vermutlich destruktiv.

Wenn Effektivität aber bedeuten soll, die richtigen Dinge zu tun, stellt sich die Frage: Wer entscheidet, was richtig ist? Früher waren es menschliche Anführer, die diese Rolle für sich beansprucht haben. Heute ist es zunehmend Wissenschaft gepaart mit Politik. Sie ist geleitet von demokratischen Modellen und wirtschaftlicher Zweckrationalität. Und steht dabei in einem fragilen Dialog mit zum Teil ausschweifenden Organisationen und übermächtigen Global Playern. Aber ein Blick in die Nachrichten zeigt, dass auch Despoten immer noch mitmischen. Nicht nur die personifizierten, sondern auch die aus dem Hinterhalt oder in Organisationen oder mittels Bewegungen agierenden. Und das meistens gewalttätig.

Für die Rolle eines Anführers ist das menschliche Potenzial viel zu schade

Frage: Dann wäre also eher die Frage, ob KI menschliche Anführer“ überflüssig machen könnte. Doch wie würden dann widersprüchliche Interessen innerhalb der menschlichen Gesellschaft ausgeglichen? Das ist heute ja Hauptaufgabe der Politik, auch wenn es nicht immer überzeugend gelingt.

Dr. Tsvasman: Anfang des 20 Jahrhunderts wurden an vielen Ort speziell dafür geschulte Polizisten damit beauftragt, den damals mäßig dichten Verkehr händisch zu regulieren. Heute sagen wir, dass der Einsatz eines Beamten für solche Zwecke ineffizient ist – weil wir – weil wir dichteren und schnelleren Verkehr bei mehr Sicherheits-Bewusstsein und vor allem Ampeln als Verkehrs-Verwaltungs-Automaten haben. Mittlerweile setzt sich sogar das Bewusstsein dafür durch, dass der Straßenverkehr stellenweise viel effektiver kybernetisch verwaltet werden kann. Schon ein einfacher Kreisverkehr ist ein Beispiel dafür. Schließlich regeln auch Thermostate unsere Heizungen zuverlässig genug. In ähnlicher Weise haben wir heute kaum noch etwa Aufzugsführer. Wenn sich das autonome Fahren durchsetzt, wird es bald auch kaum mehr Bus- oder Taxiführer geben.

Was ich damit verdeutlichen will: Echte Menschen wären in der Zukunft zu schade dafür, um als Vertreter von Macht als eines – wie der Systemtheoretiker und Soziologe Niklas Luhman es formulierte – immer unpersönlichen „symbolischen Interaktionsmediums“ missbraucht zu werden. Dabei kommt es gar nicht darauf an, dass die meisten, die diese Rolle bis dato ausfüllen, sich darin geradezu herrlich vorkommen. Auch die Verkehrsregler hatten sich mit ihrer Rolle identifiziert und konnten sich glücklich schätzen, wenn sie gut entlohnt wurden. Aber Prioritäten ändern sich, und ich persönlich bin für eine Zukunft, die Menschen in ihrem Potenzial würdigt. Rein kybernetisch gedacht wäre eine von den Potenzialen der beteiligten Subjekte angetriebene Selbstregulation konsistenter. Und auch sonst wären inspirierte Menschen, die von einer datengeleiteten globalen KI effizient unterstützt würden, doch zuträglicher als düstere Despoten, die sich mit Prunk und Luxus von ihren Gräueltaten ablenken lassen.

Es gilt, die künstliche Komplexität von Bürokratie und Verwaltung loszuwerden

Als symbolisches Interaktionsmedium lebt Macht vom Aufmerksamkeits- und Geltungskredit der „Untergebenen“. In einer Gesellschaft, in der jeder für sich ernsthaft Verantwortung trägt, wäre ein solcher Kredit jedoch wenig sinnvoll. „Ernsthaft“ meint in diesem Zusammenhang, sich orientierend, sich aktiv um die Qualität seiner Erkenntnis selbst bemühend. Und nicht etwa mittels Zeugnissen und Titeln, die einem den Geltungskredit der „Unwissenden“ bescheren. Egal ob Influencer oder Prominente, deren Kapital im Aufmerksamkeitskredit der Unbeachteten schlummern, oder ob einflussreiche Politiker, dessen Geltungskredit von nicht eingeweihten Zeitgenossen oder Ohnmächtigen kommt: Beide Seiten solcher Machtspiele leiden an den Verzerrungen, die diese Konstellation verursacht.

In ihrem Potenzial, redundante Prozesse zu konsolidieren und metasystemische Verzerrungen auszugleichen, wird eine künftige, starke AI bald auch komplexere Regelsätze beherrschen, um systemübergreifende Ermessensentscheidungen automatisieren zu können. Dies setzt allerdings voraus, dass wir im Gegenzug bereit sind, die künstliche Komplexität übermäßiger Bürokratien zu dekonstruieren. Dies würde die heutige sozio-technisch austarierte Regulierung auf die Grundlage widerstandsfähigerer selbstregulierender Systeme zurückführen. Die personifizierten Anführer erübrigen sich jedoch erst dann, wenn alle Menschen sich an Entscheidungsprozessen beteiligen. Einerseits mittels ihrer Daten. Und andererseits mittels des freien Willens entlang ihrer steigernden Erkenntnisfähigkeit, nachdem sie durch die KI von Routineaufgaben und Machtkämpfen untereinander befreit wurden.

Anführer sind von ihrer Rolle in der Regel überfordert

Immerhin haben menschliche Anführer bis jetzt eine Menge Gewalt zu verantworten, wobei sich ihre vermeintlichen Errungenschaften meistens gegenseitig zunichte machten. Die stellenweise sehr bescheidenen humanitären Erfolge menschlicher Zivilisation sind trotz und nicht dank der Leistungen solcher Anführer entstanden. Und die Verzerrung liegt wenig darin, dass es ausschließlich weiße Männer waren, die alle anderen diskriminiert haben. Sondern darin, dass es Menschen waren, die von der Macht über andere Menschen überfordert wurden. Ob demokratisch gewählt oder nicht – es sprechen viele Gründe dafür, menschliche Machtfiguren in ihren verwaltenden oder herrschenden Rollen weg zu automatisieren, sobald es dafür eine valide Chance gibt. Am besten sollte dies sukzessive, ausgewogen, sowie ethisch wie kybernetisch fundiert geschehen.

Ich begründe diese Haltung auch damit, dass kein Mensch in einer Anführer-Rolle seine eigene Potenzialität verkörpert. Vielmehr wird man zu dieser Rolle von mehr oder weniger verzerrten Verhältnissen verleitet. Bestenfalls aus dem Antrieb einer extern herbeigeführten Überzeugung heraus. In den meisten Fällen aber aus Angst, oder von ökonomisch oder der Eitelkeit verpflichteten Privilegien. Solange Verantwortung für sich selbst auf andere übertragen wird, entledigen sich beide Seiten eines Machtverhältnisses jeder Verantwortung. Aus kybernetischer Sicht werden sich Menschen in ihrer Verantwortungsfähigkeit erst dann emanzipieren können, wenn KI Routinen des Überlebens zur Sicherung von Bedürfnissen automatisiert. Dann dürften sich die Menschen in ihren Potenzialen entfalten, um wirklich in der Lage zu sein, Verantwortung für sich selbst zu tragen. Dazu bedarf es kreativer und intellektueller Anstrengung – nicht nach einem ideologischen Vorbild eines wie auch immer begründeten Supermenschen, sondern aus der eigenen Potenzialität eines inspirierten erkennenden Subjekts heraus, das keine Gründe dafür hat, andere Potenziale für fragwürdige Zwecke zu zerstören.

Was hindert eine KI daran, selbst zum Despoten zu werden?

Frage: Wie ließe sich dann aber sicherstellen, dass nicht die KI selbst zum allmächtigen Despoten wird, wie es in dystopischer Science-Fiction häufig vorkommt? Eine alles umfassende Vernetzung und nicht transparente Entscheidungswege böten dafür ja schon bedrohlich günstige“ Voraussetzungen.

Dr. Tsvasman: Was intransparente Entscheidungswege angeht, so wären wir hier wieder bei Kafkas „Schloss“, das wir uns in diesem Fall als einen übermächtigen Rechner vorstellen. In Wirklichkeit geht es bei der globalen KI als technischem Gehirn der Welt um eine Effizienzmaschine, die die verzwickten Geltungen symbolischer Interaktionsmedien entzerrt. Diese KI wäre keine Macht, sondern das Gegenteil davon: Das Machtentzerrungs-Werkzeug der Menschheit.

Die Qualität dieser Maschine hängt einzig und allein von der Qualität der ihr zur Verfügung stehenden Daten ab. Auch wenn diese Maschine irgendwann mal nicht-trivial werden sollte, also ihr eigenes Subjekt entfaltet, wird sie keinen zweckrationalen Sinn dafür haben, mit menschlichen Subjekten zu konkurrieren und sie auf ihren Erkenntniswegen oder in ihren Lebensentwürfen zu stören. Im Gegensatz zum Menschen in einer Machtstellung agiert eine solche nicht-triviale Maschine nicht selbst- oder zweckentfremdet. Da sie nicht überfordert wäre, wäre sie auch nicht frustriert und bräuchte keine Frustrationstoleranz.

Die Gefahr geht von jenen aus, die das Werkzeug KI für ihre Zwecke missbrauchen

Sind jedoch einzelne KIs im Besitz von Menschen mit Macht, so geht die Gefahr nicht von der KI aus, sondern von den Menschen, die solche KIs einsetzen. Also liegt das Problem in solchen Fällen nach wie vor bei den von ihrer jeweiligen Machtstellung überforderten Menschen. Deshalb spreche ich von Anfang an mehr über Menschen als über KI. Machtmenschen – in Unternehmen oder Organisationen – oder menschlichen Machtapparaten KI zu geben, wäre das Unverantwortlichste, was die Menschheit überhaupt tun könnte und würde zweifelsohne im globalen Desaster enden.

Der beste Weg, dies zu vermeiden, wäre, die Kontrolle über KI möglichst bald der KI selbst zu überlassen – also im Endeffekt den sie bestimmenden, möglichst unversperrten Daten. Die wichtigste Aufgabe der Menschen bleibt bis auf weiteres, für die Zufuhr hochwertiger Daten zu sorgen. Alles andere obliegt der ethisch konsistenten Gestaltung der zivilisatorischen Mensch-KI-Schnittstelle. Also im Grunde dem kybernetisch fundierten ethischen Prinzip als gemeinsamer Grundlage. Welche Besonderheiten dabei zu beachten sind, haben wir in dem Gespräch über „KI und Ethik“ bereits eingehend erörtert.

Quellen und Referenzen

[1] https://www.linkedin.com/in/tsvasman/

Interview geführt durch:

Bei dieser Interviewreihe handelt es sich um den adaptierten Reprint der Originalpublikation auf intelligente-welt.de Die Interviewreihe „KI: Thoroughly explained“ wurde zuvor vom Magazin Intelligente Welt veröffentlicht und findet sich unter folgenden Links:
Unsere Interview-Reihe zu Künstlicher Intelligenz: Inside KI
360 Grad KI: Unsere Serie rund um Künstliche Intelligenz

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

25486

share

Artikel teilen

Top Artikel

Ähnliche Artikel