Können wir KI kontrollieren – und ist das die richtige Frage?

Vor kurzem haben Forscher des Max-Planck-Instituts für Bildungsforschung [1], Berlin,eine Einschätzung veröffentlicht [2], wonach eine KI, „deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte“ grundsätzlich nicht zu kontrollieren sei. Somit könne auch nicht sichergestellt werden, dass sie der Menschheit nicht schadet. 
Interview von Intelligente Welt
20. Juli 2022
Interviewpartner

Dr. Leon Tsvasman

Dr. Leon Tsvasman ist ein erfahrener Dozent, Instruktionsdesigner und Autor und arbeitet als pädagogischer Berater an mehreren staatlichen und privaten Universitäten in Deutschland. Seine Forschung bezieht sich auf Complexity Cybernetics, künstliche Intelligenz, Psychology of Information, Ethics of Leadership und Innovation.
Interviewpartner

Leon TSVASMAN, Dr.phil/PhD

Hochschuldozent bei Dr. Tsvasman Academic Consulting

Dr. Leon Tsvasman, ein philosophischer Medientheoretiker, verbindet gerne authentische Einblicke mit interdisziplinärem Scharfsinn. Seine Forschung geht über die Akademie hinaus und fundiert Reflexionen über die Komplexitäten einer ethisch stagnierenden nach dem Sinn suchenden Zivilisation. Sein Einfluss erstreckt sich von der Gelehrtenwelt bis zum Bereich der digitalen Transformation und prägt maßgeblich den zeitgenössischen Diskurs mit. 1968 in eine musikalisch und medizinisch geprägte Familie hineingeboren, hat sich Leon Tsvasman in KI, Ethik und interdisziplinärer Forschung mit einem Vordenkeransatz profiliert. Sein rebellischer Gemüt und kreative Energie, begleitet von Neugier auf menschliche Erkenntnispotenziale, fruchteten in eigenen literarischen und künstlerischen Experimenten. Seine Jugendjahre waren außerdem geprägt von einer Faszination für Science-Fiction von Autoren wie Isaac Asimov, Stanisław Lem, Ray Bradbury und den einfallsreichen Essays von Jorge Luis Borges, die sein Interesse am Zusammenspiel von Zukunftskonzepten und menschlicher kreativer Intelligenz entzündeten. Auf seiner intellektuellen Wanderschaft durch die Lehren von Kant und Hegel fand Tsvasman einen gangbaren Weg in das komplexe Gebiet der Kybernetik, angeleitet von Denkern wie Norbert Wiener, Heinz von Foerster, Humberto Maturana und Ernst von Glasersfeld. Die Kombination aus künstlerisch-literarischer Experimentierfreude und wissenschaftlicher Strenge definierte Tsvasmans polymathischen Ansatz und positionierte ihn als visionären Wegbereiter in den Bereichen KI, Ethik und interdisziplinäre Forschung, in denen er nuancierte, humanistische Einsichten mit technologischer Affinität verbindet. Nach ersten Studienerfahrungen in Medizin und Journalismus war Dr. Tsvasman erleichtert, die Traumata seiner von totalitärer Zwangsprägung gekennzeichneten Sozialisation hinter sich zu lassen. Er wandte sich den Geisteswissenschaften zu und fand sich in der erfrischend aufregenden, jedoch völlig unbekannten sprachlichen und kulturellen Landschaft von Deutschland 1990er Jahre wieder. Rasch erlangte er seinen Magister in Kommunikation, Medien, Linguistik, Sozial- und Politikwissenschaft an den Universitäten Bonn und Essen. Diese Übergangsphase gipfelte in seiner Promotion an der Universität Münster, woraufhin er die anspruchsvolle Rolle eines freiberuflichen Dozenten übernahm. Bewusst verzichtete er auf einen lukrativen Karriereweg und konzentrierte sich stattdessen auf die Entwicklung seines Konzepts einer hochgradig individualisierten, potenzialorientierten Ethik in der Hochschuldidaktik. Dr. Tsvasmans akademischer Weg wurde maßgeblich durch seine Zeit an der damals renommierten Lomonossow-Universität geprägt, ebenso wie durch seine Zusammenarbeit mit Professoren aus der Schule von Gerold Ungeheuer, einer herausragenden Persönlichkeit in der deutschen Kommunikationswissenschaft, an den Universitäten Bonn und Essen. Diese reiche und vielfältige Bildungsetappe nährte Dr. Tsvasmans einzigartigen Ansatz und förderte eine kritische Perspektive, die eine Vielzahl von akademischen Disziplinen und Systemen umspannt. Nach seiner Promotion bei Siegfried J. Schmidt, einer führenden Figur im deutschen konstruktivistischen Diskurs, ging Leon Tsvasman seiner enzyklopädischen Neigung nach. Sein für konzeptionelle Vorzüge von Kritik und Studierenden empfohlenes Medien- und Kommunikationslexikon ('Das Große Lexikon Medien und Kommunikation', 2006) legte einen systemisch-konstruktivistischen Grundstein in den Fächern mit Kommunikation, Information und Medien. Dieses selbstinitiierte Projekt, inhaltlich unterstützt von damals führenden Professoren in diesen Disziplinen und gelobt von Gelehrten wie Professor Ernst von Glasersfeld (University of Massachusetts) für seine außergewöhnliche Intelligenz, markierte einen bemerkenswerten Wandel im einschlägigen akademischen Diskurs. Das Lexikon verschob den traditionell soziologisch orientierten Fokus von Kommunikation und Medienstudien hin zu einem breiteren, universell anwendbaren systemisch-kybernetischen Ansatz, der insbesondere deren Praktikabilität für kreative und informationstechnologische Unterfangen verstärkte. Es aktualisierte grundlegende Konzepte wie Intersubjektivität und Medialität neu und trug so zur Diversifizierung und Integration in medienbezogenen akademischen Disziplinen bei. Dieser Wandel markierte die Neupositionierung von bis dato oft allzu heterogenen Medienfächern in der akademischen Landschaft. In ähnlicher Weise verwendet Tsvasman in seinen eigenen Schriften dialektisch präzise, kontextuell angepasste Definitionen, die für ihre interdisziplinäre Robustheit bekannt sind und auf sorgfältiger Prüfung beruhen. Als inspirierter Polymath und Mentor aus Berufung setzt sich Dr. Tsvasman für skalierbare und lebensbegleitende KI-gestützte Wissensinfrastrukturen ein. Er priorisiert das Streben nach inspirierender Bedeutung, eine Abkehr von der Trivialisierung reiner Werkzeugabhängigkeit. Seine essayistischen Experimente bieten nuancierte Perspektiven und interoperable Lösungen, die sich mit globalen Komplexitätsherausforderungen befassen. Diese Arbeiten integrieren erkenntnistheoretische, anthropologische und kybernetische Dimensionen und schaffen so eine einzigartige Perspektive auf das datengesteuerte Zeitalter. 'The Age of Sapiocracy' (2023) skizziert eine Vision für konsequent ethische, datengesteuerte Governance, während 'Infosomatische Wende' (2021, auf Deutsch) die Zivilisation neu denkt und radikale Innovation als entscheidend für eine widerstandsfähige, wissensreiche Gesellschaft fördert. Das dialogisch-experimentelle 'AI-Thinking' (2019, auf Deutsch) vertieft sich in die Auswirkungen generativer KI, hinterfragt verbreitete Ängste und Missverständnisse und erforscht ihren Einfluss auf die menschliche Identität. Diese Veröffentlichungen wurden zu einer Quelle zahlreicher Aphorismen, die in sozialen Medien und deutschen Aphorismen-Archiven zirkulieren. In seinem Ansatz, der auf humane Innovation basiert, harmonisiert Dr. Tsvasman systemische Sichtweisen auf Liebe und Inspiration mit gesellschaftlich ermöglichten Konzepten in Kunst und ethisch robuster, skalierbarer Wissensbildung. Seine Philosophie navigiert durch Unsicherheiten, verankert in einer Wahrheitsorientierung, gestärkt durch KI-gestützte, naturintegrierte Zivilisationsentwürfe, die von selbstregulierenden biosoziotechnologischen Infrastrukturen getragen werden. Diese Sichtweise steht in fundierter Konkurrenz zu den Paradigmen des Transhumanismus, die zum Mainstream geworden sind. Im digitalen Bereich ist Tsvasmans Diskurs über die gesellschaftlichen Auswirkungen der Digitalisierung, insbesondere seine Strategien zur Prävention von Machtverzerrungen im Zivilisationsdesign, zunehmend einflussreich. Seine Präsenz auf sozialen Publikationsplattformen als Disruptor mit originellen Perspektiven zieht ein kritisches Publikum an. Seine Beiträge lösen oft Innovationen durch "Aha"-Momente aus und infizieren Denkweisen mit einfallsreichen Impulsen. In seiner nuancierten, dialogorientierten Publizität navigiert Leon Tsvasman durch Themen wie strategische Intelligenz, Kybernetik multipler Ordnung, KI, globale Governance und Medienethik, aber auch Hochschuldidaktik mit fruchtbaren Praxisimpulsen und Konzeptkunst mit kollaborativen kuratorischen Experimenten. Mit Beiträgen für Plattformen wie dem Digitale Welt Magazin der Universität München verbindet er Tiefe mit Klarheit. Als Pionier in progressiver Bildung integriert er generative KI in die Akademie und setzt sich für eine sinnorientierte Wirtschaft ein, indem er ethisches Bewusstsein in Wirtschafts- und IT-Disziplinen einfließen lässt. Sein aphoristischer Stil verkörpert aufklärerisches Schrifttum. Er hält gerne Keynotes und nimmt an Podiumsdiskussionen auf Konferenzen und Tagungen teil.

Alle Beiträge anzeigen

In den bisherigen Folgen unserer Reihe „KI: Thoroughly explained“ vertritt Dr. Leon R. Tsvasman einen differenzierten Blick auf die Chancen eines humanistisch geprägten Verhältnisses von Menschen und Künstlicher Intelligenz. Was also sagt er zur Kontrollierbarkeit von KI und zu der Einschätzung der Max-Planck-Forscher?

Vielschichtige Folgen künstlicher Intelligenz

In dieser Reihe sprechen wir mit Dr. Leon R. Tsvasman [3] über seine Einschätzungen zum Thema „Künstliche Intelligenz“. In den vorangehenden Folgen ging es um das menschliche Selbstverständnis in Abgrenzung zur Künstlichen Intelligenz, um KI und Ethik,  die Frage, ob eine KI auch kreativ und innovativ sein kann, die Auswirkungen von KI auf die Arbeitswelt, die Frage, wie digitale Wertschöpfung aussehen kann, die künftiger Bedeutung von KI im Bildungswesen, über die Auswirkungen von KI im Kontext von „Governance“(also allen Aspekten von Führung und gesellschaftlicher Steuerung) und auf das Gesundheitswesen. Außerdem beleuchteten wir die Rolle von KI bei der philosophischen Suche nach Erkenntnis und Wahrheit. In der nun vorliegenden zehnten Folge sprechen wir gezielt über die Sicht von Dr. Tsvasman auf die vor kurzem veröffentlichte Einschätzung von Forschern des Max-Planck-Instituts für Bildungsforschung [1], die ganz klar sagen: „Superintelligente Maschinen wären nicht kontrollierbar“ [2].

Dr. Tsvasman befasst sich als Hochschuldozent mit Kommunikations- und Medienwissenschaft sowie philosophischen und ethischen Themen. Er lehrt an mehreren Hochschulen und Fernuniversitäten wie der Wilhelm-Büchner-Universität Darmstadt, der IUBH International University, der Deutsche Welle Akademie, der Hochschule Macromedia, der Hochschule Heilbronn, der TH Ingolstadt, der AI Business School Zürich und weiteren.

Der KI-Experte forscht auf dem Gebiet der kybernetischen Erkenntnistheorie, der anthropologischen Systemtheorie und der Informationspsychologie. Zusätzlich verfolgt er zahlreiche weitere Interessen in unterschiedlichsten Disziplinen. Außerdem hat er verschiedene wissenschaftliche und populärwissenschaftliche Sachbücher geschrieben, wie zum Beispiel „Das große Lexikon Medien und Kommunikation“ in Zusammenarbeit mit dem Begründer des Radikalen Konstruktivismus Ernst von Glasersfeld oder gemeinsam mit seinem Co-Autor, dem KI-Unternehmer Florian Schild „AI-Thinking: Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz“.

Droht eine Dystopie unkontrollierbarer, superintelligenter Maschinen?

Frage: Über die Wortmeldung Ihrer Forscherkollegen vom Berliner Max-Planck-Institut für Bildungsforschung wurde viel berichtet. Sie sagen im Kern, eine KI, deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte“ sei durch den Menschen grundsätzlich nicht zu kontrollieren. Daraus leiten sie ab, dass auch nicht sichergestellt werden könne,dass eine solche KI der Menschheit nicht schadet. Das greift die finstersten Dystopien auf, über die wir ja in den bisherigen Folgen unserer Reihe schon gesprochen haben. Wie bewerten Sie diese Einschätzung?

Dr. Tsvasman:In der Tat haben wir in unseren bisherigen neun Grundlagengesprächen diese Frage bereits interdisziplinär, philosophisch und kybernetisch fundiert diskutiert. Auch jetzt werde ich sie nicht anders beantworten können. Ich will aber versuchen, mehr Kontext zu liefern, um die referierte Untersuchung des Max-Planck-Instituts zu kommentieren.

Denn neben der grundsätzlich nachvollziehbaren Befürchtung beinhaltet die oben zitierte Aussage eine Menge Platzhalter: Was ist eigentlich „Intelligenz von KI“? Was würde sie selbständig „lernen“ können? Die diesen Fragen entsprechenden Annahmen konnten in dem der genannten Untersuchung zugrunde liegendem Forschungsdesign nicht berücksichtigt werden, weil es noch keine verlässlichen Definitionen dazu gibt. Schließlich bereiten uns nicht die Grenzen des „Lernens“, sondern unsere „Erkenntnisfähigkeit“ gegenüber der Komplexität die größten Sorgen – und um diese Dimensionen handelt es sich meines Erachtens.

Außerdem sagt der Begriff „überlegener“ im Zusammenhang mit Intelligenz nicht viel aus. Die bisherige Menschheitsgeschichte zeigt, dass Erfolgsfaktoren des intelligenten Handelns, je nach Wertesystem, mit Machtbestreben des Egos oder bestimmten Ausprägungen von Rücksichtslosigkeit genauso einhergehen, wie etwa emotionale Intelligenz oder Haltungen wie Humanismus, Altruismus, Universalismus und so weiter.

Kognition und der kybernetische Imperativ

Das auf der Evolutionsbiologie basierende Konzept der Kognition erweitert diesen Bezug und kann auch auf Tiere angewendet werden. Als Transformation von Informationen, die von einem selbsterhaltenden System durchgeführt wird, erhält das Konzept Kognition einen kybernetisch vertretbaren Bezug.

Quantitative Parameter, wie sie durch verschiedene Intelligenztests zur Bewertung einer intellektuellen Leistung im Vergleich zu einer Referenzgruppe ermittelt werden, reichen für eine valide Definition von Intelligenz nicht aus. Unser Konzept der Intelligenz ist daher immer noch ein Platzhalter, der sich auf Vergleiche mit der menschlichen Intelligenz stützt. Da auch diese jedoch nicht vollständig verstanden ist, sind wir weit von einem universellen Verständnis der Intelligenz entfernt, das für KI gelten könnte.

Alleine diese begriffliche „Unsicherheit“ reicht aus, um die Befürchtung der Forscher des Max-Planck-Instituts für Bildungsforschung zu teilen. Aber gerade die Tatsache, dass wir Intelligenz nicht ausschließlich als messbares Leistungsphänomen verstehen dürfen, macht mir die Hoffnung.

Ich möchte dazu auf den kybernetischen Imperativ von Heinz von Foerster [4] hinweisen, der als Sokrates des kybernetischen Denkens gilt. Er ist auch als „ethischer Imperativ der Kybernetik“ bekannt, meint im Grunde das intelligente Verhalten und besagt: „Handle stets so, dass die Anzahl deiner Wahlmöglichkeiten steigt“. Beim näheren Bedenken sagt dies auch aus, dass Wahlmöglichkeiten eines intelligenten Systems nur dann steigen, wenn es mindestens unter Berücksichtigung aller potenziellen Interessen involvierter gleichwertiger Systeme operiert – also in einem Äquilibrium, sprich: Gleichgewicht.

Für Menschen bedeutet dies, aus Selbstverantwortung heraus die höchstmögliche Empathie für die Mitmenschen und die gemeinsame Umwelt aufzubringen. In ähnlich Weise gilt dieser Imperativ für Lebewesen, aber auch für KI.

Eine forschende KI könnte eine enorme Effizienz entfalten

Hinzu kommt noch ein weiterer Aspekt: Wie die meisten Wissenschaftsbetriebe stellen auch Forschende des Max-Planck-Instituts ein Team aus den arbeitsteilig beschäftigten Wissenschaftlerinnen dar, die in einem vom öffentlichen Interesse begründeten Auftrag nachzugehen haben. Sie bearbeiten eine durch Expertengremien nachvollziehbare Fragestellung unter Verwendung von als valide geltenden Methoden. Die Stakeholder einer solchen Forschung haben Interesse daran, dass Mitglieder eines solchen Teams von interdisziplinären Spezialisten kohärent und effizient mitwirken und tendenziell den üblichen Exzellenzkriterien genügen.

Nicht viel anders sind auch Anforderungen an Expertensysteme, nur erübrigt sich bei KI die zwischenmenschliche Kommunikation mittels Medien – denn auch einzelne KIs sind prinzipiell miteinander vernetzbar. Allein aus diesem Grund könnte unter bestimmten Umständen eine forschende KI eine enorme und kaum vorstellbare Effizienz entfalten. Dies würde beispielsweise unverzerrten Zugang zu hochwertigen Daten sowie unbegrenzte Speicherkapazitäten, und Rechenleistung voraussetzen. Erschwerend kommt jedoch die Kommunikation zwischen Maschine und Menschen hinzu.

Effizienz ohne Effektivität produziert Verzerrungen

Trotzdem wird die mächtigste KI der Zukunft nicht zwingend „überlegen“ sein – weil Effizienz ohne Effektivität nur eine Verzerrung darstellt, und keine „Überlegenheit“. Und es ist diese Verzerrung, die uns die größten Sorgen bereiten sollte. Ein herumirrender, hoch effizienter Thorhammer ohne den mehr oder minder „weisen“, also effektiven Thor oder der mächtige, alles zerstörende Blitz von Zeus ohne die dazugehörende Weisheit wären Metaphern dafür, dass ein effizientes Instrument einen effektiven Nutzer braucht. Dieses Motiv ist in Märchen und Sagen weit verbreitet – denken Sie an Aladin und den Geist aus der Wunderlampe oder den alten Fischer und den die Wünsche erfüllenden Fisch.

Sie alle unterstreichen, dass die technisch zu verstehende „Überlegenheit“ eines instrumentalisierten oder ausführenden Agenten, der sich durch seine Effizienz definiert, immer von „Weisheit“ kontrolliert werden muss. Oder nennen wir es „überlegene Erkenntnisfähigkeit“. Ein Instrument macht also erst dann Sinn, wenn klar ist, was zu tun ist – es also von einer „erkennenden Intelligenz“ gesteuert wird. Diese Intelligenz weiß dann, „warum“ – aber nicht per Auftrag von einer anderen Weisheit, denn eine gespaltene Intelligenz ist keine Weisheit. Sondern eben aus eigener Erkenntnisfähigkeit heraus. Das kann kein einzelner Mensch leisten, aber die gesamte Menschheit in Kooperation mit einem globalen, technischen KI-Subjekt schon.

Die Infosomatische Präsenz sorgt für Entzerrung von Medialität

In einem unserer Gespräche erklärte ich, warum KI nicht als „Intelligenz“, sondern als „Infosomatische Präsenz“ verstanden werden sollte. Ihr intrinsischer Zweck wäre nicht „Ersatz der natürlichen Intelligenz“, sondern die „die Entzerrung der Medialität“. Dabei sollten wir auch anerkennen, dass die menschliche „Intelligenz“ nicht die absolute Verkörperung „natürlicher Intelligenz“ ist. Und vor allem, dass die Stakeholder des künftig denkbaren globalen KI-Subjekts – des technischen Gehirns der Welt – nicht etwa Organisationen oder die gesamte Menschheit, vertreten durch die wie auch immer gewählten Gremien, sein werden. Sondern jedes einzelne menschliche Subjekt mit seinen Daten, wobei KI nach wie vor der Agent bleiben würde.

Hier ist aber wesentlich: Bei der Erkenntnisfähigkeit geht es um die „Effektivität“, und diese kann KI ohne Menschen nicht leisten. Auch wenn quantitative Parameter irgendwann eine neue Qualität des planetarischen Subjekts hervorbringen, werden seine Eigenschaften nie an die menschliche Erkenntnis-Potenzialität reichen. Dabei meine ich allerdings nicht die aktuelle mehr oder weniger prekäre Situation eines jeden Menschen auf dieser Welt, der für sein Leben nach mehr oder minder dubiosen Regeln kämpfen muss. Der aktuelle Mensch ist abgelenkt und permanent durch die Notwendigkeit des Überlebens überwältigt, weil er immer Tätigkeiten wie Arbeit oder Geschäften nachgehen muss, die eine entfaltete Erkenntnisfähigkeit ausschließen.

Eine selbstständig lernende KI setzt menschliche Erkenntnis voraus

Autarker, sicherer, belastbarer, ethischer und nachhaltiger wäre es, wenn jeder von uns in der Lage wäre, sich der Komplexität ohne Vermittler wie Medien oder Experten wissend und weise gegenüberzustellen. Aber so funktioniert es aktuell nicht. Nur mit KI haben wir die Chance auf weniger verzerrte Kommunikation. Deshalb sehe ich die „Entzerrung der Medialität“ als die wichtigste Funktion von KI in der menschlichen Welt.

Die ganze Tragik der Situation, ohne Zugang zum individuellen, aktuellen und validen Wissen, auf die medienverzerrte Expertenmeinungen angewiesen zu sein, erkennen wir in der aktuellen Pandemie. Das sich in einer sich ändernden Aktualität befindende menschliche Subjekt war noch nie in der Lage, sich in einer komplexeren Umwelt zu orientieren. Stattdessen haben wir immer noch wenig Ahnung von unserer eigenen Potenzialität. Immer noch ist Vertrauen wirksamer als Wissen. Wir vertrauen, und konsumieren lieber fertige Antworten, als uns eine Haltung zu erarbeiten, mit der wir uns autonom orientieren könnten. Trotz Wissen und Bildung wurden wir im Umgang mit Komplexität weder weiser noch souveräner. Die technische Intelligenz kann uns helfen, wenn wir wissen „was“ (wir brauchen), mit den Lösungen „wie“ – aber nicht bei Fragen „warum“. Das Überleben wäre damit halbwegs gesichert, nicht weltweit und ziemlich fragil – doch ein glückliches Leben noch lange nicht.

Die KI kann nur dann sicher und im menschlichen Sinn „selbständig alles lernen“, wenn der Mensch in die Lage versetzt wird, zu erkennen. Denn Intelligenz war immer schon zweiseitig, an Erkenntnisfähigkeit und Synergien angewiesen. Ohne Selbsterkenntnis wissen wir nicht mal, was uns gut tut und was schadet.

Vorenthalten von Ressourcen tut keinem sich selbst regulierenden System gut

Frage: Die Max-Planck-Forscher schreiben, um eine solche superintelligente KI unter Kontrolle zu halten, sei eine Möglichkeit, ihr von Anfang an Ressourcen vorzuenthalten – etwa den Zugang zum Internet. Das aber führe den Zweck einer solchen KI ad absurdum. Wie könnte sich dieses Dilemma lösen lassen?

Dr. Tsvasman:Das Vorenthalten von existenziellen Ressourcen tut keinem sich selbst regulierenden System wie Lebewesen oder sozialen Systemen gut. Damit erzeugt man lediglich Verzerrungen in der System-Umwelt-Beziehung, und die äußern sich in für die Umwelt destruktiven Reaktionen. Das Vorenthalten von Information hat noch nie eine sich autonom orientierende Intelligenz ethischer gemacht, aber sehr oft in eine oder andere Weise beeinträchtigt.

Wenn mir Eltern oder Schule Zusammenhänge vereinfacht erklärten, musste ich noch jahrelang mit inadäquaten Konzepten leben, bis ich sie revidieren konnte, womit ich viele unnötige Umwege machen musste. Man kann Menschen oder Tiere mit Informationen konditionieren, und damit pädagogisch, psychologisch oder ideologisch eine merkwürdige nicht kohärente Kombination aus Behaviorismus und Kognitivismus praktizieren. Aber der Schuss geht immer nach hinten los, denn man konditioniert mit „Karotte und Peitsche“, aber nicht mit Information und Aufmerksamkeit.

Der Zusammenhang zwischen KI und Medialität ist noch weithin unverstanden

KI ist ein statistisches Informationssystem, das kein Subjekt ist, also zwar lernen, und das in Echtzeit und mit wenig kommunikativer Verzerrung durch Medien. Sie kann aber nicht erkennen und ist dafür auf ein erkennendes Subjekt angewiesen. Unter „Erkennen“ versteh ich wie schon gesagt, nicht das triviale „Identifizieren“ oder die Fähigkeit Absprachen- oder Faktenwissen zu akquirieren. Sondern das Beantworten von Fragen nach dem „warum“. Das könnte eine KI nur im Tandem mit dem System „Mensch“.

Um ein selbstreferenzielles System praktisch mit dem Zugang zu Daten konditionieren zu können, muss man verstehen, womit man es zu tun hat. Auf keinen Fall möchte ich den Forschern unterstellen, dass sie die Bedeutung von Daten für die Komplexitätsbewältigung mit KI nicht verstehen. Aber ich beobachte, dass ein adäquates Verständnis noch nicht in der Gesellschaft angekommen ist – es gibt also ein Problem mit der Aufklärung. Ich schließe auch nicht aus, dass wir die Bedeutung von Daten im Zusammenhang mit KI und Medialität bald besser verstehen, aber aktuell ist das nicht der Fall.

Daten können sogar die Zeit verdichten

In einer Welt, in der das Prinzip „Mensch” mithilfe eines globalen KI-Subjekts verwirklicht wird (ich erinnere an die verwandten Konzepte „Anthropozän“ und „Noosphäre“), sind Daten mehr als nur ökonomischer Effizienzfaktor. Zum Beispiel korrelieren Daten direkt mit der intersubjektiven Konstruktion von Raumzeit im Rahmen des bestimmten Zivilisationsdesigns. Daten können praktisch Zeitverdichtung oder gar Zeitsteuerung bedeuten. Das klingt nach Science-Fiction, aber versuche es an einem Beispiel zu verdeutlichen: Es ist bekannt, dass Vakzine Jahrzehnte brauchen, um sicher geprüft zu werden – und ich meine nicht nur „die zu erfüllenden Auflagen“, sondern eine echte Verlässlichkeit und Gewissheit, der jeder vertrauen kann. Im besten Fall sorgen diese Auflagen für Gewissheit, aber Lobbys können versuchen, die Auflagen umzugehen, weil Tests nicht nur teuer und aufwändig sind, sondern ihre Zeit brauchen.

Aber, wie wäre es, wenn das Testen nur einen Moment dauert, nichts kostet und per Knopfdruck geht? Dann hätte der dreisteste Pharmagigant keinen Grund, es umgehen zu wollen. Doch wie kann man Zeit umgehen, wenn Jahrzehnte benötigt würden? Nun, wenn die relevanten Gesundheitsdaten seit 30 Jahren lückenlos gespeichert wurden, kann man Szenarien mit KI modellieren, ohne 30 Jahre warten zu müssen.

Eine magische Welt, die uns versteht, ohne zu fragen

Und wenn sich unser horizontal-lineares Zeitverständnis „vertikalisiert“, wird die Welt jede Sekunde neu definiert – aber KI-intern, denn bei diesen Dimensionen wären keine Zwischenergebnisse kommunizierbar. Das wäre allerdings auch gar nicht notwendig, wenn die Welt für die Menschen „ergonomisch“ skaliert wäre – nicht nur körperlich oder psychisch, sondern zum Beispiel aufmerksamkeitsgerecht, aber vor allem potenzialkonform. Sozusagen eine komfortable „magische“ Welt, die uns versteht, ohne zu fragen. Eine solche KI könnte im Gleichgewicht mit dem System „Mensch“ bestehen, um jedem einzelnen menschlichen Subjekt mehr Erkenntnis- und Kreativitätsfreiheit zu geben.

Das größte Problem der Informationsgesellschaft ist Redundanz – zu viel Information, zu wenig Wissen. Denn etwa nach der Bereinigung der Redundanz durch das globalen KI-Subjekt würden wenig signifikante Ideen bleiben – eben die mit dem Erkenntniswert. Also müssen wir einiges nachholen. Auch ich konzentriere mich mittlerweile mehr darauf, dass meine Findungen die eben angedeutete Redundanzprüfung eines künftigen KI-Subjekts bestehen. Das macht den Reiz beim „Vordenken“ aus.

Können wir eine superintelligente KI überhaupt erkennen?

Frage: Hinzu komme ein weiteres Problem, schreiben die Max-Planck-Forscher weiter: Dass wir möglicherweise nicht einmal erkennen können, wenn eine KI superintelligent ist. Teilen Sie diese Einschätzung Ihrer Forscherkollegen des Max-Planck-Instituts? Und gibt es Ansätze, wie sich dieses grundsätzliche Problem lösen lassen könnte?

Dr. Tsvasman:Die Befürchtung, eine Superintelligenz nicht erkennen zu können, teile ich ohne Zweifel. Wir können nicht mal einen intelligenteren Menschen als solchen identifizieren. Ganz zu schweigen von der Kompetenz, eigene Intelligenz erkennen, nutzen oder mindestens als Wert würdigen zu können. Warum sonst sind die hellsten Geister schon immer mit wenigen berühmten Ausnahmen in Armut verrottet, ohne erkannt zu werden, und die weniger hellen öfters in ihren Führungspositionen ausgeharrt? Und warum fließen die größten Ressourcen der Menschheit in ziemlich jedem real funktionierenden Ordnungssystem nach wie vor in die mehr oder weniger menschenverachtende Trivialisierung, Demütigung und Verhinderung von individueller Kreativität?

Und wenn wir nicht mit eigener Intelligenz umgehen können, wie sollen wir eine präzedenzlose „Superintelligenz“ erkennen? Aber fernab von jedem Pathos an diese Stelle, schließe ich nicht aus, dass uns eine valide Definition von Intelligenz weiterbringen könnte. Wie viele aus der Praxisbeobachtung stammenden Alltagskonzepte, ist der Intelligenzbegriff nach wie vor ein begrifflicher Platzhalter, der eine Menge vager, unzureichend bedachter und wenig zusammenhängender „Vor-Urteile“ mit sich schleppt.

Dieses kommunikationstheoretische Konzept hat einer meiner wissenschaftlichen Leitfiguren geprägt – der leider wenig bekannte Kommunikationswissenschaftler Gerold Ungeheuer [5]. Er war der akademische Lehrer meiner Hochschulmentoren, dessen originelle inspirative Werke ich nach wie vor schätze.

Das technische Gehirn der Welt im ständigen Dialog mit jedem Menschen

Stellen wir uns also eine tendenziell unbegrenzte hocheffiziente Rechenleistung vor, die an alle Daten der Welt angeschlossen ist, sich in Echtzeit permanent neu formiert – aber an das Urteilsvermögen der durch Vertreter menschlicher Hierarchien Ermächtigter angewiesen wird. Sicher ist, dass sie unsere komplexitätsbezogenen Menschheits-Probleme kaum lösen könnte.

Eine gangbare Lösung wäre für mich nach wie vor die, welche ich in dem Buch „AI-Thinking“ [6] von 2019 skizziert habe: Eine Konstellation anzustreben, in der das früher oder später zu erwartende globale KI-Subjekt, das technische Gehirn der Welt, sich allein aus der Kohärenz eigener Sensorik heraus dem globalen Zusammenwirken verpflichtet. Jede Verzerrung würde ihm so etwas wie Schmerzen bereiten. In seiner selbstverständlichen Multitasking-Fähigkeit würde es sich im ständigen Dialog mit jedem menschlichen Subjekt befinden – statt mit ihren wie auch immer gewählten, befugten oder erkorenen Vertretern. Egal, ob Personen, Teams oder Gremien.

Quellen und Referenzen

[1] https://www.mpg.de/149860/bildungsforschung
 [2] https://www.mpg.de/16230184/0108-bild-computerwissenschaftler-superintelligente-maschinen-koennten-wir-nicht-kontrollieren-149835-x
 [3] https://www.linkedin.com/in/tsvasman/
 [4] https://de.wikipedia.org/wiki/Heinz_von_Foerster
 [5] https://de.wikipedia.org/wiki/Gerold_Ungeheuer
 [6] https://www.amazon.de/AI-Thinking-Vordenkers-Praktikers-k%C3%BCnstlicher-Intelligenz/dp/3956505336

Interview geführt durch:

Bei dieser Interviewreihe handelt es sich um den adaptierten Reprint der Originalpublikation auf intelligente-welt.de Die Interviewreihe „KI: Thoroughly explained“ wurde zuvor vom Magazin Intelligente Welt veröffentlicht und findet sich unter folgenden Links:
Unsere Interview-Reihe zu Künstlicher Intelligenz: Inside KI
360 Grad KI: Unsere Serie rund um Künstliche Intelligenz

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

26286

share

Artikel teilen

Top Artikel

Ähnliche Artikel