Künstliche Intelligenz und Ethik

Wie sieht die Zukunft von und mit künstlicher Intelligenz aus, und welche ethischen Fragestellungen können durch Fortschritte der Technologie aufkommen? Wenn man Grundsätze explizit formuliert, um dynamische selbstregulierende Systeme zu steuern, landen wir bei der ad absurdum gebrachten menschlichen Bürokratie. So funktioniert Kybernetik nicht.
Interview von Intelligente Welt
25. Mai 2022
Interviewpartner

Dr. Leon Tsvasman

Dr. Leon Tsvasman ist ein erfahrener Dozent, Instruktionsdesigner und Autor und arbeitet als pädagogischer Berater an mehreren staatlichen und privaten Universitäten in Deutschland. Seine Forschung bezieht sich auf Complexity Cybernetics, künstliche Intelligenz, Psychology of Information, Ethics of Leadership und Innovation.
Interviewpartner

Leon TSVASMAN, Dr.phil/PhD

Hochschuldozent bei Dr. Tsvasman Academic Consulting

Dr. Leon Tsvasman, ein philosophischer Medientheoretiker, verbindet gerne authentische Einblicke mit interdisziplinärem Scharfsinn. Seine Forschung geht über die Akademie hinaus und fundiert Reflexionen über die Komplexitäten einer ethisch stagnierenden nach dem Sinn suchenden Zivilisation. Sein Einfluss erstreckt sich von der Gelehrtenwelt bis zum Bereich der digitalen Transformation und prägt maßgeblich den zeitgenössischen Diskurs mit. 1968 in eine musikalisch und medizinisch geprägte Familie hineingeboren, hat sich Leon Tsvasman in KI, Ethik und interdisziplinärer Forschung mit einem Vordenkeransatz profiliert. Sein rebellischer Gemüt und kreative Energie, begleitet von Neugier auf menschliche Erkenntnispotenziale, fruchteten in eigenen literarischen und künstlerischen Experimenten. Seine Jugendjahre waren außerdem geprägt von einer Faszination für Science-Fiction von Autoren wie Isaac Asimov, Stanisław Lem, Ray Bradbury und den einfallsreichen Essays von Jorge Luis Borges, die sein Interesse am Zusammenspiel von Zukunftskonzepten und menschlicher kreativer Intelligenz entzündeten. Auf seiner intellektuellen Wanderschaft durch die Lehren von Kant und Hegel fand Tsvasman einen gangbaren Weg in das komplexe Gebiet der Kybernetik, angeleitet von Denkern wie Norbert Wiener, Heinz von Foerster, Humberto Maturana und Ernst von Glasersfeld. Die Kombination aus künstlerisch-literarischer Experimentierfreude und wissenschaftlicher Strenge definierte Tsvasmans polymathischen Ansatz und positionierte ihn als visionären Wegbereiter in den Bereichen KI, Ethik und interdisziplinäre Forschung, in denen er nuancierte, humanistische Einsichten mit technologischer Affinität verbindet. Nach ersten Studienerfahrungen in Medizin und Journalismus war Dr. Tsvasman erleichtert, die Traumata seiner von totalitärer Zwangsprägung gekennzeichneten Sozialisation hinter sich zu lassen. Er wandte sich den Geisteswissenschaften zu und fand sich in der erfrischend aufregenden, jedoch völlig unbekannten sprachlichen und kulturellen Landschaft von Deutschland 1990er Jahre wieder. Rasch erlangte er seinen Magister in Kommunikation, Medien, Linguistik, Sozial- und Politikwissenschaft an den Universitäten Bonn und Essen. Diese Übergangsphase gipfelte in seiner Promotion an der Universität Münster, woraufhin er die anspruchsvolle Rolle eines freiberuflichen Dozenten übernahm. Bewusst verzichtete er auf einen lukrativen Karriereweg und konzentrierte sich stattdessen auf die Entwicklung seines Konzepts einer hochgradig individualisierten, potenzialorientierten Ethik in der Hochschuldidaktik. Dr. Tsvasmans akademischer Weg wurde maßgeblich durch seine Zeit an der damals renommierten Lomonossow-Universität geprägt, ebenso wie durch seine Zusammenarbeit mit Professoren aus der Schule von Gerold Ungeheuer, einer herausragenden Persönlichkeit in der deutschen Kommunikationswissenschaft, an den Universitäten Bonn und Essen. Diese reiche und vielfältige Bildungsetappe nährte Dr. Tsvasmans einzigartigen Ansatz und förderte eine kritische Perspektive, die eine Vielzahl von akademischen Disziplinen und Systemen umspannt. Nach seiner Promotion bei Siegfried J. Schmidt, einer führenden Figur im deutschen konstruktivistischen Diskurs, ging Leon Tsvasman seiner enzyklopädischen Neigung nach. Sein für konzeptionelle Vorzüge von Kritik und Studierenden empfohlenes Medien- und Kommunikationslexikon ('Das Große Lexikon Medien und Kommunikation', 2006) legte einen systemisch-konstruktivistischen Grundstein in den Fächern mit Kommunikation, Information und Medien. Dieses selbstinitiierte Projekt, inhaltlich unterstützt von damals führenden Professoren in diesen Disziplinen und gelobt von Gelehrten wie Professor Ernst von Glasersfeld (University of Massachusetts) für seine außergewöhnliche Intelligenz, markierte einen bemerkenswerten Wandel im einschlägigen akademischen Diskurs. Das Lexikon verschob den traditionell soziologisch orientierten Fokus von Kommunikation und Medienstudien hin zu einem breiteren, universell anwendbaren systemisch-kybernetischen Ansatz, der insbesondere deren Praktikabilität für kreative und informationstechnologische Unterfangen verstärkte. Es aktualisierte grundlegende Konzepte wie Intersubjektivität und Medialität neu und trug so zur Diversifizierung und Integration in medienbezogenen akademischen Disziplinen bei. Dieser Wandel markierte die Neupositionierung von bis dato oft allzu heterogenen Medienfächern in der akademischen Landschaft. In ähnlicher Weise verwendet Tsvasman in seinen eigenen Schriften dialektisch präzise, kontextuell angepasste Definitionen, die für ihre interdisziplinäre Robustheit bekannt sind und auf sorgfältiger Prüfung beruhen. Als inspirierter Polymath und Mentor aus Berufung setzt sich Dr. Tsvasman für skalierbare und lebensbegleitende KI-gestützte Wissensinfrastrukturen ein. Er priorisiert das Streben nach inspirierender Bedeutung, eine Abkehr von der Trivialisierung reiner Werkzeugabhängigkeit. Seine essayistischen Experimente bieten nuancierte Perspektiven und interoperable Lösungen, die sich mit globalen Komplexitätsherausforderungen befassen. Diese Arbeiten integrieren erkenntnistheoretische, anthropologische und kybernetische Dimensionen und schaffen so eine einzigartige Perspektive auf das datengesteuerte Zeitalter. 'The Age of Sapiocracy' (2023) skizziert eine Vision für konsequent ethische, datengesteuerte Governance, während 'Infosomatische Wende' (2021, auf Deutsch) die Zivilisation neu denkt und radikale Innovation als entscheidend für eine widerstandsfähige, wissensreiche Gesellschaft fördert. Das dialogisch-experimentelle 'AI-Thinking' (2019, auf Deutsch) vertieft sich in die Auswirkungen generativer KI, hinterfragt verbreitete Ängste und Missverständnisse und erforscht ihren Einfluss auf die menschliche Identität. Diese Veröffentlichungen wurden zu einer Quelle zahlreicher Aphorismen, die in sozialen Medien und deutschen Aphorismen-Archiven zirkulieren. In seinem Ansatz, der auf humane Innovation basiert, harmonisiert Dr. Tsvasman systemische Sichtweisen auf Liebe und Inspiration mit gesellschaftlich ermöglichten Konzepten in Kunst und ethisch robuster, skalierbarer Wissensbildung. Seine Philosophie navigiert durch Unsicherheiten, verankert in einer Wahrheitsorientierung, gestärkt durch KI-gestützte, naturintegrierte Zivilisationsentwürfe, die von selbstregulierenden biosoziotechnologischen Infrastrukturen getragen werden. Diese Sichtweise steht in fundierter Konkurrenz zu den Paradigmen des Transhumanismus, die zum Mainstream geworden sind. Im digitalen Bereich ist Tsvasmans Diskurs über die gesellschaftlichen Auswirkungen der Digitalisierung, insbesondere seine Strategien zur Prävention von Machtverzerrungen im Zivilisationsdesign, zunehmend einflussreich. Seine Präsenz auf sozialen Publikationsplattformen als Disruptor mit originellen Perspektiven zieht ein kritisches Publikum an. Seine Beiträge lösen oft Innovationen durch "Aha"-Momente aus und infizieren Denkweisen mit einfallsreichen Impulsen. In seiner nuancierten, dialogorientierten Publizität navigiert Leon Tsvasman durch Themen wie strategische Intelligenz, Kybernetik multipler Ordnung, KI, globale Governance und Medienethik, aber auch Hochschuldidaktik mit fruchtbaren Praxisimpulsen und Konzeptkunst mit kollaborativen kuratorischen Experimenten. Mit Beiträgen für Plattformen wie dem Digitale Welt Magazin der Universität München verbindet er Tiefe mit Klarheit. Als Pionier in progressiver Bildung integriert er generative KI in die Akademie und setzt sich für eine sinnorientierte Wirtschaft ein, indem er ethisches Bewusstsein in Wirtschafts- und IT-Disziplinen einfließen lässt. Sein aphoristischer Stil verkörpert aufklärerisches Schrifttum. Er hält gerne Keynotes und nimmt an Podiumsdiskussionen auf Konferenzen und Tagungen teil.

Alle Beiträge anzeigen

In unserer Reihe „KI: Thoroughly explained“ sprechen wir mit Dr. Leon R. Tsvasman, Hochschuldozent und KI-Experte, über verschiedene Aspekte Künstlicher Intelligenz. Diesmal geht es um die Frage, wie sich sicherstellen lässt, dass KI bei ihren Entscheidungen ethische Prinzipien einhält.

In der ersten Folge dieser Reihe haben wir mit Dr. Leon R. Tsvasman [1], darüber gesprochen, wie „Künstliche Intelligenz“, menschliches Bewusstsein und das menschliche Selbstverständnis zusammenpassen. Unser Gesprächspartner beschäftigt sich als Hochschuldozent mit Kommunikations- und Medienwissenschaft sowie philosophischen und ethischen Themen. Er lehrt an mehreren Hochschulen und Fernuniversitäten wie der Wilhelm-Büchner-Universität Darmstadt, der IUBH International University, der Deutsche Welle Akademie, der Hochschule Macromedia, der Hochschule Heilbronn, der TH Ingolstadt, der AI Business School Zürich und weiteren.

Dr. Tsvasman [2] forscht auf dem Gebiet der kybernetischen Erkenntnistheorie, der anthropologischen Systemtheorie und der Informationspsychologie. Zudem verfolgt er zahlreiche weitere Interessen in unterschiedlichsten Disziplinen. Er verschiedene wissenschaftliche und populärwissenschaftliche Sachbücher geschrieben, wie zum Beispiel „Das große Lexikon Medien und Kommunikation“ in Zusammenarbeit mit dem Begründer des Radikalen Konstruktivismus Ernst von Glasersfeld oder gemeinsam mit seinem Co-Autor, dem KI-Unternehmer Florian Schild „AI-Thinking: Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz“.

In dieser Folge wollen wir uns mit dem wichtigen Thema „KI und Ethik“ befassen.

Die Zukunft von KI hat mehrere Phasen

Frage: HerrDr. Tsvasman, brauchen wir fundamentale Regeln für starke KI in Zukunft?

Tsvasman: Wie ich bereits in unserem letzten Gespräch angedeutet habe, meint KI vor allem lernende Systeme. Mit einem gewissen Grad an Autonomie, die für das Lernen unabdingbar ist, werden sich diese bald selbst programmieren. Oder sich so upgraden, dass sie den menschlichen Auftrag erfüllen können.

Nun ist die Frage, welche „Zukunft“ wir betrachten. Blicken wir auf die „KI-Ära“, die wohl so lange dauern wird, wie wir uns aktiv mit dem Thema befassen müssen, um operativ eingreifen zu können, werden diese Regeln von uns justiert. Blicken wir aber auf die weitere Zukunft, würde ich diese als „Post-KI-Ära“ bezeichnen – analog zu der heutigen postindustriellen Informationsgesellschaft. Unter günstigen Umständen könnte diese Phase zeitlich bereits in den nächsten Generationen eintreten. Und ich glaube, dass in dieser postinformationellen Bewusstseinsgesellschaft keine KI-Präsenz mehr erkennbar wäre. Denn KI wird in allem und an allem unsichtbar beteiligt – als eine entzerrende, verwaltende und wirklichkeitsgenerierende Kraft. Die wichtigsten Entwicklungen werden dann nicht mehr „technisch“ sein, sondern von menschlicher Erkenntnislust, Gestaltungswille und Visionskraft bestimmt.

Die Asimov’schen Robotergesetze taugen nicht als ethische Regeln für KI

Wie auch immer, die berühmten Asimov’schen Robotergesetze greifen als ethische Faustregel für KI nicht. Ihr Urheber Isaac Asimov war ein naturwissenschaftlich hervorragend gebildeter Universalgelehrter und mein Lieblingsautor der Jugendzeit. Aber als Science-Fiction-Autor befasste er sich wie alle Belletristen vor allem mit menschlichen Beziehungen. Sonst wäre er als Schriftsteller nicht erfolgreich gewesen und hätte keine Chance gehabt, der humanistischen Science-Fiction Literatur zu ihrem Höhepunkt zu verhelfen. Er entwickelte seine Charaktere, inklusive der Roboter, um seinen Mitmenschen einen Spiegel vor Augen zu halten. Wir Leser sollten uns mal mit „fremden“ Augen anschauen. Die älteren Klassiker nutzten dafür märchenhafte oder mythische Wesen wie etwa den arabischen Dschinn oder den jüdischen Golem. Die Science-Fiction instrumentalisierte gerne Außerirdische oder menschenähnliche Roboter mit Herz und Verstand. Einem solchen Wesen könnte man durchaus Gebote auflegen, also lautet der erste Robotergesetz von Asimov: „Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.“

Wenn kybernetische Systeme „denken“, erfolgt die interne Datenverarbeitung ohne Begriffe. Das ist eher vergleichbar mit der Kommunikation zwischen unserem Gehirn und unserem Darm – ohne Wörter, und auch nicht in Zahlen.

Also was heißt für die interne Datenverarbeitung eines KI-Systems „Schaden zufügen“? Das ist wie Gut und Böse. Seit jeher glauben die meisten Diktatoren, Sektenführer und Verschwörer daran, im Sinn der Menschheit zu agieren. Die Unschärfe bleibt, solange Menschen für andere Menschen Entscheidungen treffen und Verantwortung übernehmen. Wie kann ein informationell geschlossenes selbstreferezielles System, wie wir es aus kybernetischer Sicht alle sind, die Verantwortung für ein anders autopoietisches System übernehmen? Und mit der echten, nicht anthropomorphen und oft unsichtbaren KI aus der Cloud, haben wir keine gemeinsame biologische Evolution und somit keine „strukturelle Kopplung“. Deshalb ist unser Verhältnis zu ihr anders. Ich versuche, das nun kurz zu erklären.

Vom Kantschen Imperativ zu kybernetischen Ethik-Regeln für Künstliche Intelligenz

Dazu möchte ich einen anderen Autor vorstellen: Heinz von Foerster, der unter Kennern als „Sokrates des kybernetischen Denkens“ gelobt wird. Er hat in Anlehnung an Immanuel Kant den ethischen Imperativ für die „Kybernetik zweiter Ordnung“ begründet. Dieser gilt für Menschen, aber auch für alle selbst-regulierenden autonomen Systeme, und lautet sinngemäß: „Handle stets so, dass die Anzahl der Wahlmöglichkeiten größer wird“. Die ethische Handlungsmaxime betont für mich die Eigenverantwortung und Individualität und wertet dabei die Orientierungsfreiheit des Anderen in einer Gemeinschaft auf. Später hat von Foerster noch den ästhetischen Imperativ nachgelegt: „Willst du sehen, so lerne zu handeln“. Das ist wohl evolutionsbiologisch zu verstehen, denn was wir sehen, hat mehr mit unserer Entstehung als mit „Objektivität“ zu tun. Dieser Gedanke bestimmt auch den Titel des Gesprächebands „Wahrheit ist die Erfindung eines Lügners“ von Heinz von Foerster und Bernhard Pörksen aus dem Jahr 2003.

Diese beiden Imperative haben mich auf die Idee gebracht, die ethischen Regeln für KI kybernetisch zu fundieren. Dem liegt das Menschenbild zu Grunde, dass jeder sein Potenzial erreichen und umsetzen soll. Wenn „Schmetterling werden“ das Potenzial der Raupe ist, ist ein perfektes „Raupenparadies“ nicht wirklich im Sinne der Raupe.

Aufgrund der „strukturellen Kopplung“ haben alle Menschen eine gemeinsame Potenzialität. Wir wissen zwar nicht, was sie tatsächlich ausmacht, aber es gibt orientierende Indizien aus der menschlichen Kultur. Solange wir es nicht wissen, gibt es unterschiedliche Menschenbilder, aber wir tasten uns gemeinsam an die Wahrheit heran. Und wenn die globale KI uns dabei im Sinn unseres menschlichen Potenzials zur Hilfe steht, wird sie keinen Schaden anrichten, sondern uns unterstützen. Mit eigenen systemtheoretischen Überlegungen formulierte ich in unserem Buch „AI-Thinking“ deshalb folgende Regel für KI, hier sinngemäß: „Operiere, um menschliche Potenzialität, Orientierung und Integrität zu ermöglichen. Vermeide unumkehrbare, langfristige Verzerrungen im Gleichgewicht der menschlichen Umwelt.“

Künstliche Intelligenz als künftige Ermöglichungs-Infrastruktur

Frage: Welche Risiken ergeben sich, wenn solche Regeln nicht erlassen oder nicht eingehalten werden?

Tsvasman: Das größte Risiko besteht nach wie vor darin, dass universelle Werkzeuge als Waffen instrumentalisiert werden können. Diese Gefahr besteht, solange einzelne Menschen es für sinnvoll halten, andere Menschen zu bedrohen. Die Gefahr geht dabei immer von den Menschen selbst aus.

Ich habe KI zwar als Werkzeug bezeichnet, also Mittel zum Zweck. Aber wir Menschen leben in komplexen Gemeinschaften, womit aus Werkzeugen irgendwann Infrastrukturen werden, und aus Techniken werden Technologien. Die sich in unserer Zivilisation etablierten soziotechnischen Infrastrukturen sind deshalb immer auch Ermöglichungsinfrastrukturen. Sie sollen den einstigen strukturellen Unregelmäßigkeiten entgegenwirken, also systemische Ungleichgewichte entzerren.

Die Medienwirtschaft hat erkannt, dass Infrastrukturen unsere Wertschöpfungsmodelle revolutionieren. In der vorindustriellen landwirtschaftlichen Handwerksgesellschaft hat man Wege gebaut, um Güterverkehr zu ermöglichen. Später in der Industriegesellschaft die Stromnetze, um Kraft zu übertragen. Dann kam das Internet, um den Informationsdefiziten der analogen Welt entgegenzuwirken, also Wissen zu entzerren. Und nun kommt KI. Sie ist wie die neue Elektrizität – der entzerrende „Optimierungsstrom“ einer Informationsgesellschaft. Solche Ermöglichungs-Infrastrukturen dürfen nicht im exklusiven Besitz sein. Wie etwa Straßenverkehr, Elektrizität oder Internet müssen sie allgemein zugänglich sein.

Mächtige Werkzeuge lassen sich auch maximal destruktiv nutzen

Die verheerenden Gefahren einer nicht-regulierten KI im exklusiven privaten Besitz hat mein Co-Autor Florian Schild in unserem Dialog-Buch „AI-Thinking“ anschaulich skizziert. Ich teile seine Haltung, dass KI als Waffe destruktiv genug sein kann, um der Menschheit ein Ende zu setzen. Ich möchte an dieser Stelle jedoch nicht mit weiteren erschreckenden Szenarien hantieren, die ich gerne der Fantasie der Leser oder der aktuell überwiegend dystopischen Science-Fiction überlasse. Aber ein Aspekt ist mir noch wichtig:

Mehr oder weniger gekonnt verzerrte Statistiken beeinflussen unsere Wirtschaft und Politik schon jetzt massiv. Der Öffentlichkeit ist bewusst, dass sich hinter „objektiven“ Zahlen zu oft Interessen Einzelner verbergen – unter „wissenschaftlichem“ Deckmantel. Und da KI in ihrem Kern programmierte Mathematik oder Statistik darstellt, kann sie zu manipulativen Zwecken genutzt werden. Dies ist möglich, solange die ihr zur Verfügung stehenden Daten unvollständig sind oder absichtlich manipuliert werden können. Sie sind dann nicht der menschlichen Potenzialität, sondern bestenfalls der Zweckrationalität eines Unternehmens oder einer Organisation verpflichtet. Verzerrungen aufgrund von wie auch immer manipulierten Daten wären jedoch nie im Sinn einer demokratischen Ordnung.

Ohne KI lassen sich künftige Herausforderungen nicht lösen

Bei allen diesen Gefahren dürfen wir aber auch nicht vergessen, dass wir die kommenden globalen Herausforderungen ohne KI nicht bewältigen werden. Allein deshalb nicht, weil schon jetzt sämtliche Entscheidungen auf Statistiken basieren, die bestenfalls unvollständig sind – also grob, hochgerechnet, willentlich, methodisch oder medial verzerrt. Früher hat man Befindlichkeitsstörungen etwa mit Opium behandelt, denn es lagen Erfahrungsdaten vor, die eine Besserung nachweisen konnten. Um die Symptome, Faktoren oder Indizien im höheren Komplexitätsbereich, wie etwa längerfristige Nebenwirkungen, kümmerte man sich aufgrund einer vereinfachten Datenerhebung nicht.

Ohne KI wird man mit heutigen Statistiken, entweder mit Kanonen auf Spatzen schießen oder die relevanten Gefahren, Chancen oder Risiken erst gar nicht  bemerken. Deswegen verstehe ich die Haltung vieler hochspezialisierten Experten nicht, die im aktuellen KI-Diskurs immer noch die rein technische oder bestenfalls wirtschaftliche Seite hervorheben. Gut, ich denke, sie können nicht anders. Um dem entgegenzuwirken, muss eine vielseitigere Bildung wieder aufgewertet werden.

Lieber Kreisverkehr als Ampel – kybernetische Steuerung von KI-Ethik

Frage: Lassen sich ethische Grundsätze explizit in KI-Systeme einprogrammieren? Oder muss KI-Ethik immer durch das Setzen von Grenzen und Rahmenbedingungen gewährleistet werden?

Tsvasman: Wenn man Grundsätze explizit formuliert, um dynamische selbstregulierende Systeme zu steuern, landen wir bei der ad absurdum gebrachten menschlichen Bürokratie. So funktioniert Kybernetik nicht.

Das ist vergleichbar mit einem Kreisverkehr. Der wirkt selbstregulierend und energiesparend, weil die Regulierung im Straßenverkehr auf dezente Steuerung autonomer Antriebskräfte setzt und natürliche Orientierung seiner Endnutzer voraussetzt. Die konkurrierende und wesentlich nicht-kybernetische Alternative heißt Ampel. Eine Ampellösung ist bürokratisch, aufdringlich, energieaufwändig, und setzt Respekt vor externen Sanktionen voraus. Der Kreisverkehr als kybernetisches Konzept setzt Grenzen und Rahmenbedingungen, indem er natürliches Zusammenhangs- und Orientierungswissen voraussetzt und fördert. Die Ampel als Prinzip versucht hingegen, zu „programmieren“, setzt also angelerntes Faktenwissen über Absprachen voraus, die außerhalb getroffen wurden.

Etwas „einprogrammieren“ ist in Bezug auf KI im Grunde nicht viel sinnvoller als ein Regelwerk für Menschen zu schreiben. Entweder überlässt man die Deutung den Lesenden und Ausführenden, oder man versucht, alle möglichen Faktoren zu berücksichtigen. Doch das ist im Fall von autonomen, dynamischen und selbstregulierenden Systemen gar nicht möglich. Allein schon deshalb, weil sich eine Aktualität immer aus interagierenden Kräfteverhältnissen entfaltet, und es in jedem Moment mehrere miteinander konkurrierenden Entwicklungen gibt. Dieser Ansatz scheidet für KI also aus.

Explizite Regelwerke für KIs werden nicht funktionieren

Skeptisch gedacht könnte man auch auf die Idee kommen, aus autonomen Systemen triviale Instrumente zu machen – wie man es immer schon mit menschlichen Arbeitnehmenden oder im Militärbereich versuchte. Aber dabei bleibt eine wesentlich nichttriviale Umwelt immer noch ein offenes heterogenes Terrain voller Ungewissheit – deshalb ergibt sich Intelligenz ja nach wie vor aus Autonomie.

Ich kann also nicht ausschließen, dass man irgendwann mal versuchen will, autonome KI-Systeme wieder zu trivialisieren. Aber das wäre mit Sicherheit nicht der beste Weg, eine Intelligenz zu kontrollieren. Ich bin mir deshalb sicher, dass solche Versuche längerfristig nicht aufgehen werden.

Quelle und Referenzen

[1] https://www.linkedin.com/in/tsvasman/
 [2] https://www.ligsuniversity.com/en/tutor/leon-tsvasman

Interview geführt durch:

Bei dieser Interviewreihe handelt es sich um den adaptierten Reprint der Originalpublikation auf intelligente-welt.de Die Interviewreihe „KI: Thoroughly explained“ wurde zuvor vom Magazin Intelligente Welt veröffentlicht und findet sich unter folgenden Links:
Unsere Interview-Reihe zu Künstlicher Intelligenz: Inside KI
360 Grad KI: Unsere Serie rund um Künstliche Intelligenz

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

25481

share

Artikel teilen

Top Artikel

Ähnliche Artikel