In unserer Reihe „KI: Thoroughly explained“ sprechen wir mit Dr. Leon R. Tsvasman, Hochschuldozent und KI-Experte, über verschiedene Aspekte Künstlicher Intelligenz. Diesmal geht es um die Frage, wie sich sicherstellen lässt, dass KI bei ihren Entscheidungen ethische Prinzipien einhält.
In der ersten Folge dieser Reihe haben wir mit Dr. Leon R. Tsvasman [1], darüber gesprochen, wie „Künstliche Intelligenz“, menschliches Bewusstsein und das menschliche Selbstverständnis zusammenpassen. Unser Gesprächspartner beschäftigt sich als Hochschuldozent mit Kommunikations- und Medienwissenschaft sowie philosophischen und ethischen Themen. Er lehrt an mehreren Hochschulen und Fernuniversitäten wie der Wilhelm-Büchner-Universität Darmstadt, der IUBH International University, der Deutsche Welle Akademie, der Hochschule Macromedia, der Hochschule Heilbronn, der TH Ingolstadt, der AI Business School Zürich und weiteren.
Dr. Tsvasman [2] forscht auf dem Gebiet der kybernetischen Erkenntnistheorie, der anthropologischen Systemtheorie und der Informationspsychologie. Zudem verfolgt er zahlreiche weitere Interessen in unterschiedlichsten Disziplinen. Er verschiedene wissenschaftliche und populärwissenschaftliche Sachbücher geschrieben, wie zum Beispiel „Das große Lexikon Medien und Kommunikation“ in Zusammenarbeit mit dem Begründer des Radikalen Konstruktivismus Ernst von Glasersfeld oder gemeinsam mit seinem Co-Autor, dem KI-Unternehmer Florian Schild „AI-Thinking: Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz“.
In dieser Folge wollen wir uns mit dem wichtigen Thema „KI und Ethik“ befassen.
Die Zukunft von KI hat mehrere Phasen
Frage: HerrDr. Tsvasman, brauchen wir fundamentale Regeln für starke KI in Zukunft?
Tsvasman: Wie ich bereits in unserem letzten Gespräch angedeutet habe, meint KI vor allem lernende Systeme. Mit einem gewissen Grad an Autonomie, die für das Lernen unabdingbar ist, werden sich diese bald selbst programmieren. Oder sich so upgraden, dass sie den menschlichen Auftrag erfüllen können.
Nun ist die Frage, welche „Zukunft“ wir betrachten. Blicken wir auf die „KI-Ära“, die wohl so lange dauern wird, wie wir uns aktiv mit dem Thema befassen müssen, um operativ eingreifen zu können, werden diese Regeln von uns justiert. Blicken wir aber auf die weitere Zukunft, würde ich diese als „Post-KI-Ära“ bezeichnen – analog zu der heutigen postindustriellen Informationsgesellschaft. Unter günstigen Umständen könnte diese Phase zeitlich bereits in den nächsten Generationen eintreten. Und ich glaube, dass in dieser postinformationellen Bewusstseinsgesellschaft keine KI-Präsenz mehr erkennbar wäre. Denn KI wird in allem und an allem unsichtbar beteiligt – als eine entzerrende, verwaltende und wirklichkeitsgenerierende Kraft. Die wichtigsten Entwicklungen werden dann nicht mehr „technisch“ sein, sondern von menschlicher Erkenntnislust, Gestaltungswille und Visionskraft bestimmt.
Die Asimov’schen Robotergesetze taugen nicht als ethische Regeln für KI
Wie auch immer, die berühmten Asimov’schen Robotergesetze greifen als ethische Faustregel für KI nicht. Ihr Urheber Isaac Asimov war ein naturwissenschaftlich hervorragend gebildeter Universalgelehrter und mein Lieblingsautor der Jugendzeit. Aber als Science-Fiction-Autor befasste er sich wie alle Belletristen vor allem mit menschlichen Beziehungen. Sonst wäre er als Schriftsteller nicht erfolgreich gewesen und hätte keine Chance gehabt, der humanistischen Science-Fiction Literatur zu ihrem Höhepunkt zu verhelfen. Er entwickelte seine Charaktere, inklusive der Roboter, um seinen Mitmenschen einen Spiegel vor Augen zu halten. Wir Leser sollten uns mal mit „fremden“ Augen anschauen. Die älteren Klassiker nutzten dafür märchenhafte oder mythische Wesen wie etwa den arabischen Dschinn oder den jüdischen Golem. Die Science-Fiction instrumentalisierte gerne Außerirdische oder menschenähnliche Roboter mit Herz und Verstand. Einem solchen Wesen könnte man durchaus Gebote auflegen, also lautet der erste Robotergesetz von Asimov: „Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.“
Wenn kybernetische Systeme „denken“, erfolgt die interne Datenverarbeitung ohne Begriffe. Das ist eher vergleichbar mit der Kommunikation zwischen unserem Gehirn und unserem Darm – ohne Wörter, und auch nicht in Zahlen.
Also was heißt für die interne Datenverarbeitung eines KI-Systems „Schaden zufügen“? Das ist wie Gut und Böse. Seit jeher glauben die meisten Diktatoren, Sektenführer und Verschwörer daran, im Sinn der Menschheit zu agieren. Die Unschärfe bleibt, solange Menschen für andere Menschen Entscheidungen treffen und Verantwortung übernehmen. Wie kann ein informationell geschlossenes selbstreferezielles System, wie wir es aus kybernetischer Sicht alle sind, die Verantwortung für ein anders autopoietisches System übernehmen? Und mit der echten, nicht anthropomorphen und oft unsichtbaren KI aus der Cloud, haben wir keine gemeinsame biologische Evolution und somit keine „strukturelle Kopplung“. Deshalb ist unser Verhältnis zu ihr anders. Ich versuche, das nun kurz zu erklären.
Vom Kantschen Imperativ zu kybernetischen Ethik-Regeln für Künstliche Intelligenz
Dazu möchte ich einen anderen Autor vorstellen: Heinz von Foerster, der unter Kennern als „Sokrates des kybernetischen Denkens“ gelobt wird. Er hat in Anlehnung an Immanuel Kant den ethischen Imperativ für die „Kybernetik zweiter Ordnung“ begründet. Dieser gilt für Menschen, aber auch für alle selbst-regulierenden autonomen Systeme, und lautet sinngemäß: „Handle stets so, dass die Anzahl der Wahlmöglichkeiten größer wird“. Die ethische Handlungsmaxime betont für mich die Eigenverantwortung und Individualität und wertet dabei die Orientierungsfreiheit des Anderen in einer Gemeinschaft auf. Später hat von Foerster noch den ästhetischen Imperativ nachgelegt: „Willst du sehen, so lerne zu handeln“. Das ist wohl evolutionsbiologisch zu verstehen, denn was wir sehen, hat mehr mit unserer Entstehung als mit „Objektivität“ zu tun. Dieser Gedanke bestimmt auch den Titel des Gesprächebands „Wahrheit ist die Erfindung eines Lügners“ von Heinz von Foerster und Bernhard Pörksen aus dem Jahr 2003.
Diese beiden Imperative haben mich auf die Idee gebracht, die ethischen Regeln für KI kybernetisch zu fundieren. Dem liegt das Menschenbild zu Grunde, dass jeder sein Potenzial erreichen und umsetzen soll. Wenn „Schmetterling werden“ das Potenzial der Raupe ist, ist ein perfektes „Raupenparadies“ nicht wirklich im Sinne der Raupe.
Aufgrund der „strukturellen Kopplung“ haben alle Menschen eine gemeinsame Potenzialität. Wir wissen zwar nicht, was sie tatsächlich ausmacht, aber es gibt orientierende Indizien aus der menschlichen Kultur. Solange wir es nicht wissen, gibt es unterschiedliche Menschenbilder, aber wir tasten uns gemeinsam an die Wahrheit heran. Und wenn die globale KI uns dabei im Sinn unseres menschlichen Potenzials zur Hilfe steht, wird sie keinen Schaden anrichten, sondern uns unterstützen. Mit eigenen systemtheoretischen Überlegungen formulierte ich in unserem Buch „AI-Thinking“ deshalb folgende Regel für KI, hier sinngemäß: „Operiere, um menschliche Potenzialität, Orientierung und Integrität zu ermöglichen. Vermeide unumkehrbare, langfristige Verzerrungen im Gleichgewicht der menschlichen Umwelt.“
Künstliche Intelligenz als künftige Ermöglichungs-Infrastruktur
Frage: Welche Risiken ergeben sich, wenn solche Regeln nicht erlassen oder nicht eingehalten werden?
Tsvasman: Das größte Risiko besteht nach wie vor darin, dass universelle Werkzeuge als Waffen instrumentalisiert werden können. Diese Gefahr besteht, solange einzelne Menschen es für sinnvoll halten, andere Menschen zu bedrohen. Die Gefahr geht dabei immer von den Menschen selbst aus.
Ich habe KI zwar als Werkzeug bezeichnet, also Mittel zum Zweck. Aber wir Menschen leben in komplexen Gemeinschaften, womit aus Werkzeugen irgendwann Infrastrukturen werden, und aus Techniken werden Technologien. Die sich in unserer Zivilisation etablierten soziotechnischen Infrastrukturen sind deshalb immer auch Ermöglichungsinfrastrukturen. Sie sollen den einstigen strukturellen Unregelmäßigkeiten entgegenwirken, also systemische Ungleichgewichte entzerren.
Die Medienwirtschaft hat erkannt, dass Infrastrukturen unsere Wertschöpfungsmodelle revolutionieren. In der vorindustriellen landwirtschaftlichen Handwerksgesellschaft hat man Wege gebaut, um Güterverkehr zu ermöglichen. Später in der Industriegesellschaft die Stromnetze, um Kraft zu übertragen. Dann kam das Internet, um den Informationsdefiziten der analogen Welt entgegenzuwirken, also Wissen zu entzerren. Und nun kommt KI. Sie ist wie die neue Elektrizität – der entzerrende „Optimierungsstrom“ einer Informationsgesellschaft. Solche Ermöglichungs-Infrastrukturen dürfen nicht im exklusiven Besitz sein. Wie etwa Straßenverkehr, Elektrizität oder Internet müssen sie allgemein zugänglich sein.
Mächtige Werkzeuge lassen sich auch maximal destruktiv nutzen
Die verheerenden Gefahren einer nicht-regulierten KI im exklusiven privaten Besitz hat mein Co-Autor Florian Schild in unserem Dialog-Buch „AI-Thinking“ anschaulich skizziert. Ich teile seine Haltung, dass KI als Waffe destruktiv genug sein kann, um der Menschheit ein Ende zu setzen. Ich möchte an dieser Stelle jedoch nicht mit weiteren erschreckenden Szenarien hantieren, die ich gerne der Fantasie der Leser oder der aktuell überwiegend dystopischen Science-Fiction überlasse. Aber ein Aspekt ist mir noch wichtig:
Mehr oder weniger gekonnt verzerrte Statistiken beeinflussen unsere Wirtschaft und Politik schon jetzt massiv. Der Öffentlichkeit ist bewusst, dass sich hinter „objektiven“ Zahlen zu oft Interessen Einzelner verbergen – unter „wissenschaftlichem“ Deckmantel. Und da KI in ihrem Kern programmierte Mathematik oder Statistik darstellt, kann sie zu manipulativen Zwecken genutzt werden. Dies ist möglich, solange die ihr zur Verfügung stehenden Daten unvollständig sind oder absichtlich manipuliert werden können. Sie sind dann nicht der menschlichen Potenzialität, sondern bestenfalls der Zweckrationalität eines Unternehmens oder einer Organisation verpflichtet. Verzerrungen aufgrund von wie auch immer manipulierten Daten wären jedoch nie im Sinn einer demokratischen Ordnung.
Ohne KI lassen sich künftige Herausforderungen nicht lösen
Bei allen diesen Gefahren dürfen wir aber auch nicht vergessen, dass wir die kommenden globalen Herausforderungen ohne KI nicht bewältigen werden. Allein deshalb nicht, weil schon jetzt sämtliche Entscheidungen auf Statistiken basieren, die bestenfalls unvollständig sind – also grob, hochgerechnet, willentlich, methodisch oder medial verzerrt. Früher hat man Befindlichkeitsstörungen etwa mit Opium behandelt, denn es lagen Erfahrungsdaten vor, die eine Besserung nachweisen konnten. Um die Symptome, Faktoren oder Indizien im höheren Komplexitätsbereich, wie etwa längerfristige Nebenwirkungen, kümmerte man sich aufgrund einer vereinfachten Datenerhebung nicht.
Ohne KI wird man mit heutigen Statistiken, entweder mit Kanonen auf Spatzen schießen oder die relevanten Gefahren, Chancen oder Risiken erst gar nicht bemerken. Deswegen verstehe ich die Haltung vieler hochspezialisierten Experten nicht, die im aktuellen KI-Diskurs immer noch die rein technische oder bestenfalls wirtschaftliche Seite hervorheben. Gut, ich denke, sie können nicht anders. Um dem entgegenzuwirken, muss eine vielseitigere Bildung wieder aufgewertet werden.
Lieber Kreisverkehr als Ampel – kybernetische Steuerung von KI-Ethik
Frage: Lassen sich ethische Grundsätze explizit in KI-Systeme „einprogrammieren“? Oder muss KI-Ethik immer durch das Setzen von Grenzen und Rahmenbedingungen gewährleistet werden?
Tsvasman: Wenn man Grundsätze explizit formuliert, um dynamische selbstregulierende Systeme zu steuern, landen wir bei der ad absurdum gebrachten menschlichen Bürokratie. So funktioniert Kybernetik nicht.
Das ist vergleichbar mit einem Kreisverkehr. Der wirkt selbstregulierend und energiesparend, weil die Regulierung im Straßenverkehr auf dezente Steuerung autonomer Antriebskräfte setzt und natürliche Orientierung seiner Endnutzer voraussetzt. Die konkurrierende und wesentlich nicht-kybernetische Alternative heißt Ampel. Eine Ampellösung ist bürokratisch, aufdringlich, energieaufwändig, und setzt Respekt vor externen Sanktionen voraus. Der Kreisverkehr als kybernetisches Konzept setzt Grenzen und Rahmenbedingungen, indem er natürliches Zusammenhangs- und Orientierungswissen voraussetzt und fördert. Die Ampel als Prinzip versucht hingegen, zu „programmieren“, setzt also angelerntes Faktenwissen über Absprachen voraus, die außerhalb getroffen wurden.
Etwas „einprogrammieren“ ist in Bezug auf KI im Grunde nicht viel sinnvoller als ein Regelwerk für Menschen zu schreiben. Entweder überlässt man die Deutung den Lesenden und Ausführenden, oder man versucht, alle möglichen Faktoren zu berücksichtigen. Doch das ist im Fall von autonomen, dynamischen und selbstregulierenden Systemen gar nicht möglich. Allein schon deshalb, weil sich eine Aktualität immer aus interagierenden Kräfteverhältnissen entfaltet, und es in jedem Moment mehrere miteinander konkurrierenden Entwicklungen gibt. Dieser Ansatz scheidet für KI also aus.
Explizite Regelwerke für KIs werden nicht funktionieren
Skeptisch gedacht könnte man auch auf die Idee kommen, aus autonomen Systemen triviale Instrumente zu machen – wie man es immer schon mit menschlichen Arbeitnehmenden oder im Militärbereich versuchte. Aber dabei bleibt eine wesentlich nichttriviale Umwelt immer noch ein offenes heterogenes Terrain voller Ungewissheit – deshalb ergibt sich Intelligenz ja nach wie vor aus Autonomie.
Ich kann also nicht ausschließen, dass man irgendwann mal versuchen will, autonome KI-Systeme wieder zu trivialisieren. Aber das wäre mit Sicherheit nicht der beste Weg, eine Intelligenz zu kontrollieren. Ich bin mir deshalb sicher, dass solche Versuche längerfristig nicht aufgehen werden.
Quelle und Referenzen
[1] https://www.linkedin.com/in/tsvasman/
[2] https://www.ligsuniversity.com/en/tutor/leon-tsvasman
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.