Gesetzgebung für Künstliche Intelligenz

Die EU-Kommission hat einen Gesetzentwurf vorgestellt, der den Einsatz von Künstlicher Intelligenz regeln soll. Sein „risikobasierter Ansatz“ unterscheidet, wie groß die Gefahr für den Menschen bei der jeweiligen KI-Nutzung ist. Das Prinzip: Je höher das Risiko, umso strenger die Regeln. In unserer Serie "KI: Thoroughly explained" behandeln wir die Auswirkungen und Einsatzmöglichkeiten von KI haben darüber mit dem KI-Experten und Philosophen Dr. Leon R.Tsvasman [1] gesprochen.
Interview von Intelligente Welt
3. August 2022
Interviewpartner

Dr. Leon Tsvasman

Dr. Leon Tsvasman ist ein erfahrener Dozent, Instruktionsdesigner und Autor und arbeitet als pädagogischer Berater an mehreren staatlichen und privaten Universitäten in Deutschland. Seine Forschung bezieht sich auf Complexity Cybernetics, künstliche Intelligenz, Psychology of Information, Ethics of Leadership und Innovation.
Interviewpartner

Leon TSVASMAN, Dr.phil/PhD

Hochschuldozent bei Dr. Tsvasman Academic Consulting

Dr. Leon Tsvasman, ein philosophischer Medientheoretiker, verbindet gerne authentische Einblicke mit interdisziplinärem Scharfsinn. Seine Forschung geht über die Akademie hinaus und fundiert Reflexionen über die Komplexitäten einer ethisch stagnierenden nach dem Sinn suchenden Zivilisation. Sein Einfluss erstreckt sich von der Gelehrtenwelt bis zum Bereich der digitalen Transformation und prägt maßgeblich den zeitgenössischen Diskurs mit. 1968 in eine musikalisch und medizinisch geprägte Familie hineingeboren, hat sich Leon Tsvasman in KI, Ethik und interdisziplinärer Forschung mit einem Vordenkeransatz profiliert. Sein rebellischer Gemüt und kreative Energie, begleitet von Neugier auf menschliche Erkenntnispotenziale, fruchteten in eigenen literarischen und künstlerischen Experimenten. Seine Jugendjahre waren außerdem geprägt von einer Faszination für Science-Fiction von Autoren wie Isaac Asimov, Stanisław Lem, Ray Bradbury und den einfallsreichen Essays von Jorge Luis Borges, die sein Interesse am Zusammenspiel von Zukunftskonzepten und menschlicher kreativer Intelligenz entzündeten. Auf seiner intellektuellen Wanderschaft durch die Lehren von Kant und Hegel fand Tsvasman einen gangbaren Weg in das komplexe Gebiet der Kybernetik, angeleitet von Denkern wie Norbert Wiener, Heinz von Foerster, Humberto Maturana und Ernst von Glasersfeld. Die Kombination aus künstlerisch-literarischer Experimentierfreude und wissenschaftlicher Strenge definierte Tsvasmans polymathischen Ansatz und positionierte ihn als visionären Wegbereiter in den Bereichen KI, Ethik und interdisziplinäre Forschung, in denen er nuancierte, humanistische Einsichten mit technologischer Affinität verbindet. Nach ersten Studienerfahrungen in Medizin und Journalismus war Dr. Tsvasman erleichtert, die Traumata seiner von totalitärer Zwangsprägung gekennzeichneten Sozialisation hinter sich zu lassen. Er wandte sich den Geisteswissenschaften zu und fand sich in der erfrischend aufregenden, jedoch völlig unbekannten sprachlichen und kulturellen Landschaft von Deutschland 1990er Jahre wieder. Rasch erlangte er seinen Magister in Kommunikation, Medien, Linguistik, Sozial- und Politikwissenschaft an den Universitäten Bonn und Essen. Diese Übergangsphase gipfelte in seiner Promotion an der Universität Münster, woraufhin er die anspruchsvolle Rolle eines freiberuflichen Dozenten übernahm. Bewusst verzichtete er auf einen lukrativen Karriereweg und konzentrierte sich stattdessen auf die Entwicklung seines Konzepts einer hochgradig individualisierten, potenzialorientierten Ethik in der Hochschuldidaktik. Dr. Tsvasmans akademischer Weg wurde maßgeblich durch seine Zeit an der damals renommierten Lomonossow-Universität geprägt, ebenso wie durch seine Zusammenarbeit mit Professoren aus der Schule von Gerold Ungeheuer, einer herausragenden Persönlichkeit in der deutschen Kommunikationswissenschaft, an den Universitäten Bonn und Essen. Diese reiche und vielfältige Bildungsetappe nährte Dr. Tsvasmans einzigartigen Ansatz und förderte eine kritische Perspektive, die eine Vielzahl von akademischen Disziplinen und Systemen umspannt. Nach seiner Promotion bei Siegfried J. Schmidt, einer führenden Figur im deutschen konstruktivistischen Diskurs, ging Leon Tsvasman seiner enzyklopädischen Neigung nach. Sein für konzeptionelle Vorzüge von Kritik und Studierenden empfohlenes Medien- und Kommunikationslexikon ('Das Große Lexikon Medien und Kommunikation', 2006) legte einen systemisch-konstruktivistischen Grundstein in den Fächern mit Kommunikation, Information und Medien. Dieses selbstinitiierte Projekt, inhaltlich unterstützt von damals führenden Professoren in diesen Disziplinen und gelobt von Gelehrten wie Professor Ernst von Glasersfeld (University of Massachusetts) für seine außergewöhnliche Intelligenz, markierte einen bemerkenswerten Wandel im einschlägigen akademischen Diskurs. Das Lexikon verschob den traditionell soziologisch orientierten Fokus von Kommunikation und Medienstudien hin zu einem breiteren, universell anwendbaren systemisch-kybernetischen Ansatz, der insbesondere deren Praktikabilität für kreative und informationstechnologische Unterfangen verstärkte. Es aktualisierte grundlegende Konzepte wie Intersubjektivität und Medialität neu und trug so zur Diversifizierung und Integration in medienbezogenen akademischen Disziplinen bei. Dieser Wandel markierte die Neupositionierung von bis dato oft allzu heterogenen Medienfächern in der akademischen Landschaft. In ähnlicher Weise verwendet Tsvasman in seinen eigenen Schriften dialektisch präzise, kontextuell angepasste Definitionen, die für ihre interdisziplinäre Robustheit bekannt sind und auf sorgfältiger Prüfung beruhen. Als inspirierter Polymath und Mentor aus Berufung setzt sich Dr. Tsvasman für skalierbare und lebensbegleitende KI-gestützte Wissensinfrastrukturen ein. Er priorisiert das Streben nach inspirierender Bedeutung, eine Abkehr von der Trivialisierung reiner Werkzeugabhängigkeit. Seine essayistischen Experimente bieten nuancierte Perspektiven und interoperable Lösungen, die sich mit globalen Komplexitätsherausforderungen befassen. Diese Arbeiten integrieren erkenntnistheoretische, anthropologische und kybernetische Dimensionen und schaffen so eine einzigartige Perspektive auf das datengesteuerte Zeitalter. 'The Age of Sapiocracy' (2023) skizziert eine Vision für konsequent ethische, datengesteuerte Governance, während 'Infosomatische Wende' (2021, auf Deutsch) die Zivilisation neu denkt und radikale Innovation als entscheidend für eine widerstandsfähige, wissensreiche Gesellschaft fördert. Das dialogisch-experimentelle 'AI-Thinking' (2019, auf Deutsch) vertieft sich in die Auswirkungen generativer KI, hinterfragt verbreitete Ängste und Missverständnisse und erforscht ihren Einfluss auf die menschliche Identität. Diese Veröffentlichungen wurden zu einer Quelle zahlreicher Aphorismen, die in sozialen Medien und deutschen Aphorismen-Archiven zirkulieren. In seinem Ansatz, der auf humane Innovation basiert, harmonisiert Dr. Tsvasman systemische Sichtweisen auf Liebe und Inspiration mit gesellschaftlich ermöglichten Konzepten in Kunst und ethisch robuster, skalierbarer Wissensbildung. Seine Philosophie navigiert durch Unsicherheiten, verankert in einer Wahrheitsorientierung, gestärkt durch KI-gestützte, naturintegrierte Zivilisationsentwürfe, die von selbstregulierenden biosoziotechnologischen Infrastrukturen getragen werden. Diese Sichtweise steht in fundierter Konkurrenz zu den Paradigmen des Transhumanismus, die zum Mainstream geworden sind. Im digitalen Bereich ist Tsvasmans Diskurs über die gesellschaftlichen Auswirkungen der Digitalisierung, insbesondere seine Strategien zur Prävention von Machtverzerrungen im Zivilisationsdesign, zunehmend einflussreich. Seine Präsenz auf sozialen Publikationsplattformen als Disruptor mit originellen Perspektiven zieht ein kritisches Publikum an. Seine Beiträge lösen oft Innovationen durch "Aha"-Momente aus und infizieren Denkweisen mit einfallsreichen Impulsen. In seiner nuancierten, dialogorientierten Publizität navigiert Leon Tsvasman durch Themen wie strategische Intelligenz, Kybernetik multipler Ordnung, KI, globale Governance und Medienethik, aber auch Hochschuldidaktik mit fruchtbaren Praxisimpulsen und Konzeptkunst mit kollaborativen kuratorischen Experimenten. Mit Beiträgen für Plattformen wie dem Digitale Welt Magazin der Universität München verbindet er Tiefe mit Klarheit. Als Pionier in progressiver Bildung integriert er generative KI in die Akademie und setzt sich für eine sinnorientierte Wirtschaft ein, indem er ethisches Bewusstsein in Wirtschafts- und IT-Disziplinen einfließen lässt. Sein aphoristischer Stil verkörpert aufklärerisches Schrifttum. Er hält gerne Keynotes und nimmt an Podiumsdiskussionen auf Konferenzen und Tagungen teil.

Alle Beiträge anzeigen

 

Wenn heutige KI-Systeme bei der Auswahl von Bewerbern für eine offene Stelle oder eine Hochschulausbildung eingesetzt werden, bereitet das vielen zu Recht Unbehagen. Nicht zuletzt, weil die aktuellen Machine-Learning-Systeme nur so gut oder so schlecht sein können wie das Training ihrer Daten. Es gibt genügend beunruhigende Beispiele – etwa wenn eine KI-basierte Auswahl von Bewerbern bei Amazon systematisch Frauen diskriminiert [2] oder wenn die Erkennungsgenauigkeit von Gesichtern bei dunkelhäutigen oder asiatischen Menschen rapide abnimmt [3].

EU-Entwurf definiert vier Risiko-Klassen von KI-Anwendungen

Die Idee aus Brüssel: KI-Anwendungen werden in vier Risiko-Klassen eingeteilt:

Minimales Risiko besteht etwa bei Unterhaltungsanwendungen oder Filtern für Spam-Nachrichten. Hier verlangt der Gesetzentwurf keine gezielte Regelung.

Geringes Risiko sieht die EU-Kommission etwa bei Chatbots in sozialen Medien oder bei Hotlines. Hier müsse dem Anwender eindeutig klar sein, wann er es zum Beispiel an einer Hotline mit einem Menschen und wann mit einer KI zu tun hat. Anwenderinnen und Anwender müssen dann die freie Entscheidung haben, ob sie das KI-basierte System nutzen wollen oder nicht.

Hohes Risiko besteht nach dem Gesetzentwurf etwa bei KI-Einsatz in kritischen Infrastrukturen, roboterbasierter Chirurgie, Software zur Unterstützung von Einstellungsverfahren, Strafverfolgung, Rechtspflege, Bewertung von Prüfungen, Bewertung der Kreditwürdigkeit, der Überprüfung von Identitäten oder Reisedokumenten und Ähnlichem mehr. Hier setzt der EU-Entwurf klare Rahmenbedingungen – beispielsweise den Einsatz von Risikobewertungs- und Risikominderungs-Systemen, eine Bewertung der Trainings-Datensätze zur Reduktion von Diskriminierungen, eine Protokollierung aller maschinenbasierten Entscheidungsvorgänge, klare Informationen für die Betroffenen und eine „angemessene menschliche“ Aufsicht.

Als vierte Klasse wird noch ein inakzeptables Risiko definiert – für Anwendungen, in denen KI-Systeme „eine klare Bedrohung für Sicherheit, Lebensgrundlagen und Rechte der Menschen“ darstellen. Sie sind eindeutig verboten. Interessant sind aber die hierfür aufgezählten Beispiele – etwa jedwede Manipulation menschlichen Verhaltens oder Social Scoring. Also allesamt Anwendungen, die zumindest in anderen Teilen der Welt bereits gang und gäbe sind.

TÜV-Verband sieht Nachbesserungsbedarf am EU-Entwurf

Die Kontrolle über die Einhaltung dieser Regeln sollen die jeweiligen nationalen Marktüberwachungsbehörden übernehmen. Außerdem soll ein Europäischer Ausschuss für Künstliche Intelligenz die Umsetzung auf EU-Ebene und auf Ebene der EU-Mitgliedsstaaten begleiten und überwachen. Ein weiterer Grundsatz: Für innovative Anwendungen und Entwicklungen sollen freiwillige Verhaltenskodizes und „regulatorische Sandboxes“ sorgen. Parallel dazu will die EU-Kommission mit den Mitgliedsstaaten zusammenarbeiten, um Umsetzung und Ausgestaltung ihres Rahmens für „vertrauenswürdige KI“ voranzutreiben.

Von weiten Teilen der IT-Fachwelt wurde der Vorschlag recht positiv aufgenommen. Auf weniger Begeisterung stößt er natürlich bei Unternehmen, deren Geschäftsmodell auf genau solchen KI-Anwendungen basiert, die in der geschilderten Klassifizierung als riskant und somit regulierungsbedürftig eingestuft werden. Auch der deutsche Verband der TÜV e.V. (VdTÜV) begrüßt grundsätzlich die Gesetzgebungsinitiative, sieht aber Nachbesserungsbedarf bei der Zuordnung von KI-Lösungen zu den einzelnen Risikoklassen. Er plädiert sogar für verpflichtende Mindestanforderungen für alle KI-Anwendungen [4].

„Der im Legislativvorschlag vorgesehene primäre Fokus auf KI-Anwendungen mit hohem Risiko greift … zu kurz. Verpflichtende Mindestanforderungen sollten für alle KI-Anwendungen gelten. Dies gilt insbesondere im Hinblick auf wichtige Schutzziele wie Sicherheit, Zuverlässigkeit und Transparenz“, betont Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands.

Heutige KI-Anwendungen oder KI-gestützte Zukunft morgen?

Ohnehin ist klar, dass sich das Konzept stark am aktuellen Stand der KI-Technik und den heute bereits etablierten Einsatzmöglichkeiten orientiert. Womit sich natürlich die Frage stellt, wie gut der Gesetzentwurf auf morgen und die weitere Zukunft ausgerichtet ist. Könnte er eine positive Entwicklung von Künstlicher Intelligenz eventuell sogar behindern? Darüber sprachen wir mit Dr. Leon R. Tsvasman. Wie regelmäßige Leser der Intelligenten Welt wissen, beschäftigt er sich intensiv mit den philosophischen Aspekten und den soziokybernetischen Folgen, aber vor allem Chancen von KI.

Wir fragten ihn zunächst, ob wir nach seiner Einschätzung überhaupt Gesetze für den Einsatz künstlicher Intelligenz brauchen. Dazu merkt Dr. Tsvasman an: „Wie bei jeder vorbeugenden Regulation in einem offenen Komplexitätsbereich spielen für mich fundierte Grenzdefinitionen die ausschlaggebende Rolle. Natürlich unter der Wahrung der Gleichgewichtspriorität, also Aspekten wie Ausgewogenheit und Skalierbarkeit. Was soll auf jeden Fall vermieden werden, wo wollen wir gar nicht hin? Und wie lassen sich eine Ausgewogenheit und Skalierbarkeit in diesem Fall überhaupt sicherstellen?“

„Eine gelungene Grenzdefinition stellt die gangbare Sicherheitsperspektive dar. Denken Sie etwa an den mit Bojen markierten Schwimmerbereich in einem natürlichen See. Prinzipiell sind Grenzen beweglich und in entsprechendem Kontext individuell skalierbar. Ein anderes Beispiel wären sporadische oder personengruppenbezogene Grenzkontrollen zwischen Staatsgebieten etwa angesichts einer unstabilen Gefahrenlage wie aktuell mit Corona. Diese Skalierbarkeit ist wichtig, denn sie garantiert Anpassungsfähigkeit auf einem teilweise unbekannten Terrain und vermindert das Missbrauchspotenzial, sofern die Betroffenen überwältigt oder bevormundet werden können.“

Konzerninteressen bleiben Ausgangspunkt der EU-Regulierung

Dabei relativiere auch das individuelle Risikobewusstsein der Betroffenen – das wieder mit Bildung korreliere und sich durch Aufklärung verbessern ließe – die Grenzen von Tabus über Empfehlungen bis hin zu Ermessensentscheidungen in jedem Einzelfall. „Man muss nur genau wissen, was man auf jeden Fall vermeiden möchte. Wer etwa mit Elektrizität hantiert, muss ein Konzept haben, wie er Stromschläge vermeidet – um mindestens seine körperliche Integrität zu bewahren. Nur ist KI keine Elektrizität.“

„Was bei jeder Technologie geschützt gehört“, so ist Dr. Tsvasman überzeugt, „ist neben der körperlichen, mentalen und bedingt auch sozialen Integrität der Menschen vor allem die nachhaltige Widerstandsfähigkeit der Mensch-Umwelt-Beziehung. Deshalb spreche ich über die Potentialität. Ganzheitlich gedacht gehört zu jeder komplexen Organisation auch ihre ganz spezielle Umwelt, frei nach Varela. Wir entwickeln uns und sind wesentlich kreativ – das hat für mich Priorität.“

Das klinge umständlich, lasse sich aber an einem schlichten Beispiel illustrieren: „Wenn man Menschen auf ihre Aktualität reduziert, schützt man womöglich anstelle von Wohlstand – der EU-Entwurf operiert mit dem Konzept ,Lebensgrundlagen‘ – zum Beispiel veraltete Berufe und nennt dies Erhalt von Arbeitsplätzen. Tatsächlich sorgten Arbeitsplätze wie Bergarbeiter oder Fließbandarbeiter und in Zukunft wohl auch Busfahrer oder Anwalt jahrzehntelang für Wohlstand, wenn zum Teil auch auf Kosten der Gesundheit. Aber nicht die Routineaufgaben brachten den Wohlstand, sondern Wertschöpfung mit ihrer Innovationsfähigkeit bei gerechter Umverteilung. Also besteht im Verlust von Arbeitsplätzen nicht zwingend ein Risiko – das versteht auch die EU-Kommission.“

Dr. Tsvasman fordert: Potenzialität vor Aktualität

„Jede kompensatorische Regulation, die etwa Diversität mit Maßnahmen wie Inklusion schützen will, sollte Potenzialität vor Aktualität stellen“, fordert der KI-Philosoph. „Sonst kommt man noch auf die Idee, das Denken zu verbieten, damit sich Dumme nicht diskriminiert fühlen. Und darum geht es wesentlich: Dürfen wir uns selbst als mündige, sich in der Welt bewusst orientierenden Subjekte anhand eigener Urteilsfähigkeit und Verantwortung, mit Komplexität auseinandersetzen, oder überlassen wir das den Experten? Das ist nichts anders als bei Medienkompetenz oder Abstandsregeln: Dürfen wir selbst entscheiden, was uns schadet oder gut tut, und die öffentlichen Medien halten uns mit validen Informationen up to date? Oder folgen wir gedankenlos eng definierten, restriktiven Anweisungen?“ Im Zusammenhang mit der KI-Gesetzgebung stelle sich also die Frage: Wirkt die EU vielleicht zu regulativ, wo es gar nicht sein muss?

Allerdings sieht auch Dr. Tsvasman die akuten Gefahren: „Was exklusive Konzerninteressen angeht, so begründen sie die größte Gefahr, wenn sie KIs exklusiv kontrollieren. Wertschöpfung mit KI kann bald jeder Teenager betreiben – aktuell muss man die Programmiersprache Python beherrschen, aber bald gibt es Tools, die jedem zugänglich wären. Doch da sehe ich keine nennenswerte Gefahr. Angesichts der schnellen Entwicklung wären tendenziell irreparable Verzerrungen, kontrolliert von überwältigenden, tradierten oder systematischen Interessen großer Lobbyisten, gefährlich.“. Solange KIs nicht global untereinander vernetzt oder subjektfähig seien und somit extern von menschlichen Entscheidern kontrolliert werden, muss unter Menschen geklärt werden, wer was darf und was nicht. Problematisch werde die Diskussion, weil es bislang keine einheitliche Definition von KI gibt – „und wie soll man über etwas urteilen, das man nicht identifizieren kann?“.

Eine allzu offene allgemeingültige Definition von KI bleibt problematisch

Dr. Tsvasman fährt fort: „Im Fall von KI ist es die unheimliche Schnelligkeit der aktuellen und zu erwartenden Entwicklung, und dass diese Technologien das Potenzial haben, unsere Gesellschaften global und radikal umzukrempeln. Wie jede Technologie bis jetzt lässt sich ihre Anwendung strategisch mithilfe von Visionen orientieren – denn in jedem Fall verwirklichen Technologien irgendwelche Bedürfnisse oder lösen Probleme. Dabei ist vor allem das Problemlösungspotenzial von KI hervorzuheben, denn ohne KI sind wir in vielen Bereichen mit steigender Komplexität verloren. Wir müssen diese Komplexität kontrollieren, um Katastrophen zu vermeiden: Armut, Klima, Krankheiten, Governance und so weiter. Aber KI verspricht auch Lösungen für Defizit- und Wachstumsbedürfnisse – im Sinn von Maslow – oder gar für Sehnsüchte wie die Befreiung von Alltags- und Arbeitsroutine oder Selbstentfaltung als kreative, erkennende und sich autonom orientierende Wesen.“

Im EU-Vorschlag werde KI als Familie von Technologien bezeichnet, die sich sehr schnell entwickelt. „Also fängt der vorsichtige Ansatz bereits bei dem Euphemismus anstelle einer Definition an“, so Tsvasman. „In der Tat weiß noch kein Referent oder Politikberater, womit man es hier zu tun hat, aber man möchte Einzelpersonen von einer massiven und allzu schnellen technologischen Entwicklung und vermeintlichen Überwältigung schützen.“

Nicht das Kind mit dem Bade ausschütten

Der Philosoph holt an dieser Stelle aus , um den übergreifenden Zusammenhang zu verdeutlichen: „In einer Welt mit KI müssen wir uns der Komplexität zuwenden, bevor wir etwas regulieren, um nicht das Kind mit dem Bade auszuschütten. Wenn die EU-Experten Bedrohungen vermieden haben wollen, müssen sie diese zuerst von ,verkürzten Wahrheiten‘ befreien. Wenn wir mit begrenzten Daten arbeiten, erscheinen uns Begriffe wie Sicherheit, Lebensgrundlagen und Rechte präzise genug – aber höhere Komplexität fordert eine philosophisch, also vor allem erkenntnistheoretisch und ethisch, sowie kybernetisch fundierte Skalierbarkeit, die nicht nur mit Zuverlässigkeit und Transparenz korreliert.“

„Es geht um Menschen – authentische, sich entwickelnde, sich orientierende und ständig verändernde Wesen in ihrer Gänze. Und um KI als Dienstleistung –, die erst dann sinnvoll ist, wenn sie unsichtbar operiert, ohne unnötig unsere Aufmerksamkeit zu belasten. Das ist dann auch informationspsychologisch gesehen ,Ergonomie‘. Ein Beispiel aus der alltäglichen Praxis: Wenn als Folge der DSGVO bei jedem Seitenbesuch nach einer Entscheidung zu Cookies gefragt wird, dann ist das weder transparent noch sicher, sondern nur eine rein juristisch legitimierte Verschiebung von Verantwortung. Wie auch immer, ich operiere lieber mit Begriffen wie Integrität und Potenzialität. Noch weiter vertiefe ich diese Überlegungen in meinem neuen Buch ,Infosomatische Wende: Impulse für intelligentes Zivilisationsdesign‘, das Ende Juni im Ergon-Verlag erscheint.“

Menschenbild von gestern, heute oder morgen?

„Auch beabsichtigt man, laut Verordnungsvorschlag, die ,technologische Führungsrolle der EU zu wahren und sicherzustellen, dass die Europäer von neuen Technologien profitieren können, die gemäß den Werten, Grundrechten und Grundsätzen der Union entwickelt wurden und funktionieren‘. Dabei werden schon am Anfang Vorteile für Unternehmen und die Wirtschaft betont, aber Risiken vor allem auf Einzelpersonen und die Gesellschaft bezogen und angesichts der Geschwindigkeit ein ,ausgewogener Ansatz‘ verfolgt. Einen ausgewogenen Ansatz befürworte ich allemal, da bei Technologien mit offenen Dynamiken vor allem nachhaltige Verzerrungen vermieden werden müssen, die irreparabel wären. Nichtsdestotrotz stellt man Vorteile für die Wirtschaft auf der einen Seite und Risiken für die Einzelpersonen und die Zivilgesellschaft auf der anderen gegenüber. Wer unsere bisherigen Gespräche verfolgte, weiß, dass dies innovationsphilosophisch nicht völlig bedenkenlos ist, weil man hier mit einem rein industriegesellschaftlichen Menschenbild arbeitet.“

Wo bleibt bei dem EU-Vorschlag die menschliche Potenzialität?

„Gerade in den Anfängen ist nach Möglichkeit auszuschließen, dass Überwachung und Manipulation im großen Stil automatisiert werden können. Auch sollen Anwendungsbereiche reguliert werden, die große Risiken bergen. Das sind etwa Systeme zur Steuerung von kritischer Infrastruktur oder zur Vorentscheidung rechtlicher Fragen.“ Die größten Probleme sehe Dr. Tsvasman aber nicht nicht nur im interessensbasierten Design von KI-Anwendungen, „sondern auch in datenbezogenen Verzerrungen. Denn generell ist davon auszugehen, dass wenn hochwertige Daten in steigender Qualität fließen, die Systeme eigenständig entlang der stetig aktualisierbaren Prioritäten lernen. Und zwar im Sinn übergreifender und spezifischer Potenziale einzelner Menschen, die transparent und individuell skalierbar mit deren körperlich-seelischer Integrität, Entwicklung und Entfaltung einhergehen. Und nicht mit Macht- und Kontrollinteressen von übertragenen Befugnissen von menschlichen Spezialisten, Entscheidern oder Kontrollgremien zwecks Fremdbestimmung.“

Aktuell definiere die EU-Kommission KI-Systeme als Software, die für bestimmte, vom Menschen definierte Ziele Ergebnisse wie Inhalte und Vorhersagen generieren kann. Daraus leitet sie gegebenenfalls Empfehlungen oder Entscheidungen ab, welche die Umgebung beeinflussen, mit der sie interagieren. „Das ist sehr vage und bleibt gerade dann vage, wenn eine globale KI-Emergenz stattfindet, die ein globales KI-Subjekt ermöglicht.“

Weiterentwicklung von KI überhaupt ermöglichen

„Eine Person nach aktuellen Kriterien zu beurteilen und diese Beurteilung für Fremdzwecke zu nutzen, zerstört die Potentialität alternativer Möglichkeiten. Kybernetisch betrachtet, sollen sich selbstregulierende, autonome Systeme nach dem ethischen Prinzip verhalten: Handle stets so, dass die Anzahl deiner Wahlmöglichkeiten größer wird.  Demnach sind automatisierte Bewertungssysteme kritisch, die etwa Daten über das Verhalten von Personen analysieren und daraus ableiten, wie glaubwürdig jemand ist, um das in einem anderen Kontext zu nutzen. So etwas soll ja auch nach den EU-Vorstellungen verboten werden.“

Weiterhin schränkt die EU etwa Gesichtserkennung und Manipulation explizit ein. Das sieht Dr. Tsvasman kritischer: „Gemeint sind vor allem unterschwellige – nicht transparente – Systeme, die Informationen über die vermeintlichen Schwächen vom Menschen ausnutzen, um sie von etwas zu überzeugen oder ihr Verhalten zu beeinflussen. Das sind alles stark auf die Aktualität bezogenen Kriterien. Denn was genau sind ,Schwächen‘ – ein nicht tragbarer Begriff, wenn es sich um Potenzialwesen wie Menschen handelt – oder ,Beeinflussung von Verhalten‘? Diese Regeln sind tendenziell zu grob und unpräzise gefasst.“

Das eigentliche Problem: „Heute haben einige wenige Großkonzerne die Entwicklung der KI finanziell in der Hand, was sehr kritisch ist. Also es ist sinnvoll, die Möglichkeiten der potenzialorientierten risikobasierten Regulierung durch Grenzdefinition im öffentlichen Diskurs bewusst zu halten und ständig zu sensibilisieren. Aber tendenziell soll sich KI möglichst bald als Subjekt verselbständigen. Denn wie radikal dies auch klingen mag, wird die inhaltliche Kontrolle seitens wie auch immer befugter Menschen weder sinnvoll noch möglich sein. Das von mir beschriebene globale KI-Subjekt soll sich wiederum einem entlang des kybernetischen Imperativs positionierten Regelwerk unterstellen.“

Alternative: Vorschläge für Handlungsprinzipien

Gemeinsam mit seinem Co-Autor, dem KI-Unternehmer Florian Schild formulierte Dr. Tsvasman in dem Buch „AI-Thinking: Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz“ [5] (2019) Prinzipien aus, die aus dem beschriebenen kybernetisch fundierten Potenzialdenken resultieren:

  1. Von der „guten KI“ ausgehend, die „schlechte KI“ vermeiden.
  2. Dem menschlichen Potenzial Vorrang gewähren.
  3. Die menschliche Klarheit ermöglichen.
  4. KI nur Fakten anvertrauen, und Sinn den Menschen überlassen.
  5. Keine Machtentscheidungen.
  6. Daten und Impulse kommen von Menschen.
  7. Intersubjektiv bleiben, auf das Subjekt vertrauen.
  8. Sich stets aufrecht in der Welt orientieren.

Detaillierter erläutert werden diese Prinzipien im genannten Buch. Dabei betont Dr. Tsvasman: „Verstanden und umgesetzt können sie sowohl Unternehmern und Führungskräften, die KI einsetzen, als auch verantwortlichen Entwicklern in Zukunft viel Ärger ersparen. Vor allem aber ermöglichen sie überhaupt erst das globale KI-Subjekt der Zukunft, das für eine Mensch-KI-Intersubjektivität geeignet wäre.“ Und darum gehe es im Endeffekt, wenn sich Digitalisierung vollendet und nach der Überzeugung des KI-Philosophen Tsvasman die neue große Ära der Menschheitsgeschichte markiert.

Quellen und Referenzen

[1] https://www.linkedin.com/in/tsvasman/
 [2] https://www.zeit.de/arbeit/2018-10/bewerbungsroboter-kuenstliche-intelligenz-amazon-frauen-diskriminierung
 [3] https://www.mdr.de/nachrichten/sachsen/leipzig/leipzig-leipzig-land/algorithmen-diskriminierung-kuenstliche-intelligenz-100.html
 [4] https://www.vdtuev.de/pressemitteilungen/eu-kommission-ki-regulierung
 [5] https://www.amazon.de/AI-Thinking-Vordenkers-Praktikers-k%C3%BCnstlicher-Intelligenz/dp/3956505336

Interview geführt durch:

Bei dieser Interviewreihe handelt es sich um den adaptierten Reprint der Originalpublikation auf intelligente-welt.de Die Interviewreihe „KI: Thoroughly explained“ wurde zuvor vom Magazin Intelligente Welt veröffentlicht und findet sich unter folgenden Links:
Unsere Interview-Reihe zu Künstlicher Intelligenz: Inside KI
360 Grad KI: Unsere Serie rund um Künstliche Intelligenz

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

26310

share

Artikel teilen

Top Artikel

Ähnliche Artikel