Warum lässt sich Kommunikation überhaupt automatisieren?
Um diese Frage zu erörtern, ist es erforderlich, die grundlegenden Konzepte zu verdeutlichen. Dazu gehören fein abgestimmte Definitionen von Sprachlichkeit, Kommunikation, Medialität und Information. Diese Konzepte sind auch im Kontext der Mensch-Maschine-Kommunikation relevant und können helfen, einige der Missverständnisse zu entwirren, die leider oft von technisch fokussierten Fachleuten aus ihrer Ausbildung mitgebracht werden.
Sprachlichkeit wird hier als ein kulturspezifisches Werkzeug verstanden, das auf Handlung ausgerichtet ist. Sie ist ein Instrument kollektiven Handelns, das aus dem griechischen philosophischen Verständnis von „Logos“ hervorgeht und das Prinzip der Vernunft und Ordnung in der Welt und im menschlichen Denken repräsentiert [1]. In der modernen Wissenschaft und in unserem Kontext dient das Logos als strukturierendes, ordnendes Prinzip, das menschliche Kommunikation und Handeln unter Einhaltung von Absprachen ermöglicht und leitet [2]. So bezieht sich Sprachlichkeit pragmatisch nicht nur auf einzelne Sprachen, sondern auf die durch sprachliche Medialität geprägte Zivilisationsform, in der Praktiken wie Absprachen und mentale Werkzeuge wie Logik eine Schlüsselrolle spielen.
Kommunikation wird hier nicht als Ersatz für Telepathie oder verbesserte Empathie betrachtet, sondern als ein Werkzeug, das gemeinsames Handeln ermöglicht. Ihre Natur ist daher pragmatisch und ökonomisch. Sie erzeugt Redundanzen; echte Telepathie würde diese Redundanzen beseitigen. Wenn Telepathie existierte, könnte sie nicht kommuniziert werden. Ebenso ist Empathie nicht automatisierbar, da sie nur zwischen Subjekten möglich ist [3]. KI ist kein Subjekt, es sei denn, sie ist verkörpert, und bisher kennen wir nur verkörperte Subjekte, die sich als evolvierte Verkörperungen des Lebens entwickelt haben [4].
Information, definiert als „ein Unterschied, der einen Unterschied macht“ (Bateson, 1972), bezeichnet nicht eine übertragene Einheit von Bedeutung oder Wissen, sondern eine Veränderung oder Differenz, die einen Unterschied in einem System oder Prozess hervorruft [5]. Dieser erweiterte Informationsbegriff eignet sich sowohl zur Erklärung der kommunikativen Alltäglichkeit unter Menschen als auch im Bereich der Mensch-Maschine-Kommunikation.
Die Herausforderungen und Möglichkeiten, die sich aus der Automatisierung der Kommunikation durch KI ergeben, sind komplex und vielschichtig. Sie erfordern eine gründliche Untersuchung, die die Grenzen und Möglichkeiten von KI erkennt und die Rolle von Sprachlichkeit, Kommunikation, Medialität und Information in der Interaktion zwischen menschlichen Subjekten und Maschinen sorgfältig reflektiert [Tsvasman, 2006, diese und weitere Referenzen sind vgl. weil hier in Anlehnung an die in den Publikationen geschilderten Zusammenhänge referiert].
Der Subjektbegriff verweist auf jene Instanz, die in der Lage ist, Handlungen durchzuführen, Wahrnehmungen zu erleben und intentionale Zustände wie Wünsche, Überzeugungen und Emotionen zu haben. Es ist das „Ich“ oder das „Selbst“, das als Zentrum der Bewusstheit und Handlung fungiert. In der philosophischen Tradition wird ein Subjekt oft als verkörperte Einheit verstanden, die fähig ist, die Welt aus einer ersten Person Perspektive zu erfahren. Ein wichtiger Aspekt des Subjekts ist seine Fähigkeit zur Intersubjektivität – beobachtbar als die Fähigkeit, Bedeutungen, Absichten und Emotionen mit anderen Subjekten zu teilen und aufeinander abzustimmen. Diese Fähigkeit zur Intersubjektivität unterscheidet Subjekte von KI-Systemen wie GPT, die zwar Handlungen in Form von Texterzeugung durchführen können, aber keine eigenen Absichten, Überzeugungen oder Emotionen haben und keine erste Person Perspektive oder eigene Wahrnehmungserfahrung haben, weil sie nicht verkörpert evolviert sind [Tsvasman & Schild, 2019].
Mit diesen Definitionen im Hinterkopf lässt sich die Ausgangsfrage genauer beleuchten. Künstliche Intelligenz ist kein Subjekt, es sei denn, sie ist verkörpert. Bisher kennen wir nur verkörperte Subjekte, die sich als Verkörperungen des Lebens entwickelt haben [Tsvasman & Schild, 2019]. KI, wie GPT, automatisiert die Kommunikationspragmatik, die Menschen mittels Sprachlichkeit verbindet, jedoch nicht die Menschen miteinander. Sie entwirrt die Redundanzen, die alle menschliche Aktionskommunikation mit Missverständnissen und Redundanzen durch die unvollkommene, nicht optimale, weniger effiziente Nutzung des Werkzeugs „Logos“ belastet haben [Tsvasman, 2021].
Diese Optimierung und Automatisierung der Aktionskommunikation durch KI bringt uns jedoch nicht zur Intersubjektivität. Wenn Sie also mit ChatGPT kommunizieren, kommunizieren Sie nicht mit einem Subjekt; selbst die Nachahmung oder der Eindruck von Intersubjektivität ist reine Einbildung [Tsvasman & Schild, 2019]. Sie verkörpert lediglich die Funktion des Logos, ein Instrument zur Optimierung der Kommunikationspragmatik [Tsvasman, 2021].
Insgesamt trägt die Automatisierung der Kommunikation dazu bei, unsere sprachliche Effizienz (entlang der kreativ fundierten subjekthaften menschlichen Effektivität) zu verbessern, unseren Gebrauch von Kulturwerkzeugen zu optimieren und die auf dem „Logos“ basierende Kommunikation zu kontextualisieren. Es ist jedoch wichtig, die Grenzen der KI und der automatisierten Kommunikation bei der Erreichung „wahrer“ Intersubjektivität zu erkennen, und wir sollten weiterhin nach tieferen Verbindungen und Verständnissen zwischen den Individuen streben [Tsvasman, 2023].
Wir stehen erst am Anfang eines neuen Zeitalters, in dem KI und automatisierte Kommunikationssysteme eine immer größere Rolle spielen werden. Doch während wir diese neuen Möglichkeiten nutzen und erforschen, dürfen wir nicht vergessen, dass echte menschliche Verbindungen und tiefgreifendes Verständnis über das hinausgehen, was KI und automatisierte Kommunikation leisten können. Die Rolle der Information als „ein Unterschied, der einen Unterschied macht“, unterstreicht dabei die Bedeutung der stetigen Veränderung und Anpassung in unserem Verständnis und Umgang mit Kommunikation [Tsvasman, 2023].
Referenzen:
[1] vgl. Heidegger, M. (1951). Logos (Heraklit, Fragment B 50). In Vorträge und Aufsätze (pp. 230–266). Neske.
[2] vgl. Habermas, J. (1981). Theorie des kommunikativen Handelns (Band 1 & 2). Suhrkamp.
[3] vgl. Gallagher, S. (2001). The Practice of Mind: Theory, Simulation or Primary Interaction? Journal of Consciousness Studies, 8(5-7), 83-108.
[4] vgl. Brooks, R. (1999). Cambrian Intelligence: The Early History of the New AI. MIT Press.
[5] vgl. Bateson, G. (1972). Steps to an Ecology of Mind: Collected Essays in Anthropology, Psychiatry, Evolution, and Epistemology. University of Chicago Press.
[6] vgl. Tsvasman, L. (2006). Das große Lexikon Medien und Kommunikation. Kompendium Interdisziplinärer Konzepte. Ergon Verlag, Würzburg.
[7] vgl. Tsvasman, L. & Schild, F. (2019). AI-Thinking: Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz. Ergon (Nomos Gruppe), Baden-Baden.
[8] vgl. Tsvasman, L. (2021). Infosomatische Wende: Impulse für intelligentes Zivilisationsdesign. Ergon Verlag (Nomos Gruppe), Baden-Baden.
[9] vgl. Tsvasman, L. (2023). The Age of Sapiocracy. On the Radical Ethics of data-driven Civilization. Ergon Verlag (Nomos Gruppe), Baden-Baden.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.