Künstliche Intelligenz, soziale Medien, selbstfahrende Autos und Werkzeuge, um Gene in der eigenen Garage zu verändern – selbst die optimistischsten Futuristen erkennen bereits an, dass einige Technologien das Potenzial haben, sich auf einen Point of no return hin zu entwickeln. Ab diesem Punkt der Unumkehrbarkeit wird die Vorhersage, wie die technologischen Errungenschaften genutzt werden oder welche unbeabsichtigten Folgen auftreten könnten schwierig bis unmöglich. Utopien und Dystopien geben sich hier die Hand.
Netflix-Serien wie „Black Mirror”, “Westworld” oder “Altered Carbon” werfen einen fiktiven Blick auf diese, meist düsteren technologisch getriebenen Szenarien. So weit hergeholt scheint das alles nicht. Das Thema rund um Künstliche Intelligenz (KI) ist also nicht nur unterhaltend, sondern auch an vielen Stellen sehr emotional. Emotional, weil die verkürzte Debatte um KI vielen Menschen Angst und Sorge bereitet. So herrscht Unsicherheit gegenüber den vermeintlichen Möglichkeiten und Machbarkeiten aber auch der Frage nach der Kontrolle einer lernenden Künstlichen Intelligenz.
Lassen Sie uns einen Blick auf die Emotionen bezüglich KI werfen. Vielleicht ist das nicht ganz so unterhaltsam wie eine “Black Mirror” Folge, aber es hat eine gesellschaftliche und unternehmerische Relevanz.
Die menschliche Maschine
Affective Computing, auch bekannt als Emotion KI, ist eine Technologie, die es Computern und Systemen ermöglicht, menschliche Gefühle und Emotionen zu erkennen, zu verarbeiten und zu simulieren. Es ist ein interdisziplinäres Feld zwischen Informatik, Psychologie und Kognitionswissenschaft.
Obwohl es ungewöhnlich erscheinen mag, dass Computer etwas tun können, das inhärent menschlich ist, zeigen Forschungen, dass sie eine akzeptable Genauigkeit bei der Erkennung von Emotionen aus visuellen, textuellen und auditiven Quellen erreichen. Mit den Erkenntnissen aus der Emotion KI können Unternehmen Dienstleistungen für ihre Kunden weiterentwickeln und scheinbar bessere Entscheidungen in kundenorientierten Prozessen wie Vertrieb, Marketing oder Kundenservice treffen.
Warum Affective Computing gerade in den letzten Jahren ein so großes Interesse erfährt? Weil die technischen Gegebenheiten zum ersten Mal vorhanden sind. Die zunehmende Gegenwart von hochauflösenden Kameras in Smartphones, Hochgeschwindigkeits-Internet, das überall zur Verfügung steht und die Möglichkeiten des maschinellen Lernens, insbesondere Deep Learning, ermöglichen den Aufstieg.
Crossing Borders – Die Mensch-Maschine
Welche konkreten Anwendungsmöglichkeiten resultieren daraus? Mit Affective Computing werden Datenquellen mit Feedback von Nutzern erweitert. So kann zum Beispiel in einem Chat-Programm anhand der verwendeten Wörter analysiert werden, ob der Nutzer gerade gestresst ist und damit leichter zu Flüchtigkeitsfehlern neigt. Oder aber es ist dem System durch eine Kamera möglich, den Nutzer bei der Verwendung zu sehen und aus Augenbewegungen Rückschlüsse auf den emotionalen Zustand zu schließen. Wenn wir über Customer Service nachdenken, tun sich hier theoretische Möglichkeiten auf, das zu nutzen.
Mein Team und ich entwickeln für unsere Software eine virtuelle Assistenz. Wenn die KI hier nicht nur auf das fachliche Bedürfnis, sondern auch auf den emotionalen Zustand des Users reagieren würde, könnte eine effizientere Ansprache möglich werden. In diesem Szenario wird aber sehr deutlich die Privatsphäre der Nutzer berührt und überschritten.
Affective Computing operiert in mehreren Bereichen, die von Gesellschaften und Gesetzen in anderen Kontexten als besonders schützenswert eingestuft wurden, auch weil Affective Computing biometrische Daten verwendet. Es kann Rückschlüsse über die körperliche oder geistige Gesundheit, Gedanken oder Gefühle ziehen, die eine Person nicht teilen möchte. Es kann, wie im Falle von Cambridge Analytica, in die Bildung oder Entwicklung von Überzeugungen, Ideen, Meinungen und Identität eingreifen, indem es versucht, die Emotionen oder das Interesse von Personen zu beeinflussen oder indem es Anreize für verstärkte Bemühungen von Personen schafft, ihre Gefühle zu verbergen oder bestimmte Reize zu vermeiden.
Automatisierte Emotionen
Die Aussicht auf eine automatisierte Erkennung der Emotionen anderer Menschen verstärkt die Sorgen über das Potenzial von KI für eine allgegenwärtige, ferngesteuerte und billige Überwachung und Verfolgung in großem Maßstab. Automatisierte Beeinflussung sollte sogar noch besorgniserregender sein. Emotionen sind ein sehr starker Motivator, der Handlungen antreibt.
Automatisierung ist auch eine unserer Kerntätigkeiten. Doch nicht die der Emotionen der User. KI-gestützten Verfahren werden in einem ERP-System immer mit dem Ziel verwendet, Prozesse der Nutzer*innen zu automatisieren. Dafür ist es nötig, mithilfe von Daten des Kunden – Stamm- und Geschäftsdaten – zu erkennen, welche Aktion in welchem Moment die richtige und effizienteste ist.
Einfältige Maschinen
Die meisten Anwendungen von Affective Computing, die derzeit in der Industrie erprobt und eingesetzt werden, sind vergleichsweise einfach wie das Erkennen von Lächeln oder ob der Blick eines Fahrers auf die Straße gerichtet ist. Aber auch bei dieser Art von Anwendungen gibt es eine Reihe von Risiken. Eine davon ist, dass sie möglicherweise behaupten, mehr zu tun, als tatsächlich der Fall ist.
Während sich viele der Anwendungen des Affective Computing noch in einem frühen Entwicklungsstadium befinden oder nur in kleinem Umfang eingesetzt werden, hat sich die Nutzung der Technologie in den letzten Jahren deutlich ausgeweitet und über verschiedene Bereiche hinweg verbreitet. Sie hat einen Punkt erreicht, der eine sorgfältige Betrachtung erfordert. Die Technologie wird an Arbeitsplätzen, auf der Straße, in Geschäften und in unseren Autos eingesetzt. Die Unternehmen, die diese Technologie entwickeln und einsetzen, sollten nicht nur, sondern sind dazu verpflichtet über die Konsequenzen nachdenken. Aber nicht nur die Unternehmen. Als Gesellschaft sollten wir gemeinsam entscheiden, ob, wann und wie wir KI entwickeln und einsetzen wollen, um menschliche Emotionen und Affekte zu spüren, zu erkennen, zu beeinflussen und zu simulieren.
Ethik & Zukunft
Es ist noch nicht klar, wie gut KI menschliche Emotionen und Affekte erkennen, beeinflussen und simulieren wird. Klar ist jedoch, dass sie, wenn sie ausreichend weiterentwickelt und verbessert wurde, ein sehr mächtiges Werkzeug sein wird, wie auch immer wir sie einsetzen wollen. Bevor wir diesen Weg weiter beschreiten, sollten wir intensiv darüber nachdenken, was das für unsere Zukunft bedeutet. Was passiert, wenn KI ausgereift ist? Welche Auswirkungen könnte das haben? Wir sollten auch intensiv darüber nachdenken, was es bedeuten würde, wenn es nicht gut funktioniert, wir es aber trotzdem benutzen.
Wir sollten darüber nachdenken, welche Fragen uns am meisten dabei helfen, die ethischen Probleme und unbeabsichtigten Folgen der Entwicklung und des Einsatzes von KI in Verbindung mit Emotionen und Affekten zu erforschen. Wir sollten unsere ethische Analyse auf die Anwendungen richten, die jetzt auf den Markt kommen und die gerade in den Forschungslabors dahinter stecken. Wir sollten uns fragen, wie sich das Affektive Computing mit unseren dringendsten Bedürfnissen von heute überschneidet. Wir sollten weiter in die Zukunft blicken und fragen, was die konkreten Chancen und Risiken vorhersehbaren Anwendungen sind und wie ihr weit verbreiteter Einsatz gesellschaftliche Veränderungen und Probleme hervorrufen könnte. Als Gesellschaft sollten wir uns gemeinsam fragen, ob, wann und wie wir KI entwickeln und einsetzen wollen, um menschliche Emotionen und Affekte zu spüren, zu erkennen, zu beeinflussen und zu simulieren.
Mancherorts wird der Ruf nach einer KI-Ethik laut. Aber was geht verloren, wenn wir eine spezielle Ethik für technologisch neue Felder entwickeln deren Folgen wir noch nicht in Gänze kennen? Die Ethik selbst geht dabei verloren. Und das darf niemals geschehen, da wir als Unternehmen ein Teil von Gesellschaft sind und Verantwortung nicht nur gegenüber einem monetären, sondern auch einem gesellschaftlichen Wachstum haben.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.