Wenn Künstliche Intelligenz menschliche Emotionen analysiert und versteht

bei

 / 28. April. 2020

Die Entwicklungen im Bereich des „Affective Computing“ gehen rasant voran. Es liegt daher nahe, dass in Zukunft Künstliche Intelligenz in verschiedenen Bereichen des Lebens [1] zum Einsatz kommt und uns im Alltag begleitet. Zum Beispiel könnte es in naher Zukunft so weit sein, dass die KI den emotionalen Zustand des Fahrers erkennt. Solche Modelle wurden bereits in der Vergangenheit auf der CES (Consumer Electronics Messe) in Los Angeles vorgestellt. Es liegen bereits Konzepte vor, die noch in der Weiterentwicklungsphase sind und darauf warten, zum Einsatz zu kommen. Diese KI scannt sogenannte „biometrische Daten“ und erkennt dadurch autorisierte Personen automatisch, öffnet ihnen die Türen, oder passt die Musik automatisch an die Stimmung der Insassen an.

Einfach gesagt werden Computer immer besser darin, emotionale Wesen wie wir Menschen es sind zu verstehen und deren Emotionen bzw. Gefühle zu deuten. Mit Affective Computing ist damit der experimentelle Bereich der Künstlichen-Intelligenz-Forschung gemeint, Computer lernen dabei menschliche Emotionen richtig einzuschätzen, zu erkennen und sogar zu imitieren.

Maschinen müssen lernen, Maschinen zu verstehen

Sehr wichtige Methoden sind dabei das sogenannte „Machine Learning“ und das „Deep Learning“, diese Methoden führen dazu, dass intelligente Algorithmen vor allem Bilder immer besser verstehen, deuten und erkennen können. Das kann als Grundlage für Affective Computing verstanden werden, weil Bilder als Basis für das Verstehen von Emotionen dienen. Des Weiteren wird zum Verständnis menschlicher Emotionen auch die Psychologie und Semiotik eingesetzt. Alle Weiterentwicklungen in diesem Bereich helfen, die Codierungen von Ausdrücken auf der Gefühlsebene zu systematisieren und folglich zu entschlüsseln.

Die Basisemotionen für das Affective Computing

Es gibt Basisemotionen, die weltweit einheitlich und deshalb universal verständlich sowie einheitlich codiert sind. Diese sind aus diesem Grund für intelligente Programme erkennbar, die Basisemotionen unterscheiden sich in Wut, Fröhlichkeit, Ekel, Traurigkeit, Furcht und Überraschung. Diese Arten von Emotionen werden als Grundbasis zur Weiterentwicklung herangezogen.

Welche Anwendungsbereiche gibt es für Affective Computing

Das Affective Computing kann für viele unterschiedliche Anwendungsbereiche eingesetzt werden. Ein sehr wichtiger Kernbereich, der für die Simulation von menschlichen Emotionen sowie für das Verstehen von Affekten benötigt wird, ist der Bereich der Robotik. Hierbei lassen sich vor allem in der Rehabilitation und Pflege, sowie im Ambient Assisted Living [2] weitaus höhere Erfolgsquoten erzielen. Dazu müssen Roboter die Gefühle des Gegenübers richtig deuten und verstehen, im weiteren Verlauf müssen diese in der Lage sein, emotionale Reaktionen darauf zu simulieren. Das gilt auch für virtuelle Assistenten [3], diese verstehen ihr menschliches Gegenüber dank Affective Computing besser.

Weitere Anwendungsgebiete

Zu den weiteren Anwendungsbereichen zählen vor allem Lern- bzw. Bildungskontexte, denn hier trägt die emotionale Komponente sehr viel zum Lernerfolg bei. Auch die Spieleindustrie kann von Affective Computing sehr profitieren, Auswertungen des User-Feedbacks können für mehr Sicherheit sorgen. Die Hersteller von Computerspielen können bei Bedarf für eine Gewaltreduktion bei Videospielen sorgen. Es können dadurch auch Menschenleben gerettet werden, nämlich dann, wenn es im Service- und Healthcare-Bereich eingesetzt wird. Durch die Erkennung von Emotionen der Anrufer kann zum Beispiel sofortige Suizid-Hilfe gewährleistet werden.

Der Einsatz im Automotive und Text-Bereich

Die Anwendung kann auch bei Chatbots eingesetzt werden, das Verständnis der emotionalen Reaktion des Gegenübers, kann Missverständnisse reduzieren und für eine bessere Kommunikation sorgen. Im Automotive-Bereich kann die Analyse der Gemüts- bzw. Gefühlszustände der Fahrer für mehr Sicherheit sorgen und zudem auch für die Individualisierung des Entertainments eingesetzt werden. Beim Text-Mining wird es eine Verbesserung der Analysemöglichkeiten von Texten – zum Beispiel bei Produktbewertungen geben.

Affective Computing in der Praxis

Das Gesicht ist bei Menschen ein sehr guter Indikator, um bestimmte Emotionen zu erkennen. Positive und negative Stimmungen werden sehr gut erkannt, in der Praxis kann die Gesichtsanalyse vor allem in Situationen eingesetzt werden, in denen ein Benutzer eine Kamera (z.B.: eine Webcam) vor sich hat. Schwieriger gestaltet sich der Einsatz bei einem Telefonat, wo kein Bildmaterial zur Verfügung steht. In diesem Fall müssen Audio-Daten, also die Sprache analysiert werden. Im aufgeregten Zustand sprechen Menschen merkbar schneller, lauter und mit großen Tonschwankungen, im Vergleich zum entspannten Zustand.

Dies lässt sich mit aktuellen Verfahren bereits sehr gut erkennen und wird auch schon eingesetzt.

In welchen Bereichen wird Affective Computing noch eingesetzt

Des Weiteren wird es bereits bei textuellen Inhalten zum Analysieren von E-Mails eingesetzt. Hierfür wird die sogenannte „Sentiment Analyse“ [4] verwendet, mit dieser können Texte in positive oder negative Schreibweisen klassifiziert werden. Eine Textanalyse kann ein gutes Verfahren bei der Analyse von Stimmungen ganzer Online-Communities darstellen. Es können dadurch Facebook-Posts automatisch ausgewertet werden, zudem wird die Stimmung ihrer Follower besser eingeschätzt.

Welche Möglichkeiten gibt es noch für den Einsatz

Wenn der Benutzer allerdings an keinem festen Ort ist, an dem keine Kameras angebracht werden können, er weder aktiv spricht noch schreibt, muss eine andere Lösung her. Hier finden psychologische Daten ihren Einsatz, diese können ohne Mitarbeit des Benutzers erhoben werden. Es bietet sich die Möglichkeit an, körperliche Daten wie zum Beispiel die Herzfrequenz, bestimmte Bewegungsmuster oder die Hauttemperatur auszuwerten. Mit Hilfe von Wearables und Sensoren können solche Daten am Handgelenk gemessen werden, durch die geeigneten Algorithmen werden diese Daten bestimmten Affekten oder Emotionen zugeordnet.

Eine Schnittstelle zwischen Mensch und Maschine schaffen

Der Hauptbegriff „Affective Computing“ kann – einfacher formuliert – als Schnittstelle zwischen Maschine und Mensch bezeichnet werden. Die Weiterentwicklung von Künstlicher Intelligenz läuft auf Hochtouren, mit dem einzigen Ziel: Die KI soll den Mensch besser zu verstehen lernen. Dazu werden aktuell vor allem Bilder- oder Spracherkennungssysteme eingesetzt. Welche Möglichkeiten es in Zukunft noch für die Weiterentwicklung geben wird, bleibt abzuwarten.

Die Künstliche emotionale Intelligenz geht noch einen Schritt weiter

Die Entwicklung im Bereich des Affective Computing kann quasi als natürliche Weiterentwicklung in der KI-Forschung bezeichnet werden. Für Entwickler und Forscher in diesem Bereich ist zunächst das Ziel, alle kommunikativen Fähigkeiten der Maschinen zu verbessern. Aus dieser Forschung heraus ergeben sich zugleich zahlreiche Spielräume bei der Kollaboration von Mensch zu Maschine. Im Umkehrschluss bedeutet dies, dass intelligente Maschinen (Roboter etc.) die Gefühle der Menschen in der Umgebung besser verstehen lernen. Mit der Weiterentwicklung und dem Fortschritt steigt auch die Akzeptanz von computergestützten Systemen in der Medizin, Rehabilitation, Spielindustrie, Bildung und vielen weiteren Bereichen.

Die Schlussfolgerung des Affective Computing

Auch die Sicherheit wird dadurch speziell in der Arbeitswelt verbessert. In Umgebungen wie Krankenhäusern oder generell in gefährlichen Arbeitsumgebungen können dadurch Gefahrensituationen entschärft werden. Das System wird dann zur frühzeitigen Erkennung von Stresssituationen oder bei emotionalen Ausnahmesituationen der Arbeiter eingesetzt. Es gibt also eine sehr große Bandbreite was die Zielsetzungen in diesem Bereich betrifft, viele Ideen sind noch in der Anfangsphase und werden erst umgesetzt. Das enorme Potential dieser Branche zeichnet sich schon jetzt ab und in einigen Anwendungsbereichen kommt das Affective Computing bereits zum Einsatz. In Zukunft werden also mit Sicherheit noch viele weitere Bereiche hinzukommen!

 

Quellen und Referenzen:

[1] https://digitaleweltmagazin.de/2018/04/16/wie-kuenstliche-intelligenz-unsere-lebensbedingungen-beeinflusst/

[2] https://de.wikipedia.org/wiki/Ambient_Assisted_Living

[3] https://www.digital-minds.agency/virtueller-assistent/

[4] https://de.wikipedia.org/wiki/Sentiment_Detection

 

Roman Uminski unterstützt seit 2017 das international tätige digitale Verbrauchermagazin Kaufberater.io als Key Account Manager und SEO-Spezialist. Durch seine langjährige Erfahrung ist er der erste Ansprechpartner für die digitalen Kooperationen im deutschsprachigen Raum.