Wie funktioniert Affective Computing?

Von   Dr. Marco Maier   |  Head of Artificial Intelligence   |  HYVE AG
19. Juni 2017

Affective Computing – die Idee, Systeme zu entwickeln, die menschliche Emotionen und Affekte automatisiert erkennen und auch selbst simulieren können – soll dabei helfen, Maschinen nicht nur intelligent, sondern auch empathisch zu machen. Doch wie funktioniert das ganze? Durch welche Verfahren kann eine Maschine erkennen, wie sich ein Benutzer fühlt?
Zunächst stellen sich zwei Fragen: Was möchte ich überhaupt erkennen und welche Daten kann ich dafür verwenden? Die erste Antwort kann sehr vielfältig ausfallen: Intuitiv denkt man meist an Basisemotionen wie Freude, Wut, Ekel, Furcht, Verachtung, Traurigkeit und Überraschung. [1] Andere Schwerpunkte können jedoch z.B. auf die Unterscheidung zwischen Stress und Entspannung oder auch Unter- und Überforderung gesetzt werden. Für manche Anwendungsfälle ist es sogar gar nicht relevant, dem aktuellen Zustand einer Person einen Namen geben zu können, solange die künstliche Intelligenz diesen Zustand einordnen und entsprechend darauf reagieren kann.

Je nach Zielsetzung und den vorhandenen Ressourcen, kann auf unterschiedliche Datenquellen zurückgegriffen werden, um die gewünschte Klassifizierung durchzuführen. Im Wesentlichen werden in der Affective-Computing-Forschung vier Bereiche betrachtet: Bilder/Videos, Audio-Daten, Texte und physiologische Daten.

Bei der Verwendung von Bildern bzw. Videos stützt man sich meist auf die Auswertung von Gesichtsausdrücken, seltener auch auf die Analyse von Körperhaltung und Gestik. Das Gesicht ist bei den meisten Menschen, die nicht über ein ausgeprägtes Poker-Face verfügen, ein sehr guter Indikator für bestimmte Emotionen, gerade auch was die Unterscheidung zwischen positiven und negativen Stimmungen angeht. In der Praxis bietet sich die Gesichtsanalyse vor allem in Situationen an, in denen der Benutzer sowieso eine Kamera vor sich hat, wie z.B. die Webcam bei der Arbeit am Rechner. Schwieriger fällt die Anwendung in Szenarien, in denen sich der Benutzer frei bewegen kann oder gar nicht zu sehen ist.

Beispielsweise steht bei einem Telefonat i.d.R. kein Bildmaterial zur Verfügung. Hier bietet es sich an, die Audio-Daten – d.h. insbesondere die Sprache – zu analysieren. Menschen sprechen z.B. im aufgeregten Zustand meist deutlich schneller, lauter und mit größeren Tonhöhenschwankungen wie wenn sie entspannt sind. Dies lässt sich mit aktuellen Verfahren relativ gut erkennen. Wundern Sie sich also nicht, wenn Sie demnächst beim Anruf in der Hotline einen psychologisch gut geschulten Mitarbeiter am anderen Ende vorfinden nachdem Sie die vorgeschaltete Computerstimme angeschrien haben.

Ähnlich lassen sich natürlich auch textuelle Inhalte von z.B. E-Mails analysieren. Mit der sogenannten Sentiment Analyse können Texte dahingehend klassifiziert werden, ob sie eher positiv oder negativ geschrieben sind. Die Textanalyse ist oft ein gutes Verfahren, um sich die aggregierte Stimmung ganzer Online-Communities anzusehen. Reaktionen auf Ihre Facebook-Posts können so automatisiert ausgewertet und die Stimmung Ihrer Follower eingeschätzt werden.

In vielen Fällen jedoch ist der Benutzer weder an einem festen Ort, an dem eine Kamera angebracht werden kann, noch spricht oder schreibt er aktiv. Hier bietet sich die Verwendung physiologischer Daten an, die unauffällig und ohne aktive Mitarbeit des Benutzers erhoben werden können. Körperliche Daten wie die Herzfrequenz, Hauttemperatur oder auch Bewegungsmuster können mit Hilfe von Wearables z.B. am Handgelenk gemessen werden. Auch diese Daten können mit geeigneten Algorithmen bestimmten Emotionen oder Affekten zugeordnet werden.

Es gibt also eine große Bandbreite an Zielsetzungen und Datenquellen, um Ideen des Affective Computing umzusetzen. In den nächsten Beiträgen folgen nun konkretere Anwendungsfälle für empathische künstliche Intelligenz.

[1] Ekman, Paul (1972). Cole, J., ed. Universals and Cultural Differences in Facial Expression of Emotion. Nebraska Symposium on Motivation. Lincoln, Nebraska: University of Nebraska Press. pp. 207–283.

Dr. Marco Maier ist Head of Artificial Intelligence der HYVE AG und leitet die wissenschaftlichen Aktivitäten des Affective-Computing-Startups TAWNY. Er hat an der LMU München in Informatik mit einem Schwerpunkt auf Context-Aware Systems promoviert und ist dort aktuell auch als Gastdozent im Bereich Affective Computing aktiv.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

21086

share

Artikel teilen

Top Artikel

Ähnliche Artikel