c't 29/2023
S. 142
Wissen
Affective Computing
Bild: KI Midjourney | Bearbeitung c’t

Sensible Maschinen

Affective Computing: KI erkennt Emotionen

Einfühlsame Autos, virtuelle Bewerbungstrainer und rücksichtsvolle Roboter: Forscher arbeiten an Systemen, die Stimmen und Mimik analysieren, um besser mit Menschen zusammenzuarbeiten. Doch weil wir unsere Emotionen gerne verstecken, hat die Technik es nicht leicht.

Von Thomas Brandstetter

Für eine künstliche Intelligenz auf der Suche nach Mustern sind wir Menschen ein gefundenes Fressen. In unserem Gesicht arbeiten über 20 Muskeln daran, unsere Gefühlswelt in Form von Mimik zu kommunizieren. Und auch unsere Stimme erzeugt zusätzlich zu den gesprochenen Worten eine schier unüberschaubare Vielfalt an Klangvariationen, die mit unserer Stimmung verknüpft sind. Über Kamera und Mikrofon ist eine künstliche Intelligenz in der Lage, Hinweise auf unseren Gemütszustand zu gewinnen.

Das Schlagwort „Affective Computing“ fasst Technik zusammen, die menschliche Affekte und Emotionen zu erkennen versucht. Die Forschung dazu kombiniert Psychologie, Informatik und Physiologie, unter anderem biochemische Vorgänge im Körper. In der Marktforschung wird die Technik bereits eingesetzt. „Oft kommen Unternehmen auf uns zu, die wissen wollen, welches Produkt bei ihren Kunden am besten ankommt“, sagt Nina Holzer, die am Fraunhofer-Institut für Integrierte Schaltungen IIS in Erlangen die Forschungsgruppe für Multimodal Human Sensing leitet. Gemeinsam mit ihren Kollegen versucht sie, mithilfe von KI-Methoden und unterschiedlichen Sensoren die körperlichen und physiologischen Reaktionen von Menschen zu erfassen und zu interpretieren und so auf deren emotionale Zustände zu schließen. „Wir können zum Beispiel konkret Emotionen wie Freude oder Ärger schätzen, aber auch komplexere emotionale Zustände wie kognitive Überforderung“, sagt Holzer.

Kommentieren