So funktioniert die Gefühlsanalyse per Computer

Eine Firma hat die Gemütslage aller Bundesräte bei ihren Reden untersucht – erstaunlich treffsicher. Trotzdem gibt es Hindernisse.

Mit Schauspielern vor einem Greenscreen wird der Algorithmus trainiert: Eine Software misst die Bewegungen von verschiedenen Punkten im Gesicht. (Video: Neurodata Lab)

Gefühle zu überspielen, ist schwierig. Denn wir Menschen nehmen noch so feine Regungen in der Mimik und Gestik unserer Gegenüber wahr, und wir hören zahlreiche Zwischentöne. Computer können das zwar noch nicht so gut wie sensible Menschen. Dafür kommen sie mit riesigen Datenmengen zurecht. «Das eröffnet ganz neue Möglichkeiten in der Gefühlsanalyse», sagt Olga Perepelkina, Forschungsleiterin des Jungunternehmens Neurodata Lab.

Das Unternehmen mit Sitz in Florida und Forschungsabteilung in Moskau, das jüngst im luzernischen Root eine Filiale eröffnet hat, ist auf Gefühlsanalysen ab Film- und Tonmaterial spezialisiert. Für Bernerzeitung.ch/Newsnetz hat Neurodata Lab 805 Reden untersucht, die die Bundesrätinnen und Bundesräte im laufenden Jahr vor dem National- und Ständerat gehalten haben; pro Person zwischen 72 und 274 Auftritte.

Beispielbild, Hauptemotion: Ekel. Bild: PD

Fast in Echtzeit analysiert die Software mit selbstlernenden Algorithmen und neuronalen Netzwerken Gefühlsregungen. «Wir setzen dabei auf einen Mehrkanalansatz», sagt Perepelkina: Analysiert werden also sowohl die Stimme als auch die Mimik, Gestik und die Körperbewegungen der gefilmten Menschen. «Dadurch liegt die Trefferquote weitaus höher als bei einfachen Analysen, wie sie heute gängig sind.» Das System soll zudem rasch dazulernen: «Je mehr Trainingsdaten wir haben, desto besser werden die Resultate.» Mit einem neuen Algorithmus, der die Schattierung einzelner Pixel vergleicht, will das Neurodata Lab den Gefilmten neu sogar ganz ohne zusätzliche Messgeräte den Puls fühlen.

System kann erst Englisch

Perepelkina verhehlt nicht, dass es bei solchen Analysen zahlreiche Fehlerquellen gibt. Bei Pulsanalysen etwa muss das Videomaterial sehr gut sein. Bei Gefühlsanalysen wiederum gibts soziokulturelle Klippen: Bislang wurde das System erst auf Englisch trainiert. Auch feine, kulturell bedingte Kommunikationsunterschiede könnten für Ungenauigkeiten sorgen, genauso wie individuelle Verhaltensmuster. Zudem wird die Mimik und Gestik nicht von allen Menschen gleich interpretiert.

Beispielbild, Hauptemotion: Trauer. Bild: PD

Die computergestützte Gefühlsanalyse sei weitaus mehr als bloss eine Spielerei, betont Olga Perepelkina gleichwohl. «Bereits heute gibt es viele Anwendungsmöglichkeiten, in Zukunft werden noch viele dazukommen.» So sollen etwa Roboter besser begreifen, was das Gegenüber meint, und selber natürlicher und «menschlicher» kommunizieren lernen. Emotionsübersetzer für Menschen könnten entstehen, die in diesem Bereich Defizite haben. Das Auto könnte in Zukunft analysieren, ob mit dem Fahrer alles in Ordnung ist – und bei Bedarf die Notbremse ziehen. Es ist denkbar, dass Arbeitgeber die Analysetechnik bei Vorstellungsgesprächen einsetzen werden. Die Werbebranche experimentiert bereits emsig damit. Dank den neuen Möglichkeiten lässt sich einfach dokumentieren, wie Leute auf ein Produkt reagieren.

Beispielbild, Hauptemotion: Freude. Bild: PD

Diese Inhalte sind für unsere Abonnenten. Sie haben noch keinen Zugang?

Erhalten Sie unlimitierten Zugriff auf alle Inhalte:

  • Exklusive Hintergrundreportagen
  • Regionale News und Berichte
  • Tolle Angebote für Kultur- und Freizeitangebote

Abonnieren Sie jetzt