02.05.2015

ComputerRunzeln, Blitzen, Zucken

Eine Softwarefirma in den USA bringt Rechnern bei, Angst, Ekel oder Freude zu erkennen. Bisher dient die Technik dazu, die Wirkung von Werbespots zu testen. Aber auch Banken und Autohersteller interessieren sich dafür.
Leichtes Heben der Augenbrauen, geöffneter Mund, entspannte Unterkiefermuskulatur - ganz klar: Überraschung. Dieses Rümpfen der Nasenflügel: unverkennbar Aktionseinheit 9, das ist Ekel. Und wenn sich der äußere Augenringmuskel anspannt? Wohl ein Zeichen von Fröhlichkeit.
Dutzende, Hunderte, Tausende Gesichter lassen 25 Frauen und Männer in Kairo an sich vorüberziehen. Ihre Aufgabe: Im Dienst der US-Firma Affectiva sollen sie helfen, Computern das Geheimnis der menschlichen Mimik beizubringen.
Zunächst mussten die Ägypter lernen, 44 elementare Bewegungseinheiten der Gesichtsmuskeln, sogenannte Aktionseinheiten, zu erkennen. Es sind dies gleichsam die Vokabeln, aus denen die Sprache der Mimik zusammengesetzt ist. Jetzt sollen die Affectiva-Angestellten die einzelnen Aktionseinheiten und die zugehörigen Gefühle den Bildern zuordnen, sodass der Computer lernen kann, was Ärger, Ekel, Überraschung oder Freude ist.
Mehr als zwei Millionen Gesichter hat die Firma inzwischen analysiert. Sie zeigen, wie Menschen amüsiert, verblüfft, verärgert, erschrocken oder gelangweilt Werbeclips betrachten. Die Ägypterin Rana el Kaliouby, Mitgründerin von Affectiva, sieht darin einen Datenschatz, der eine neue Ära des Computerzeitalters eröffnen soll: die des emotionalen Rechnens.
Schon in der Schule habe man Kaliouby ein besonderes Gespür in Gefühlsdingen nachgesagt. "Ich hatte einen Riecher dafür, wenn etwas nicht stimmte", sagt sie. Wie wichtig es ist, einander Emotionen mitteilen zu können, wurde ihr aber erst während des Promotionsstudiums im britischen Cambridge klar. Geplagt von Heimweh, chattete sie mit der Familie im fernen Kairo. "Jedes meiner Gefühle musste ich ausdrücklich aufschreiben", sagt sie. Mühselig war das und oftmals auch unbeholfen.
Wie komplex, differenziert und präzise, dachte Kaliouby, ist dagegen jene Sprache, die dem Menschen schon in die Wiege gelegt ist. Ein Runzeln der Brauen, ein Blitzen der Augen, ein flüchtiges Zucken der Mundwinkel reicht als Botschaft, und schon weiß der andere, ob man skeptisch, fasziniert oder erfreut ist.
Kaliouby wurde klar, dass sich da eine ganze Dimension menschlicher Kommunikation auftat, die den Computern verschlossen war. Was, dachte sie, wenn es gelänge, Software zu schreiben, die Gefühle sicher zu erkennen vermag? Was, wenn Computer reagieren könnten auf die Launen der Nutzer? Die junge Informatik-Doktorandin hatte eine Aufgabe gefunden, der sie ihre Karriere widmen wollte.
Die Kollegen reagierten mit Skepsis: Zwar lieferte damals, kurz nach der Jahrtausendwende, die digitale Gesichtserkennung bereits einigermaßen taugliche Ergebnisse. Die feinen Nuancen zu unterscheiden, in denen sich die Gefühle widerspiegeln, schien aber noch jenseits des technisch Möglichen. Und im Übrigen, so fragte manch einer, wozu sollte das überhaupt nützlich sein?
Eine erste Antwort fand Kaliouby nach einem Vortrag, in dem sie ihr Projekt vorgestellt hatte. Einer der Zuhörer meinte, alles, was sie erzähle, erinnere ihn an seinen Bruder. Der sei Autist und für Gefühle genauso taub wie ein Computer.
Kaliouby war fasziniert: Ja, das war genau das, wonach sie gesucht hatte. Sie beschloss, eine Art digitalen Übersetzer für Autisten zu entwickeln, ein Computerprogramm, das Menschen mit Kommunikationsstörungen helfen sollte, die Mimik ihrer Mitmenschen zu lesen.
Die junge Wissenschaftlerin hätte für ein solches Projekt keinen geeigneteren Ort finden können als Cambridge. Dort forscht Simon Baron-Cohen, einer der prominentesten Autismusexperten, und er hatte damals gerade eine Kartei von Gesichtsausdrücken aufgebaut, die wie geschaffen war für Kalioubys Vorhaben. Baron-Cohen hatte Schauspieler aufgefordert, verschiedene Emotionen auszudrücken, und sie dabei gefilmt. Entstanden war so eine Datei von insgesamt 412 Gefühlen, anhand derer der Forscher versuchte, seinen autistischen Patienten beizubringen, Wut, Furcht, Trübsinn oder Enttäuschung zu erkennen. "Auch Daniel Radcliffe, der den Harry Potter spielt, ist unter den Darstellern", erzählt Kaliouby.
Inzwischen ist aus der Idee die Firma Affectiva geworden. Sie residiert in einem Zweckbau an der Ostküste der USA, am Stadtrand Bostons. Rund 30 Angestellte sitzen in kleinen Büros, wenn sie nicht gerade Kicker spielen oder in einem der Schalensessel Kaffee trinken.
"Affdex" heißt das Produkt von Affectiva. Es ist eine Software, die die Mimik eines Betrachters verfolgt, während dieser Videos auf dem Bildschirm anschaut. Sekundengenau protokolliert sie, wann er amüsiert, verwirrt oder verärgert ist.
Affectivas Kunden allerdings sind nicht, wie ursprünglich gedacht, die Autisten. Interessiert zeigt sich vor allem die Werbeindustrie. Deren Geschäft besteht schließlich genau darin, beim Publikum Gefühle zu wecken, zu schüren und zu dirigieren.
Wie gut kommt ein Werbespot an? Lachen die Leute, reagieren sie neugierig, schockiert oder nur gelangweilt? Und wie gut bleibt der Markenname haften? Wenn sie Antworten auf diese Fragen suchen, greifen die Werber bisher meist auf Interviews zurück. Doch die sind notorisch unzuverlässig. Vor allem über die unbewussten Regungen verraten sie nichts. So ist es durchaus möglich, dass ein Zuschauer behauptet, ihm habe ein Video gefallen - dass ihn die freakigen Typen darin abgestoßen haben oder dass er zwischendrin abgelenkt war, hat er gar nicht gemerkt.
Kein Wunder, dass die Marketingexperten empfänglich sind für die Verlockungen einer Software, die verspricht, all die flüchtigen Momente des Stutzens und Zweifelns einzufangen. Sie suchen nichts weniger als einen Zugang zum Unterbewusstsein ihres Publikums.
Stolz führt Kaliouby vor, wozu ihre Software fähig ist. "Sehen Sie zum Beispiel dieses Video von Kellogg's", sagt sie und klickt die Play-Taste auf ihrem Laptop. Der Werbespot zeigt einen Kammerjäger auf der Jagd nach einer Korallenschlange, die sich in einem Küchenschrank verkrochen hat. In dem Moment, in dem der Mann das giftige Tier zu packen versucht, beißt sein Assistent auf eine Kellogg's-Flocke. Aufgeschreckt schießt das Reptil dem Kammerjäger ins Hosenbein, der windet sich in Todesangst auf dem Fußboden. "Sorry, sie sind nussig", erklärt, etwas betreten, der Übeltäter.
"Affdex" bescheinigt dem Clip gute Werte: Interessiert und belustigt reagiert das Publikum, auch der Markenname erhält die erwünschte Aufmerksamkeit - allerdings nur beim ersten Mal. Wer das Filmchen ein zweites oder drittes Mal schaut, reagiert mit Unbehagen. Die verzweifelten Schreie des Opfers schrecken ab.
Anders bei einem zweiten Video: Diesmal ist ein Kamerateam zu sehen, das versucht, Aliens zu filmen. Gerade als die glupschäugigen Wesen aus dem Maisfeld heraustreten, beißt ein Teammitglied auf eine Flocke, die Kreaturen fliehen. "Affdex" zeigt: Die Pointe ist diesmal weniger lustig, dafür hält die Wirkung länger an. Auch beim zweiten und dritten Mal reagieren die Zuschauer amüsiert. Deshalb beschloss Kellogg's, bei der Kampagne stärker auf die Aliens zu setzen.
Oder Unilever: Insgesamt 3874 Videos für 600 verschiedene Produkte hat der Konzern inzwischen mithilfe von "Affdex" getestet. Mal stellten die Werber fest, dass eine Mutter in der Waschmittelwerbung allzu verärgert rüberkam, mal zeigte sich, dass die Handlung im Shampoo-Spot die Betrachter verwirrte.
Auch die Filmindustrie hofft, mit "Affdex" die Reaktionen der Zuschauer ausspähen zu können. Vor allem beim Zusammenschneiden der Trailer kommt es auf jede Sekunde an. Eine Software, die Szene für Szene Feedback liefert, kann da maßgeblich helfen, den richtigen Mix zu komponieren.
Nie hätte Kaliouby, die zu Hause ohne Fernseher lebt, damit gerechnet, dass ihre Arbeit sie einmal in die Welt der TV-Produzenten führen würde. Gerade kommt sie zurück aus Las Vegas. Dort testet der Sender CBS in seiner "Television City" neue Fernsehshows. Auch dabei assistiert Affectivas Gefühlssoftware: "Bei einer neuen Sitcom zum Beispiel stellte sich heraus, dass ein Filmpaar einfach nicht funktionierte", erzählt Kaliouby. Die beiden sollten komisch sein. "Affdex" jedoch offenbarte: Niemand fand's lustig. Die Rollen wurden neu besetzt.
Die Ägypterin könnte sich über den Erfolg ihrer Firma freuen. Dennoch, sagt sie, frage sie sich immer wieder: Filmtrailer? Reklame? War es wirklich das, wofür sie Computern Gefühle beibringen wollte? In ihrem Studium hatte Kaliouby davon geträumt, die Kommunikation zwischen Mensch und Maschine um eine Dimension zu erweitern. Sie hatte Menschen mit seelischen Störungen helfen wollen, in der Welt der Gefühle zurechtzukommen. Und wozu dient ihre Software nun? Sie hilft der Industrie, die Gefühle der Konsumenten zu manipulieren.
Aber dabei, tröstet sich die Affectiva-Chefwissenschaftlerin, müsse es ja nicht bleiben. "Die Reise hat gerade erst begonnen", sagt sie. Als erster Schritt sei der Bund mit der Werbeindustrie nötig gewesen. Denn nur so habe sie Zugriff auf die erforderlichen Mengen von Daten bekommen können.
Wann immer eine Agentur ihre Werbespots mit "Affdex" testet, schickt sie die Videoaufnahmen der Probanden an die Firma bei Boston. Insgesamt 2,7 Millionen Gesichter haben sich inzwischen auf den Servern angesammelt, von Männern und Frauen, von Alten und Jungen, von Chinesen, Brasilianern, Russen und Kenianern - ein wohl einzigartiger Datenschatz.
Die Analyse der vielen Gesichter hat zum Beispiel offenbart, dass die Mimik von Frauen im Durchschnitt ausdrucksstärker ist als die von Männern, dass die Malaysier das zurückhaltendste aller Völker sind, während die Südafrikaner am gefühlsstärksten reagieren. Vor allem aber bestätigt sich: Die emotionale Sprache der Menschen ist universell. Die Grundregeln der Mimik gelten über alle kulturellen Schranken hinweg.
Kaliouby rechnet damit, dass sich sehr bald weitere Anwendungen für gefühlsempfängliche Computer finden werden. Dafür spreche die Vielzahl der Anfragen, die sie erhalten habe: Autohersteller interessieren sich dafür, die Konzentration am Steuer zu überwachen, Banken würden gern wissen, ob ihre Kunden am Geldautomaten empfänglich für Werbebotschaften sind, und Kaufhausbesitzer hoffen, mit Computerhilfe mehr über die Zufriedenheit ihrer Kunden zu erfahren.
Eine Studie von Affectivas wichtigstem Konkurrenten, der kalifornischen Firma Emotient, hat gezeigt, dass sich bei Preisverhandlungen das Verhalten eines Kunden in Gestalt winziger mimischer "Mikro-Expressionen" anbahnt: Kaum merklich huscht ein Anflug von Ekel oder Ärger über sein Gesicht, ehe er ein Angebot ausschlägt. Affectiva wiederum hat während des letzten US-Wahlkampfs Zuschauer des Fernsehduells zwischen Barack Obama und Mitt Romney verfolgt - und konnte anhand der Mimik vorhersagen, welchem der Kandidaten ihre Sympathien galten.
Eine neue "Emotion Economy" sieht die Zeitschrift "New Yorker" bereits heraufdämmern, längst beschränkt sich die Industrie dabei nicht mehr auf die Mimik allein. Denn auch Blutdruck, Hautleitfähigkeit, Pupillengröße, Atem- und Herzfrequenz, Stimme und Muskeltonus können Auskunft über die Befindlichkeit eines Menschen geben.
Schon haben Forscher der kalifornischen Stanford-Universität ein Steuergerät für Spielkonsolen entwickelt, das, mit Sensoren aufgerüstet, erspüren kann, wenn sich ein Spieler langweilt, um ihn gegebenenfalls mit zusätzlich entsandten Zombies bei Laune zu halten. Kollegen am Massachusetts Institute of Technology bei Boston statten unterdessen ein Auto mit Sensoren im Lenkrad aus, um den Stresslevel des Fahrers zu messen und ihn bei Bedarf mit entspannender Musik zu besänftigen.
Auch Rana el Kaliouby möchte den Einstieg in die Ära der Gefühlssensorik nicht verpassen. Derzeit verhandelt sie mit der israelischen Firma Beyond Verbal. Die hat mehr als eine Million Stimmproben analysiert und daraus eine Methode entwickelt, mit der sich feststellen lässt, ob ein Sprecher begeistert, nachdenklich oder deprimiert ist. Jetzt überlegen beide Firmen, die optische mit der akustischen Analyse zu kombinieren.
Ein weiteres Affectiva-Projekt besteht darin, feinste Veränderungen der Gesichtsfarbe zu registrieren, weil dies die Herzfrequenz und damit etwas über den jeweiligen Gemütszustand verrate. Zwar funktioniere das Verfahren bisher nur unter kontrollierten Lichtbedingungen. "Aber wir arbeiten daran, es zu verbessern", sagt die Firmengründerin.
Kalioubys Ziel ist ein "emotionaler Chip", der auf dem Handy ständig im Hintergrund läuft und die jeweilige Stimmung protokolliert. "Es gibt ja schon lauter Apps, um die körperliche Fitness zu messen", sagt sie. "Aber ein vollständiges Bild entsteht erst, wenn man auch die emotionale Befindlichkeit erfasst."
Schon in zehn Jahren, prognostiziert Kaliouby, werden Computersysteme mit emotionaler Intelligenz allgegenwärtig sein: "Dann werden wir uns kaum mehr daran erinnern können, wie es war, als Computer noch nicht auf jedes Stirnrunzeln reagierten und sagten: ,Oh, das hat dir wohl nicht gefallen, oder?'"
Von Johann Grolle

DER SPIEGEL 19/2015
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


DER SPIEGEL 19/2015
Titelbild
Der digitale SPIEGEL
Diese Ausgabe jetzt digital lesen

Die digitale Welt der Nachrichten. Mit interaktiven Grafiken, spannenden Videos und beeindruckenden 3-D-Modellen.
Sie lesen die neue Ausgabe noch vor Erscheinen der Print-Ausgabe, schon freitags ab 18 Uhr.
Einmal anmelden, auf jedem Gerät lesen - auch offline. Optimiert für Windows 8, Android, iPad, iPhone, Kindle Fire, BlackBerry Z10 sowie für PC/Mac.

Abo-Angebote

Den SPIEGEL lesen oder verschenken und Vorteile sichern!

Jetzt Abo sichern
Ältere SPIEGEL-Ausgaben

Kostenloses Archiv:
Stöbern Sie im kompletten SPIEGEL-Archiv seit
1947 – bis auf die vergangenen zwölf Monate kostenlos für Sie.

Wollen Sie ältere SPIEGEL-Ausgaben bestellen?
Hier erhalten Sie Ausgaben, die älter als drei Jahre sind.

Artikel als PDF
Artikel als PDF ansehen

Computer:
Runzeln, Blitzen, Zucken

  • "Viking Sky": "Ich dachte, ich müsste mit meiner Mutter sterben"
  • Prügelei bei Motorradrennen: Kollision, Klammergriff, Faustkampf
  • Buzzer-Beater in der NBA: Sensationswurf in letzter Sekunde
  • Wenn Haie angreifen: Rekonstruktion eines Phänomens