Psychologie Die Stimme verrät, was das Gegenüber fühlt

Wie geht es meinem Gesprächspartner? Oft liefern bereits Gestik und Mimik Antworten auf diese Frage. Noch zuverlässiger aber gibt die Stimme offenbar preis, was der andere empfindet.

Hören ist manchmal besser als sehen
imago/ Westend61

Hören ist manchmal besser als sehen


Die Gefühlslage eines Mitmenschen lässt sich womöglich am besten durch bloßes Zuhören - ohne Beobachten der Mimik - einschätzen. Zu diesem Ergebnis kommt Michael Kraus von der US-amerikanischen Yale University in New Haven im Fachmagazin "American Psychologist". Er hatte für seine Studie 1800 sich unbekannte Menschen in verschiedene Gesprächssituationen gebracht, beispielsweise in einem dunklen oder beleuchteten Raum.

Das Ergebnis: Wenn die Probanden den Gesprächspartner nicht sahen, sondern nur hörten, konnten sie dessen Emotionen am genauesten einschätzen. "Möglicherweise ist es nicht die beste Strategie, aus der Mimik oder aus der Kombination von Stimme und Mimik die Stimmung oder die Absichten des Gegenübers richtig einzuschätzen", sagt Kraus.

Wer trauert spricht mit eher tiefer Stimme

Beim Flirten, beim Streit mit Kollegen oder dem Partner: Es ist enorm wichtig für uns, die Gefühle unserer Mitmenschen richtig zu beurteilen. Jeder von uns sendet durch Mimik, Gestik und Stimme Signale aus, die etwas über sein Innenleben verraten. Diese richtig zu deuten, ist eine enorme Herausforderung für unser Gehirn.

Genaues Zuhören ist laut Kraus das Erfolgsrezept, um jemanden zu verstehen. "Bei Trauer spricht man mit tiefer Tonlage und eher monoton, bei Ärger und Freude ist die Stimme höher und die Sprachmelodie ist abwechslungsreicher. Ein Anzeichen für Angst ist eine hohe, monotone Stimme, die gegen Ende des Satzes noch mal ansteigt.

Mimik und Gestik lassen sich besser steuern als die Stimme

Und noch etwas trägt dazu bei, dass die Stimme Emotionen besonders authentisch transportiert: In der Stimme seien Gefühle besonders schwer zu verschleiern, schreibt Kraus. Es erfordere sehr viel Selbstkontrolle, denn selbst kleinste Nuancen würden vom Gegenüber wahrgenommen. Mimik und Gestik könnten viel stärker gesteuert werden - auch um zu täuschen.

Zudem hat das Gehirn einen Vorteil, wenn es nur zuhören muss: Es müsse sich dann nur auf ein Signal konzentrieren und könne so schneller und genauer arbeiten, schreibt Kraus. Multitasking, also das häufige Wechseln zwischen verschiedenen Aufgaben, führe dagegen zu insgesamt schlechteren Ergebnissen. Das gelte auch in der Emotionswahrnehmung: Vielen Menschen falle es möglicherweise auch deshalb schwer, die Gefühle ihrer Mitmenschen einzuschätzen, weil sie ihre Aufmerksamkeit zwischen den Kommunikationsformen aufteilten.

Noch leichter fällt es Menschen möglicherweise, die Gefühlslage eines bekannten Gegenübers einzuschätzen. Laut dem Kommunikationsforscher Walter Sendlmeier von der Technischen Universität Berlin, der nicht an der Studie beteiligt war, schwingen in der Stimme neben den Emotionen nämlich auch Persönlichkeitsmerkmale mit.

"Nahestehende Personen können zusätzlich noch zwischen der Persönlichkeit und der Gefühlslage unterscheiden. Wenn Sie beispielsweise mit ihrer Mutter telefonieren, hört die anhand weniger Silben in der Begrüßung, wie es ihnen geht." In der aktuellen Studie wurde das allerdings nicht überprüft.

Auch Computer können Emotionen aus der Sprache lesen

Dass die Stimme zahlreiche Informationen über unsere Gefühlswelt transportiert zeigen auch Versuche mit Computern. "Die Signale, die wir über die Stimme aussenden, sind so zuverlässig, dass auch Computer sie lernen können", erklärt Björn Schuller, Professor für maschinelles Lernen im Gesundheitswesen an der Universität Augsburg.

Er und sein Team haben Programme entwickelt, die anhand von stimmlichen Merkmalen wie Lautstärke, Geschwindigkeit oder Tonlage Aussagen über den emotionalen Zustand treffen, aber auch über Persönlichkeit, Größe oder Alter der Menschen. Derzeit arbeiten sie daran, die maschinelle Emotionserkennung durch die Stimme auch in der Medizin zu nutzen. Erste Ergebnisse gibt es bereits, sie sind jedoch noch nicht reif für die Praxis.

"Wir haben Methoden zur Früherkennung von verschiedenen Krankheiten und Entwicklungsabweichungen entwickelt", sagt Schuller, der nicht an der Studie beteiligt war. Zum Beispiel könnten sie schon im Alter von zehn Monaten eine Prognose für mögliche Entwicklungsstörungen wie Autismus geben.

Auch Tonspuren aus alten Filmaufnahmen ließen sich auswerten, um eine Stimme zu analysieren, so der Forscher. So könne man etwa auf den Herzschlag der Schauspielerin Marilyn Monroe schließen, kurz bevor sie einen Filmpartner küsst.

jme/dpa



© SPIEGEL ONLINE 2017
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.