Videokonferenztool Zoom Bürgerrechtsaktivisten warnen vor Emotions-Scanner

Bitte recht freundlich: Die Entwickler der Chatsoftware Zoom planen offenbar, Emotionen aus den Gesichtern von Konferenzteilnehmern abzulesen. Kritiker befürchten, dass es zu Missbrauch und Rechtsverstößen kommt.
Zoom-App auf einem Smartphone und einem Notebook (Symbolbild)

Zoom-App auf einem Smartphone und einem Notebook (Symbolbild)

Foto: Thiago Prudencio / ZUMA Wire / IMAGO

Hört die Kollegin noch richtig zu? Finden die Studenten den Vortrag langweilig? Ist dem Kunden der Preis zu hoch? Bürgerrechtler zeigen sich entsetzt von den Plänen des US-Unternehmens Zoom, einen Emotionsmesser für Online-Videokonferenzen zu entwickeln. Mithilfe künstlicher Intelligenz (KI) will der Anbieter des Videotelefonie-Tools offenbar die Körpersprache von Konferenzteilnehmern analysieren und daran deren Stimmung ablesen. Das Magazin »Protocol« hatte vor einigen Wochen über die Pläne von Zoom berichtet .

In einem offenen Brief an Zoom  sprechen sich nun knapp 30 Organisationen wie das Electronic Privacy Information Center (Epic) und die American Civil Liberties Union (ACLU) gegen die Pläne aus, in Videokonferenzen Emotionen zu analysieren. Stimmungen auslesen zu wollen, basiere auf der Fehleinschätzung, dass KI menschliche Emotionen erfassen kann, heißt es in dem Schreiben. Dieser Schritt verletzte Privatsphäre und Menschenrechte. »Zoom muss die Pläne stoppen, diese Funktion weiterzuentwickeln.«

Kritiker befürchten Strafen für falsche Gefühle

Die Bürgerrechtler kritisieren, dass Gesichtserkennung nachgewiesenermaßen »irreführend, fehlerhaft und rassistisch« sei. Solche Tools würden davon ausgehen, dass alle Menschen die gleichen Gesichtsausdrücke, Stimmlagen und Körpersprachen benutzen würden. Dem, sei aber nicht so. Der Software sei mit dieser Grundannahme quasi einprogrammiert, bestimmte Ethnien und Menschen mit Behinderung zu diskriminieren. Tatsächlich zeigen Studien, dass Gesichtserkennung vor allem bei Schwarzen und Menschen mit asiatischem Aussehen häufiger patzt – und auch nach jahrelanger Forschung noch immer zu Rassismus neigt.

Außerdem kritisieren die Menschenrechtsorganisationen, dass die Software missbräuchlich verwendet werden könnte. Unternehmen oder Universitäten könnten Arbeitnehmer oder Studenten womöglich für »falsche Gefühle bestrafen«, heißt es in dem Brief.

Auf eine Anfrage des SPIEGEL hat Zoom bis zum Freitagnachmittag nicht geantwortet.

KI setzt Verkäufer unter Druck

Gesprächsanalysen per Software sind nicht neu. Bereits jetzt bietet Zoom ein Tool an, um Online-Dialoge zu optimieren. In dem Zoom IQ genannten Tool überprüft eine KI im Nachhinein unter anderem, ob man zu viele Füllwörter verwendet, zu wenig Geduld gezeigt oder zu viel Zeit für Folien verwendet hat. Je besser ein Verkäufer vorgegebene Regeln befolgt, desto mehr Punkte gibt es.

Die Bürgerrechtsgruppen sehen bereits mit dieser Software eine Grenze überschritten. Verkäuferinnen und Verkäufer würden mit solchen Analyse-Werkzeugen unter starken Druck gestellt werden.

Zoom bewirbt die IQ-Software damit, dass Teams damit nach Leistung bewertet werden können. In einem Blogbeitrag  zum Thema wird unter anderem eine Liste von Mitarbeitern abgebildet, die nach ihrer Gesprächstechnik bemessen und bewertet werden. Führungskräfte sollen anhand dieser Daten »Managemententscheidungen rund um ihre Vertriebsteams treffen« können, schreibt Zoom.

Unternehmen, wie Uniphore sind schon einen Schritt weiter. Dort wird KI bereits eingesetzt, um Emotionen am Kamerabild abzulesen. Zur Zielgruppe gehören unter anderem Callcenter, die ihre Mitarbeiter mit der Software kontrollieren und anhand der Daten weiterbilden sollen. Die indischen Entwickler messen, wie aufmerksam jemand zuhört, ob er zufrieden, wütend oder überrascht ist. Ein Emotions-Punktestand zeigt in Prozent an, wie gut das Gespräch läuft.