Überwachung von Gefühlen Liebe Leserin, lieber Leser,

Von


Für die Werbebranche ist es von Vorteil zu wissen, was Bilder und Botschaften auslösen. In der Autoindustrie könnte Software zukünftig den Gesichtsausdruck und die Augenbewegungen von Autofahrern scannen - Unterhaltungssysteme an Bord könnten dann gestresste oder aggressive Autofahrer an Pausen erinnern oder beruhigende Musik vorschlagen. Andere Programme sollen Autisten helfen, Gefühle zu erkennen.

Wissenschaftler, aber auch Unternehmen arbeiten an Technologien, die Gefühle erkennen - oder es zumindest versuchen. "Affective Computing" heißt diese Art künstlicher Intelligenz, Ziel ist die immer weiter voran schreitende Vermessung menschlichen Verhaltens. Mit der Analyse positiver oder negativer Begriffe ("Sentiment Analysis"), der Stimme oder von Mikro-Gesichtsausdrücken soll unser Innerstes entschlüsselt werden.

Sentiment Analysis: Software will zunehmend auch Stimmungen und Gefühle detektieren

Aber: Gefühle lassen sich genaugenommen nicht greifen - eher Indizien auf Gefühlszustände. "Wir können nicht einfach etwas ins Gehirn stöpseln und die Gefühle auslesen", schränkt auch die Affective-Computing-Pionierin Rosalind Picard in einem "Wired"-Interview ein. "Was wir messen können, ist, wie Gefühle das Verhalten, Gesichtsausdrücke, die Hautoberfläche oder den Herzschlag verändern können. Alle diese Veränderungen bilden Gefühle nicht perfekt ab, aber sie geben uns spezifischere Informationen, was gerade passiert."

Der Spielraum für Irrtümer wirkt immens - und dennoch könnte der Einsatz solcher Technologien zukünftig darüber bestimmen, ob bei einer Person eine Krankheit diagnostiziert wird, wer einen Arbeitsplatz oder ein Visum erhält - oder als Terrorist oder Sicherheitsrisiko gilt.

Digitaler Grenzschutz

Das US-Heimatschutzministerium baut längst Datenbanken mit Social-Media-Profilen von Reisenden und Migranten auf, die zukünftig nahezu in Echtzeit mit Sentiment-Analysis-Software auf die Tonalität hin überprüft werden - um Freude, Furcht oder Wut zu entdecken. An europäischen Grenzen ist ein virtueller Polizist zu Testzwecken im Einsatz, der Reisende befragt - ein Lügendetektorsystem analysiert währenddessen Gesichtsausdrücke, Blicke und die Haltung der befragten Person. Bei einem Test erkannte das System Lügen, die keine waren.

Kulturelle und kontextabhängige Verzerrungseffekte können die Technologie verwirren. Ein Programm etwa liest aus den Gesichtsausdrücken schwarzer Männer eine deutlich höhere Aggression heraus. Einer Studie von Lauren Rhue zufolge schätzte Software die Stimmung von schwarzen NBA-Spielern negativer ein als die von weißen Spielern - selbst wenn die Basketballspieler mit einem breiten Lächeln in die Kamera blickten.

In Gesellschaften, in denen Rassismus und Polizeigewalt Alltag sind und Software der Polizei und den Geheimdiensten Hinweise auf mögliche Kriminelle und Gefährder gibt, können solche technischen Fehleinschätzungen ein Todesurteil sein.

Affective Computing kann tiefgreifende Auswirkungen haben. Bevor solche Technologien gerade in sensiblen Bereichen wie der öffentlichen Sicherheit zum Einsatz kommen, sollten die Risiken und Nebenwirkungen wissenschaftlich erforscht werden, anstatt unzuverlässige Technologie - wie bei Gesichtserkennung - jahrelang einzusetzen und den Kollateralschaden erst im Nachhinein zu betrachten.

Sie mögen Netzwelt-Themen? Dann abonnieren Sie Beiträge wie diesen hier. Der Newsletter Startmenü ist kostenlos und landet jeden Montagnachmittag in Ihrem Postfach.

Seltsame Digitalwelt: Kabel kaputt

Kinder kommen auf Ideen, auf die man selbst nicht kommt. Wie eine Kollegin erzählte, gab es kürzlich Aufregung im Kinderzimmer. Ein Freund ihres Kindes hatte das Ladekabel für die Toniebox, einen derzeit offenbar populären Hörspielwürfel für Kinder, mal eben so durchgeschnitten - mit einer Nagelschere. Zum Glück kappte er das Kabel, während es nicht angeschlossen war. "Ich wollte wissen, ob es sich mit einer Nagelschere durchschneiden lässt", lautete die schlichte Erklärung des Sechsjährigen.

Kinder- und Katzenbesuch (denn die beißen teils auch gern Kabel durch) sind offenbar ein gutes Training für Sicherheitskonzepte: immer an alles denken, was irgendwie schiefgehen könnte - und Kabel und sonstige IT-Geräte außer Reichweite bringen.


App der Woche: "GRIS"
getestet von Tobias Kirchner

"GRIS" ist ein wunderschönes Abenteuerspiel, das auch als interaktives Kunstwerk durchgehen könnte. Denn eine richtige Herausforderung gibt es nicht. Die Spielfigur kann nicht sterben, und es warten auch keine komplizierten Hindernisse. Vielmehr geht es darum, die Welt in Aquarelloptik zu entdecken und sich auf sie einzulassen. Dank der künstlerischen Abwechslung und einem tollen Soundtrack fällt das in "GRIS" leicht.

Für 5,49 Euro von Devolver Digital, ohne In-App-Käufe: iOS


Fremdlink: Drei Tipps aus anderen Medien

  • "The Internet has made dupes - and cynics - of us all" (Englisch, sechs Leseminuten)
    Zeynep Tufekci beschreibt auf "Wired.com", wie sich das Internet zunehmend in eine "low trust society" verwandelt, in der Betrug und Desinformation zur Regel werden, niemand mehr jemandem traut und Mafia-artige Organisationen (gemeint sind Facebook und andere Tech-Unternehmen) in der zerfallenden Digitalgesellschaft mit harter Hand für ein Mindestmaß an Vertrauen und Sicherheit sorgen - zu einem hohen Preis.

Ich wünsche Ihnen eine schöne Woche

Sonja Peteranderl

Verlagsangebot

rawpixel on Unsplash

SPIEGEL AKADEMIE

Hochschulkurs mit Zertifikat - Cyber Security
Sichern Sie das Internet der Dinge vor Cyberattacken! Erfahren Sie hier mehr.

Mehr zum Thema
Newsletter
Startmenü - der Netzwelt-Newsletter


insgesamt 3 Beiträge
Alle Kommentare öffnen
Seite 1
bkok 26.08.2019
1. horizontale transzendenz
nehmen sie eine menschenmenge und knipsen sie einen daraus?
owhisonant 27.08.2019
2. Faszinierend...
...an dem Artikel (und dies meine ich nicht sarkastisch), ist die Tatsache, dass dieser nicht die Existenz und Verwendung der Technologie an sich hinterfragt, sondern lediglich deren Mangel an Präzision beklagt: es "sollten die Risiken und Nebenwirkungen wissenschaftlich erforscht werden, anstatt unzuverlässige Technologie... jahrelang einzusetzen". Die Frage, inwieweit der Einsatz biometrischer Technologien in dieser Form überhaupt noch vereinbar mit unseren verfassungsrechtlichen Grundrechten ist scheint sich inzwischen schon gar nicht mehr zu stellen. Willkommen in unserer schönen, neuen Welt!
Heinrich Peter Maria Radojewski Schäfer von Leverkusen 27.08.2019
3. Im Netzwerk mit der KI für Lebensqualität
Ein Baustein in der Gesellschaftsentwicklung, die den Großteil der Menschen aus ihrer Einsamkeit heraus bringen kann. So sie sich zu Hause über ihr Netzwerk mit ihrer KI in einem Verbund befinden, der weit über die bröckeligen Beziehungen von Freundeskreisen, von denen der Verwandschaften und denen der Arbeitskollegen hinaus geht. Emotionserkennung und Emotionsanalyse sowie das Äquivalent in der Sprachinteraktion sind hier elementar wichtig.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.