Wissenschaft

Anzeige

Künstliche Intelligenz

Saurier auf Surfbrettern

Die Einstellung zu Tech-Konzernen und ihren mächtigen Werkzeugen hat sich gewandelt. Eine zentrale Frage ist: Wie soll Software die Welt verbessern, wenn sie sich an der unfairen Gegenwart orientiert?

Eine Kolumne von

Sonntag, 18.03.2018   15:52 Uhr

Anzeige
"Es ist klar, dass Technologen sich sehr schnell in ethische Fragen werden einarbeiten müssen, wenn sie weiterhin die breite öffentliche Unterstützung bekommen möchten, die sie gegenwärtig genießen."
Der Unternehmer, Entwickler und Blogger Anil Dash

Der Designer Josh Clark ist ein sympathischer Mann, ein langer, schmaler Kerl mit einem kurzen grauen Bart und einem gewinnenden Lächeln. Bei seinem Vortrag im Rahmen der Tech- und Medienkonferenz South by Southwest (SXSW) vergangene Woche in Austin, Texas, begrüßte Clark das Publikum mit der Versicherung: "Ihr seht alle fantastisch aus." Dann begann er, weiterhin mit diesem gewinnenden Lächeln im Gesicht, die potenziellen Schrecken einer künftigen Welt voller miserabel gestalteter Künstlicher Intelligenzen (KIs) auszumalen.

Clark hat viele Beispiele dafür gesammelt, was die lernenden Hardware-Software-Systeme der Gegenwart im Moment alles falsch machen, wie sie missbraucht und ausgetrickst werden können. Da war zum Beispiel diese "Southpark"-Folge, in der die Cartoonfiguren die echten Amazon Echos in amerikanischen Wohnzimmern dazu brachten, ihren Besitzern "haarige Eier" auf die Einkaufsliste zu setzen. "Hey, Alexa" funktioniert als Befehl nämlich auch dann, wenn es aus dem TV-Lautsprecher kommt.

Saurier auf Surfbrett

Anzeige

Da ist ein sensorgesteuerter Seifenspender, der nur auf weiße, nicht aber auf schwarze Hände reagiert. Die Gesichtserkennungssoftware, die das Passfoto eines hellwachen asiatischstämmigen Mannes nicht akzeptieren wollte: dessen Augen seien geschlossen. Da ist Googles Heimlautsprecher Google Home, der die Frage, ob Frauen böse sind, schon mal mit "ja" beantwortet und männliche Stimmen besser versteht als weibliche. Und dann natürlich die Sache mit den Fotos von schwarzen Menschen und Gorillas.

Mittlerweile, so Clark, erkennt Googles Gesichtserkennungssoftware erst einmal gar keine Gorillas mehr, zur Sicherheit. Es gibt aber auch harmlosere Beispiele wie den auf Basis von öffentlich zugänglicher Microsoft-Technik gebastelten Bilderkennungs-Bot, der eine Zeichnung von einem Dinosaurier mit Maßstab am unteren Ende für einen "Saurier auf einem Surfbrett" hält.

Anzeige

Die SXSW lieferte noch viele weitere Beispiele für manchmal lustige, manchmal erschreckende Fehler, die KI-Systeme heute machen. Die längst sichtbaren Kollateralschäden all der schlauen, lernenden Maschinen um uns herum waren ein zentrales Thema bei der Konferenz, die eigentlich immer eher für die Mischung aus grenzenlosem Optimismus und grenzenloser Selbstüberschätzung der US-Tech-Branche stand. Oft kamen die kritischsten Rückfragen nicht von den Moderatoren - sondern aus dem eigentlich doch sehr technikoptimistischen SXSW-Publikum.

24 Männer und eine Barbiepuppe

Techies hätten mittlerweile einen fast ebenso schlechten Ruf wie Politiker und Journalisten, scherzte der Journalist Ezra Klein in seinem Vortrag. Der "Techlash", also der Backlash gegen die Tech-Branche, ist da. Das - in Deutschland ohnehin nie sonderlich ausgeprägte - Vertrauen darauf, dass all die superschlauen Softwareentwickler gemeinsam und ohne fremde Hilfe die Welt verbessern werden, scheint dahin.

Jetzt steht eher die Erkenntnis im Vordergrund, dass die weiterhin exponentielle Entwicklung digitaler Technologien vielleicht auch für ihre eigenen Schöpfer manchmal zu schnell voranschreitet. Dass Entscheidungen getroffen oder Mechanismen zementiert werden, bevor man ihre Auswirkungen und Weiterungen wirklich verstanden hat. In die Defensive geraten gerade die großen Tech-Konzerne auch deshalb, weil die teils massiv negativen Auswirkungen ihrer anscheinend schwer zu kontrollierenden Systeme längst so deutlich sichtbar sind, von Verschwörungstheorien bei YouTube bis hin zu Desinformation und Hysterie in den sozialen Medien.

Die in Stanford Informatik lehrende Daphne Koller verwies auf einem eigentlich stark um Optimismus bemühten KI-Panel auf das, was Googles Bildersuche bis vor Kurzem zur Abkürzung "CEO" auswarf: Die ersten 25 Bilder, so Koller, zeigten ausschließlich Männer - und das CEO-Modell von Barbie. Mittlerweile finden sich unter den Top 25 auch ein paar Bilder von Frauen.

Bessere Software nur mit besserer Welt?

So ein Resultat mag, wenn es um die Bildersuche im Internet geht, noch harmlos sein - aber wenn Systeme auf Basis der derzeit vorhandenen Daten lernen, kann das gravierende Folgen haben, egal ob es um "predictive policing", Bewährungsentscheidungen, Kreditvergabe oder die Einstellungspraxis großer Unternehmen geht. Eine Personalauswahl-KI, die auf Basis der aktuell in Vorstandsetagen tätigen Menschen Prognosen über die Eignung neuer Kandidaten abgeben sollte, würde aller Wahrscheinlichkeit nach vor allem weiße Männer in Führungspositionen berufen. Die Frage sei, so Daphne Koller, "wie wir Datensätze schaffen, die die Gesellschaft widerspiegeln, wie wir sie gerne hätten, nicht die, die wir haben".

Genau diese Haltung - wenn die Maschinen die Welt besser machen sollen, dürfen sie nicht einfach auf Basis der realen Gegenwart trainiert werden - traf man in Austin wieder und wieder an. Die Frage ist, wie das funktionieren soll. Der eingangs zitierte renommierte Software-Entwickler Anil Dash empfiehlt eine Ethikausbildung für Programmierer, was sicher ein Schritt in die richtige Richtung wäre. Diverse Sprecher forderten, die lernenden Maschinen der Zukunft dürften nicht allein von Programmierern entwickelt werden. Auch Psychologen und Philosophen, Künstler, Designer und Ethiker müssten an ihrer Entstehung mitwirken.

Andere betonen, dass all das Streben nach Diversität in Unternehmen in einer Welt der beschleunigten Entwicklung noch dringlicher wird: Wenn ganze Bevölkerungsgruppen von der Entwicklung der Systeme ausgeschlossen werden, die immer größeren Einfluss auf unser aller Leben haben, könnte das Ungerechtigkeit und Diskriminierung weiter perpetuieren.

Mit anderen Worten: Es sieht ganz danach aus, als könne man die Welt nicht mit lernender Software besser machen, wenn man nicht gleichzeitig die Welt besser macht, in und von der diese Software lernt.

Weitere Artikel

Forum

Forumskommentare zu diesem Artikel lesen
Anzeige
© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH