Künstliche Intelligenz Saurier auf Surfbrettern

Die Einstellung zu Tech-Konzernen und ihren mächtigen Werkzeugen hat sich gewandelt. Eine zentrale Frage ist: Wie soll Software die Welt verbessern, wenn sie sich an der unfairen Gegenwart orientiert?

Eine Kolumne von


"Es ist klar, dass Technologen sich sehr schnell in ethische Fragen werden einarbeiten müssen, wenn sie weiterhin die breite öffentliche Unterstützung bekommen möchten, die sie gegenwärtig genießen."
Der Unternehmer, Entwickler und Blogger Anil Dash

Der Designer Josh Clark ist ein sympathischer Mann, ein langer, schmaler Kerl mit einem kurzen grauen Bart und einem gewinnenden Lächeln. Bei seinem Vortrag im Rahmen der Tech- und Medienkonferenz South by Southwest (SXSW) vergangene Woche in Austin, Texas, begrüßte Clark das Publikum mit der Versicherung: "Ihr seht alle fantastisch aus." Dann begann er, weiterhin mit diesem gewinnenden Lächeln im Gesicht, die potenziellen Schrecken einer künftigen Welt voller miserabel gestalteter Künstlicher Intelligenzen (KIs) auszumalen.

Clark hat viele Beispiele dafür gesammelt, was die lernenden Hardware-Software-Systeme der Gegenwart im Moment alles falsch machen, wie sie missbraucht und ausgetrickst werden können. Da war zum Beispiel diese "Southpark"-Folge, in der die Cartoonfiguren die echten Amazon Echos in amerikanischen Wohnzimmern dazu brachten, ihren Besitzern "haarige Eier" auf die Einkaufsliste zu setzen. "Hey, Alexa" funktioniert als Befehl nämlich auch dann, wenn es aus dem TV-Lautsprecher kommt.

Saurier auf Surfbrett

Da ist ein sensorgesteuerter Seifenspender, der nur auf weiße, nicht aber auf schwarze Hände reagiert. Die Gesichtserkennungssoftware, die das Passfoto eines hellwachen asiatischstämmigen Mannes nicht akzeptieren wollte: dessen Augen seien geschlossen. Da ist Googles Heimlautsprecher Google Home, der die Frage, ob Frauen böse sind, schon mal mit "ja" beantwortet und männliche Stimmen besser versteht als weibliche. Und dann natürlich die Sache mit den Fotos von schwarzen Menschen und Gorillas.

Mittlerweile, so Clark, erkennt Googles Gesichtserkennungssoftware erst einmal gar keine Gorillas mehr, zur Sicherheit. Es gibt aber auch harmlosere Beispiele wie den auf Basis von öffentlich zugänglicher Microsoft-Technik gebastelten Bilderkennungs-Bot, der eine Zeichnung von einem Dinosaurier mit Maßstab am unteren Ende für einen "Saurier auf einem Surfbrett" hält.

Die SXSW lieferte noch viele weitere Beispiele für manchmal lustige, manchmal erschreckende Fehler, die KI-Systeme heute machen. Die längst sichtbaren Kollateralschäden all der schlauen, lernenden Maschinen um uns herum waren ein zentrales Thema bei der Konferenz, die eigentlich immer eher für die Mischung aus grenzenlosem Optimismus und grenzenloser Selbstüberschätzung der US-Tech-Branche stand. Oft kamen die kritischsten Rückfragen nicht von den Moderatoren - sondern aus dem eigentlich doch sehr technikoptimistischen SXSW-Publikum.

24 Männer und eine Barbiepuppe

Techies hätten mittlerweile einen fast ebenso schlechten Ruf wie Politiker und Journalisten, scherzte der Journalist Ezra Klein in seinem Vortrag. Der "Techlash", also der Backlash gegen die Tech-Branche, ist da. Das - in Deutschland ohnehin nie sonderlich ausgeprägte - Vertrauen darauf, dass all die superschlauen Softwareentwickler gemeinsam und ohne fremde Hilfe die Welt verbessern werden, scheint dahin.

Jetzt steht eher die Erkenntnis im Vordergrund, dass die weiterhin exponentielle Entwicklung digitaler Technologien vielleicht auch für ihre eigenen Schöpfer manchmal zu schnell voranschreitet. Dass Entscheidungen getroffen oder Mechanismen zementiert werden, bevor man ihre Auswirkungen und Weiterungen wirklich verstanden hat. In die Defensive geraten gerade die großen Tech-Konzerne auch deshalb, weil die teils massiv negativen Auswirkungen ihrer anscheinend schwer zu kontrollierenden Systeme längst so deutlich sichtbar sind, von Verschwörungstheorien bei YouTube bis hin zu Desinformation und Hysterie in den sozialen Medien.

Die in Stanford Informatik lehrende Daphne Koller verwies auf einem eigentlich stark um Optimismus bemühten KI-Panel auf das, was Googles Bildersuche bis vor Kurzem zur Abkürzung "CEO" auswarf: Die ersten 25 Bilder, so Koller, zeigten ausschließlich Männer - und das CEO-Modell von Barbie. Mittlerweile finden sich unter den Top 25 auch ein paar Bilder von Frauen.

Bessere Software nur mit besserer Welt?

So ein Resultat mag, wenn es um die Bildersuche im Internet geht, noch harmlos sein - aber wenn Systeme auf Basis der derzeit vorhandenen Daten lernen, kann das gravierende Folgen haben, egal ob es um "predictive policing", Bewährungsentscheidungen, Kreditvergabe oder die Einstellungspraxis großer Unternehmen geht. Eine Personalauswahl-KI, die auf Basis der aktuell in Vorstandsetagen tätigen Menschen Prognosen über die Eignung neuer Kandidaten abgeben sollte, würde aller Wahrscheinlichkeit nach vor allem weiße Männer in Führungspositionen berufen. Die Frage sei, so Daphne Koller, "wie wir Datensätze schaffen, die die Gesellschaft widerspiegeln, wie wir sie gerne hätten, nicht die, die wir haben".

Genau diese Haltung - wenn die Maschinen die Welt besser machen sollen, dürfen sie nicht einfach auf Basis der realen Gegenwart trainiert werden - traf man in Austin wieder und wieder an. Die Frage ist, wie das funktionieren soll. Der eingangs zitierte renommierte Software-Entwickler Anil Dash empfiehlt eine Ethikausbildung für Programmierer, was sicher ein Schritt in die richtige Richtung wäre. Diverse Sprecher forderten, die lernenden Maschinen der Zukunft dürften nicht allein von Programmierern entwickelt werden. Auch Psychologen und Philosophen, Künstler, Designer und Ethiker müssten an ihrer Entstehung mitwirken.

Andere betonen, dass all das Streben nach Diversität in Unternehmen in einer Welt der beschleunigten Entwicklung noch dringlicher wird: Wenn ganze Bevölkerungsgruppen von der Entwicklung der Systeme ausgeschlossen werden, die immer größeren Einfluss auf unser aller Leben haben, könnte das Ungerechtigkeit und Diskriminierung weiter perpetuieren.

Mit anderen Worten: Es sieht ganz danach aus, als könne man die Welt nicht mit lernender Software besser machen, wenn man nicht gleichzeitig die Welt besser macht, in und von der diese Software lernt.

Mehr zum Thema
Newsletter
Kolumne - Der Rationalist


insgesamt 22 Beiträge
Alle Kommentare öffnen
Seite 1
auweia 18.03.2018
1. Tja....
warum sollte ich als weißer, heterosexueller Programmierer / Auftraggeber von KI-Verfahren, der von seiner bisherigen Arbeit, gut leben kann, etwas an den Produkten ändern wollen? Wer zahlt mir die Ethik?
mwroer 18.03.2018
2.
Ich denke das viel Unverständnis für die Fehler aus der falschen Bezeichnung dieser Systeme in der Presse kommt. Es sind bestenfalls 'semi-autonom lernende Systeme' und sie haben nichts mit 'Künstlicher Intelligenz' zu tun. Wenn ich mir angucke welchen Produkten das Label 'smart' aufgedrückt wird, dann wird mir schlecht. Offenbar reicht ein Sensor und 2 'if-then-else' Anweisungen schon um 'smart' zu sein. So wird, beim Verbraucher, eine Erwartenshaltung geschaffen die diese Geräte in keinster Weise erfüllen können. Andererseits versuchen die Hersteller die Erfüllung dieser Erwartenshaltung mittels Software vorzutäuschen - und produzieren dabei jede Menge Mist. Wenn Grundlagenforschung zugunsten des schnellen Umsatzes und für Marketingzwecke geopfert wird, sind letztlich sowohl Entwickler als auch Konsumenten enttäuscht und die wirklichen Entwicklungen werden zugunsten von Gadgets für das breite Publikum vernachlässigt. Vor allem der letzte Satz ist brandgefährlich: "Mit anderen Worten: Es sieht ganz danach aus, als könne man die Welt nicht mit lernender Software besser machen, wenn man nicht gleichzeitig die Welt besser macht, in und von der diese Software lernt." Das klingt bedenkenswert nach 'Und wenn unsere Produkte nicht mit der Realität arbeiten können, dann ändern wir eben die Realität. Am Beispiel von Farbigen und Gorillas ist dann die beste Lösung alle Gorillas zu erschießen - denn ein Ethikkurs für Programmierer wird nichts daran ändern dass unscharfe und schlecht ausgeleuchtete Bilder, von einem abgespeckten 0815 Algorithmus, falsch zugeordnet werden. Die besser Lösung wäre den Algorithmus gründlich zu analysieren und eben nur in der vollen Form laufen zu lassen, nicht in der ressourcenschonenden, bzw. von vorneherein Quellen abzulehnen. Wenn man bestimmte Bilder von Oliver Kahn durch diese Art 'Unterhaltungs-Software' laufen lässt dann kommt oft genug auch 'Neanderthaler' raus. Findet Euch damit ab: Was Ihr von diesen Gadgets erwartet ist im Moment nicht machbar.
thorbenmeyer 18.03.2018
3. Logische Begründung
Dass Frauen in den Spitzenpositionen von Konzernen unterrepräsentiert sind, wird sich so lange nicht ändern, wie sie trotz im Mittel besserer Abschlüsse weitaus seltener Technologiefächer studieren als Männer. De facto sollen Algorithmen die Welt nicht so darstellen, wie sie ist, sondern wie einige Interessengruppen sie gerne hätten oder wie es im Text steht "Die Frage sei, so Daphne Koller, "wie wir Datensätze schaffen, die die Gesellschaft widerspiegeln, wie wir [wer mit "wir" gemeint ist, wird nicht näher ausgeführt] sie gerne hätten, nicht die, die wir haben"."
curiosus_ 18.03.2018
4. Tja, das Problem...
Die Frage sei, so Daphne Koller, "wie wir Datensätze schaffen, die die Gesellschaft widerspiegeln, wie wir sie gerne hätten, nicht die, die wir haben" ...dabei dürfte des Öfteren sein, dass "die Gesellschaft die wir haben" eine ist die sich als evolutionär überlebensfähig erwiesen hat. Und eine "Gesellschaft wie wir sie gerne hätten" zwei große Knackpunkte aufweist: 1. Ist sie Theorie und wie jede solche hat sie den Realitätstest noch vor sich. Inklusive dem Flop-Risiko. Und, der noch größere Knackpunkt: 2. Wer legt fest was "wir gerne hätten"? Das sieht nach einem stark undemokratischen Prozess aus, ausgeführt von "Eliten". Was ist demokratischer als den aktuellen Status quo, zumindest was Meinungen betrifft, abzubilden? Insofern ist das völlig richtig: "Es sieht ganz danach aus, als könne man die Welt nicht mit lernender Software besser machen, wenn man nicht gleichzeitig die Welt besser macht, in und von der diese Software lernt." Alles andere ist undemokratische Diktatur.
quark2@mailinator.com 18.03.2018
5.
Mir ist etwas unklar, warum sich Artikel und Diskussion um eine solche Kleinigkeit drehen wie die Bilderauswahl zum Thema CEO. In Wirklichkeit befinden sich aus meiner Sicht die technologischen Fortschritte gerade dabei, die grundsätzlichen Mechanismen menschlichen Zusammenlebens aus den Angeln zu heben. Was ich damit meine ist, daß Google zuletzt eine künstliche Intelligenz geschaffen hat, die in der Lage war, das Schachspiel innerhalb extrem kurzer Zeit selbständig soweit zu lernen, daß sie alles besiegt hat, was es bisher gab - Mensch und Maschine. Natürlich kann man das dann auch mit den Finanzmärkten, Militärstrategie und internationalem Handel bzw. der Diplomatie machen. Interessant ist, daß diese künstliche Intelligenz nicht mehr menschlich gespielt hat (ähnlich wie auch beim kürzlichen Sieg gegen die besten Go-Spieler). Spontan fällt mir auf, daß Trump sich ganz anders verhält, als bisherige Präsidenten. Der Punkt ist, daß allein auf diesem recht kleinen Feld der künstlichen Intelligenz in Kombination mit dem Datenreichtum des Internets eine Komplexität entsteht, die sich menschlichem Durchdringen verweigert. Sie nicht anzuwenden, führt zum Untergang, als hätte man ein Reiterheer gegen eine Panzerarmee. Wir reden hier nicht über linguistische Feinheiten der Geschlechtergerechtigkeit, sondern um Dinge wie Rechtsstaatlichkeit, strategisches Gleichgewicht, etc. Die Vernunft würde es erfordern, diese Technologien so argwönisch zu kontrollieren wie Kernwaffen, aber die Ökonomie und Machtpolitik schreit nach ihrem Einsatz. Und wir haben das nicht nur bei der künstlichen Intelligenz, sondern auch auf anderen Gebieten (Gentechnik, psychologische Techniken, etc.). Aus meiner persönlichen Sicht ist unser politisches System aus dem 17. Jhd. nicht stark genug, um diese Technologien ausreichend zu kontrollieren. Das ist ähnlich wie bei der Kernkraft, welche im Vergleich trivial erscheint, aber dennoch nicht zu 100% beherrscht wird. Wir brauchen bessere Kontrolle, aber ich sehe nicht, woher diese kommen sollte.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.