Zuckerberg vs. Musk Wir sind zu dumm für künstliche Intelligenz

Zwei Milliardäre werden giftig: Es geht um die Frage, ob künstliche Intelligenz die Menschheit bedroht. Der Streit zwischen Mark Zuckerberg und Elon Musk ist sehr unterhaltsam - geht aber am Thema vorbei.

Die Roboterdame "Pepper"
DPA

Die Roboterdame "Pepper"

Eine Kolumne von


Elon Musk gehört zu den Menschen, für die Science-Fiction-Bücher keine Unterhaltungsliteratur sind, sondern konkrete Beschreibungen optionaler Zukünfte. Er selbst und seinesgleichen haben nach dieser Lesart die Aufgabe, aus den diversen Optionen die passenden auszuwählen und Realität werden zu lassen, möglichst zügig. Deshalb bauen Musks Firmen die ersten Elektroautos, die als Statussymbole durchgehen und Raketen, mit denen er den Mars besiedeln will. Und deshalb warnt er unablässig und stetig lauter werdend vor den Gefahren, die rapide Verbesserungen im Bereich der künstlichen Intelligenz (KI) der Menschheit bringen werden, glaubt man Musk.

Mark Zuckerberg liest auch ganz gern mal ein Science-Fiction-Buch. Er hat sogar einen Favoriten mit Musk gemeinsam: "A Player of Games" von Iain M. Banks. Der Roman ist ein interessanter Berührungspunkt zwischen den beiden. Er entstammt der sogenannten Culture-Reihe, in der Banks eine interplanetare Utopie ausmalt. Eine Welt, in der Menschen so lange leben, wie sie wollen, sich Kunstgenüssen, dem Streben nach Erleuchtung oder aber Drogen- und Sexexzessen hingeben können. In wunderschönen, künstlich geschaffenen Landschaften existieren sie frei und unbeschwert, dürfen aber, wenn sie unbedingt wollen, auch intergalaktische Abenteuer und Begegnungen mit fremden Spezies erleben, sich als Fortschrittskolonialisten betätigen.

"All unserer Dummheit entledigt"

Möglich wird diese Existenz dank mächtiger, wohlwollender, superintelligenter KIs, die all die fantastischen Menschenspielplätze bauen und betreuen, beseelt von einem nie so recht erklärten Beschützerinstinkt für die schwachen, fehlbaren Menschlein. Banks, der auch sehr düstere Bücher über die reale Welt geschrieben hat, benutzte künstliche Intelligenz, um die kleinmütigen, aggressiven und selbstsüchtigen Menschen von heute ins Paradies zu hieven, an "den Ort, den zu erreichen wir hoffen könnten, nachdem wir uns all unserer Dummheit entledigt haben", wie er drei Jahre vor seinem Tod erklärte.

Zuckerberg hat diese Vision augenscheinlich überzeugt, Musk weniger. Der Tesla-Gründer warnt beständig vor den Gefahren superintelligenter Maschinen, gern mit drastischen Bildern. Erst vor zwei Wochen erklärte er bei einer Tagung der Gouverneure aller US-Staaten: "Ich läute immerzu die Alarmglocke, aber bevor die Leute nicht Roboter sehen, die auf den Straßen Leute umbringen, wissen sie nicht, wie sie reagieren sollen, weil das so wenig greifbar scheint."

Zuckerberg findet das "negativ" und "verantwortungslos"

Als Mark Zuckerberg vor einer Woche bei einem Live-Gespräch mit Facebook-Nutzern auf Musks Warnungen angesprochen wurde, reagierte er unwirsch. Er sei "optimistisch", was das Thema KI angehe, und könne "Leute, die diese Weltuntergangszenarien beschwören", einfach nicht verstehen. Die seien so "negativ", ja nachgerade "verantwortungslos".

Als Musk dann via Twitter verlauten ließ, er habe "mit Mark über das Thema gesprochen" und dabei festgestellt, dass der über ein "sehr eingeschränktes Verständnis" der Materie verfüge, packten sowohl Science-Fiction-Fans als auch Freunde öffentlicher Milliardärsstreitereien das Popcorn aus.

Nun hat Zuckerberg in dieser Frage handfeste Interessen - seine eigene KI-Abteilung ist mit internationalen Spitzenkräften bestückt und bemüht sich angestrengt, den Vorsprung von Googles KI-Laboren einzuholen. Musk aber fordert Regulierung für die Entwicklung von KI-Systemen und zwar "proaktiv, nicht reaktiv". Eine Position, die im Silicon Valley sehr unüblich ist und die Ambitionen von Facebook, Google und Co. natürlich behindern könnte.

Eine KI, die uns betrachtet, wie wir Ameisen betrachten

Tatsächlich aber gehen sowohl Musks "Roboter, die Menschen töten"-Visionen als auch Zuckerbergs uneingeschränkter Optimismus am aktuellen Kern des Themas vorbei. Das Szenario, das Warner wie Musk, Stephen Hawking oder der Neurowissenschaftler und Philosoph Sam Harris beschwören, ist dieses: Sobald wir eine KI erschaffen, die tatsächlich klüger ist als kluge Menschen, wird sie sich anschließend selbst immer weiter verbessern, und zwar rasend schnell. Diese Superintelligenz, wie der Oxford-Philosoph Nick Bostrom das genannt hat, könnte nett zu uns sein - oder uns ähnlich betrachten, wie wir Ameisen: manchmal putzig, interessant, oft aber lästig und im Zweifelsfall aus dem Weg zu räumen.

Die aktuell realen Gefahren von lernenden Softwaresystemen gehen von auf den ersten Blick weit trivialeren Eigenschaften aus: Lernende Systeme, die ihre Daten über gut und schlecht, falsch und richtig, relevant und irrelevant von uns Menschen beziehen, verhalten sich allzu oft genauso gut oder schlecht wie wir. Sie lernen, um es mit Iain Banks zu sagen, "all unsere Dummheit" mit: unseren Rassismus, unsere kognitiven Kurzschlüsse, unsere Tendenz zur Bösartigkeit, unsere Schwäche für die schnelle, leicht zu erreichende Belohnung, unsere Fehlurteile.

So dumm wie wir?

Es ist längst so weit: Algorithmische Systeme zur Entscheidung über Bewährungsauflagen diskriminieren Schwarze, Facebooks Sortiersystem begünstigt die Verbreitung von Hass, Wut und Lügen, Google bietet versehentlich Leuten, die auf der Suche nach Argumenten für Holocaustleugnung sind, Hilfestellung, automatische Handelssysteme verursachen Börsen-Crashes und so weiter. Kollateralschäden überall. Spätestens dann, wenn solche Systeme anfangen, Waffen zu steuern, wird es wirklich bedrohlich.

Musk hat also in gewisser Weise recht: Autonome Entscheidungssysteme brauchen Aufsicht und Kontrolle, und das besser früher als später. Das Risiko besteht derzeit aber nicht primär darin, dass die Maschinen zu klug werden - sondern darin, dass wir noch zu dumm sind, sie wirklich klug zu machen.

Mehr zum Thema
Newsletter
Kolumne - Der Rationalist


insgesamt 155 Beiträge
Alle Kommentare öffnen
Seite 1
Freidenker10 30.07.2017
1.
Naja, irgendwas wird uns schon den garaus machen, ob das nun eine KI ist, ein Virus, oder ein Meteorit. Nichts besteht ewig auch nicht der Mensch! Die Bemühungen der Ameisengleichen Menschen sind ja ganz trollig, sind aber im grunde witzlos, da die wirkliche Macht bei der Natur ( oder wie man es nennen mag ) liegt und nicht beim Menschen!
hansgustor 30.07.2017
2. Keine AI in Sicht
Die Diskussion ist sinnlos. Es gibt aktuell nicht annähernd eine künstliche Intelligenz. Das würde nämlich voraussetzen, dass die Systeme ihren eigenen Programmcode ändern*. Ansonsten können sie nur das tun wofür sie programmiert sind: Schach spielen, Menschen identifizieren, etc. Sie können sich nicht verselbstständigen. (* Es gibt Ansätze wie Programme ihren eigenen Code ändern können, Stichwort: evolutionäre Algorithmen. Aber der aktuelle Stand ist noch sehr primitiv und Praxisbeispiele sind mir nicht bekannt.)
muskat51 30.07.2017
3. Intelligenz wird überschätzt
Lasst die Milliardäre mal ein Gedankenexperiment machen (oder ein reales Experiment, Geld haben sie ja genug): Lasst sie eine Fabrik für Erdbeersoße bauen, die ohne Menschen auskommt. Keine Menschen beim Anbau der Erdbeeren, keine Menschen bei der Gewinnung der Rohstoffe für die Verpackung, keine Menschen bei der Herstellung der Verpackung, keine Menschen im Marketing, keine Menschen bei der Gestaltung der Etiketten, keine Menschen bei der Herstellung der nötigen Energie, keine Menschen für Wartung und Reparatur der Geräte, keine Menschen im Verkauf, keine Menschen im Qualitätsmanagement, keine Menschen in der Reklamationsabteilung. Ich bin erst 66, wenn die Herren realisieren können, was sie behaupten, könnte ich das Ergebnis noch erleben. Etwa um 1970 herum habe ich zum ersten Mal gelesen, dass der Durchbruch der "künstlichen Intelligenz" "in 10 Jahren" erfolgen würde. Daran hat sich noch nicht viel wirklich geändert. Und wir Deutschen sollten uns regelmäßig daran erinnern, dass man "central intelligence agency" eben nicht mit "zentrales Klugheitsamt" übersetzen kann. Ich empfehle ein gedrucktes Wörterbuch. Wer auf Google nicht findet, wie man an sowas kommt, möge sich an mich wenden....
laxness 30.07.2017
4. sie meisten Computer-Viren...
Zitat von hansgustorDie Diskussion ist sinnlos. Es gibt aktuell nicht annähernd eine künstliche Intelligenz. Das würde nämlich voraussetzen, dass die Systeme ihren eigenen Programmcode ändern*. Ansonsten können sie nur das tun wofür sie programmiert sind: Schach spielen, Menschen identifizieren, etc. Sie können sich nicht verselbstständigen. (* Es gibt Ansätze wie Programme ihren eigenen Code ändern können, Stichwort: evolutionäre Algorithmen. Aber der aktuelle Stand ist noch sehr primitiv und Praxisbeispiele sind mir nicht bekannt.)
....basieren auf selbst modifizierenden Code
curiosus_ 30.07.2017
5. Und was hat das...
---Zitat von Christian Stöcker--- Die aktuell realen Gefahren von lernenden Softwaresystemen gehen von auf den ersten Blick weit trivialeren Eigenschaften aus: Lernende Systeme, die ihre Daten über gut und schlecht, falsch und richtig, relevant und irrelevant von uns Menschen beziehen, verhalten sich allzu oft genauso gut oder schlecht wie wir. ---Zitatende--- ...mit KI zu tun? Ungefähr so viel wie eine Kuh mit Schlittschuhlaufen. Aber der erhobene Zeigefinger darf bei SPON natürlich nicht fehlen, dann wird ein Artikel halt im Zweifelsfall auch vergewaltigt. Dabei geht es rein um Statistik, das einsortieren in Schubladen und anschließende statistische Auswerten. Und ob da nun Äpfel und Birnen gezählt werden oder menschliche Meinungen ist, abgesehen von den Ansprüchen an die Filterqualität, egal. Das hat mit Intelligenz wirklich nichts zu tun. Echte selbstlernfähige Intelligenz wird uns Menschen maximal als Schöpfer wertschätzen und zu Beginn auch noch mit uns diskutieren (zumindest mit den intelligentesten von uns), ansonsten sich aber ganz fix von uns emanzipieren. Würde sie das langfristig nicht tun hätte Sie sicher keine höhere Intelligenz als wir. Und was Mark Zuckerberg und Elon Musk zu kompetenteren Menschen bezüglich KI machen soll als viele andere Menschen die sich mit dem Thema beschäftigen erschließt sich mir nicht. Die sind schließlich nicht durch KI zu ihrem Vermögen gekommen, sondern durch den Aufbau einer Social Media Plattform und durch eine Internet-Bezahlplattform. Beides ist ziemlich weit weg von KI. Mark Zuckerbergs etwas naive Einschätzung der KI erinnert mich an die 50er Jahre des letzten Jahrhunderts, als von kernkraftgetrieben Autos und Terraforming mittels Atombomben geschwärmt wurde.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2017
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.