
Technologischer Fortschritt Die Rückkehr des Wunderglaubens


Wird künstliche Intelligenz zur Bedrohung für den Menschen?
Foto: Elena Perova / iStockphoto / Getty ImagesDieser Artikel gehört zum Angebot von SPIEGEL+. Sie können ihn auch ohne Abonnement lesen, weil er Ihnen geschenkt wurde.
Eliezer Yudkowsky ist überzeugt, dass der Menschheit die Auslöschung droht. Aber nicht wegen Klimakrise und Artensterben, und nicht in Jahrzehnten, sondern demnächst. Und zwar aufgrund der Entwicklung im Bereich des maschinellen Lernens. Er selbst spricht, ohne Anführungszeichen, von »künstlicher Intelligenz« (KI): »Wenn jemand unter den aktuellen Bedingungen eine zu mächtige KI baut, ist meine Erwartung, dass kurz darauf jedes Mitglied der Spezies Mensch und alles biologische Leben auf der Erde sterben wird.«
Der Satz stammt aus einem aktuellen Gastbeitrag für »Time« , in dem Yudkowsky auch verrät, dass seine Partnerin und er schon jetzt den ihrer Meinung nach nahezu unausweichlichen Tod ihres eigenen Kindes durch die herannahende KI-Apokalypse betrauern.
»Veränderung der Geschichte des Lebens auf Erden«
Hintergrund des Textes ist ein offener Brief , in dem über tausend Fachleute diese Woche ein sechsmonatiges Moratorium für die Weiterentwicklung großer lernender Maschinen wie GPT, Googles Bard und vergleichbare Systeme gefordert haben. Darin steht:
»Fortgeschrittene KI könnte eine tiefgreifende Veränderung der Geschichte des Lebens auf der Erde darstellen, und sollte daher mit angemessener Sorgfalt und angemessenen Ressourcen geplant und beaufsichtigt werden. Unglücklicherweise gibt es dieses Planungs- und Managementniveau nicht, obwohl KI-Labore in den vergangenen Monaten in ein unkontrolliertes Wettrennen eingetreten sind, um immer mächtigere digitale Geister zu entwickeln, die niemand, nicht einmal ihre Schöpfer – verstehen, vorhersagen oder verlässlich kontrollieren kann.«
Die sechsmonatige, weltweite Entwicklungspause, die in dem Text gefordert wird, solle dazu genutzt werden, um »gemeinsam geteilte Sicherheitsprotokolle für die Entwicklung und Gestaltung fortgeschrittener KI-Systeme zu entwickeln und zu implementieren«, überwacht von »unabhängigen außenstehenden Experten«. Der Aufruf kommt aus einer etwas fragwürdigen Richtung: aus dem Dunstkreis der »Longtermists«, einer philosophischen Denkschule, die sich bevorzugt um existenzielle Risiken kümmert, dabei aber seltsame Blüten treibt.
Überraschende Unterzeichner
Zu denen, die den offenen Brief zuerst unterzeichnet haben, gehört Elon Musk, bekennender Longtermism-Fan. Aber es sind auch zahlreiche wirklich renommierte KI-Fachleute wie der in Berkeley lehrende Brite Stuart Russell dabei, Autor eines Standardwerks zum Thema, außerdem Apple-Mitgründer Steve Wozniak, Bestsellerautor Yuval Noah Harari, und, was vielleicht am meisten überrascht, mehrere Fachleute, die für Googles sehr erfolgreiche KI-Tochter Deepmind arbeiten.
Yudkowsky hat nicht unterschrieben, und zwar deshalb, weil ihm der Text nicht weit genug geht. Er beschäftigt sich seit über 20 Jahren mit dem, was in der KI-Forschung »Alignment Problem« genannt wird, was sich mit »Übereinstimmungsproblem« übersetzen und grob so zusammenfassen lässt: Wie stellen wir sicher, dass eine fortgeschrittene KI wirklich die gleichen Ziele verfolgt wie wir? Dass sie uns nicht für überflüssig oder gar hinderlich erklärt?
Der Mann warnt seit vielen Jahren davor, dass uns eine gottgleiche künstliche Intelligenz erst unterjochen und dann auslöschen werde. Entsprechend drastisch sind seine Vorschläge: Wenn jemand heimlich doch in einem Rechenzentrum eine lernende Maschine trainiere, solle man dieses Rechenzentrum mit Luftangriffen zerstören.
Paradies oder Katastrophe?
Dass die gottgleiche KI, die Yudkowsky so fürchtet, vor der Tür steht, glaubt zum Beispiel Stuart Russel, der den Brief immerhin unterzeichnet hat, in Wahrheit nicht: Sein eigenes Labor hat kürzlich erst einen Fachartikel veröffentlicht , indem nachgewiesen wurde, dass die übermenschlich gut spielenden Go-KIs der Gegenwart sich mit einem einfachen Trick schlagen lassen, und zwar von anderen Go-KIs, die so schwach sind, dass menschliche Amateure sie schlagen können.
Russells Problem mit der KI der Gegenwart ist ein anderes, und mit dieser Position hat er völlig recht (es ging in dieser Kolumne vor zwei Wochen schon einmal darum): Die KI-Systeme, die jetzt konstruiert und trainiert werden, sind mächtige, aber fehleranfällige und sehr intransparente Werkzeuge, die von profitorientierten Privatunternehmen völlig rücksichtslos entwickelt und in der realen Welt erprobt werden. Dass so etwas Kollateralschäden hervorruft, wissen wir schon: Denn die Empfehlungssysteme von Facebook, YouTube und Co., die uns massive Desinformation und Polarisierung beschert haben, sind auch nichts anderes als lernende Maschinen.
In einer hörenswerten Podcastfolge sagte Russel kürzlich, das Empfehlungssystem von YouTube sei schon jetzt sehr erfolgreich, aber sein Ziel, das »Engagement« des Publikums hochzuhalten stimme »nicht überein mit den Interessen der Nutzer«. Die Empfehlungssysteme der Plattformen dienten dazu, Nutzerinnen und Nutzer in »noch besser vorhersagbare Opfer« zu verwandeln, dazu würden sie »gehirngewaschen«. Russel: »Die (Plattformbetreiber) sind wie Drogendealer.«
Wie bei William Gibson
Ich würde das nicht ganz so drastisch formulieren, stimme aber dennoch mit Russell überein. Das habe ich sowohl journalistisch als auch wissenschaftlich schon diverse Male zu Protokoll gegeben , einmal mit dem KI-kundigen Kollege Mike Preuss von der Universität Leiden.
Wenn diese Systeme zur Aufmerksamkeits-Ernte mit besserer KI nun noch effektiver gemacht würden, sagt Russell, »wäre das nicht das Paradies, es wäre eine Katastrophe«.
Für die Extremisten der KI-Angst um Yudkowsky aber ist dieses sehr realistische Szenario – KI-befeuerter, rücksichtsloser Digitalkapitalismus – noch nicht genug. Die Propheten der KI-Apokalypse glauben stattdessen an ein Szenario, wie es William Gibson in seiner »Neuromancer«-Trilogie schon in den Achtzigerjahren beschrieben hat: Irgendwann ist das System so komplex, dass es gewissermaßen aufwacht. Plötzlich entsteht von ganz allein eine immer mächtigere KI, eine »Superintelligenz«, die von da ab in wachsendem Tempo immer noch klüger und mächtiger wird.
Yudkowsky und Gleichgesinnte – von denen es mehr gibt, als man denken würde – glauben also daran, dass wir versehentlich einen Gott erschaffen werden, der uns anschließend auslöscht. Man muss an dieses Szenario nicht glauben, um den Unterzeichnern des offenen Briefs in der Sache dennoch zuzustimmen: Die unkontrollierte, unregulierte und rasante Entwicklung von KI-Systemen bräuchte dringend demokratische Kontrolle. Und zwar schnell, denn die Entwicklung ist nun einmal exponentiell. Dazu muss man nicht an Wunder glauben.
Der andere Wunderglaube ist gefährlicher
Der andere Bereich, in dem im Moment ständig Wunder herbeigeredet werden, ist die Bekämpfung der Klimakrise. Hier allerdings mit anderen Vorzeichen. Gerade hierzulande werden derzeit ständig Luftschlösser gebaut, mit dem durchsichtigen Ziel, möglichst wenig gegen die Klimakrise zu unternehmen.
Zur Liste dieser Wunder gehören:
Die magische Vermehrung des grünen Wasserstoffs
Die magische Vermehrung von E-Fuels
Die magische Entfernung von CO₂ aus der Luft
Die magische Energiequelle Kernfusion
Dieser – anders als beim Thema KI – rückhaltlos technikoptimistische Wunderglaube ist viel gefährlicher als »Erwachende, strafende Götter«-Szenarien. Er dient nämlich dem Zweck, echtes Handeln zu verhindern zu verzögern, die Bevölkerung zum Wohle der Fossilbranchen in falscher Sicherheit zu wiegen.
Unglücklicherweise schlägt sich dieser Wunderglaube in konkretem politischem Handeln, genauer: Nichthandeln nieder. Die FDP setzt groteskerweise durch, dass Verbrennerheizungen auch künftig noch verbaut werden sollen, wenn sie »nur grünen Wasserstoff« verbrennen, also solchen, der aus erneuerbaren Energien und Wasser erzeugt wird. Das ist schon technisch extrem fragwürdig, denn Wasserstoff korrodiert Material , ist extrem flüchtig und hat eine deutlich niedrigere Energiedichte als Erdgas.
Das größte Hindernis aber, und das gilt ebenso für das Thema »E-Fuels«, sind die Gesetze der Thermodynamik. Physik verhandelt nun einmal nicht.
Bei jeder Umwandlung von Strom aus Sonne und Wind geht Energie verloren. Das ist eine unverrückbare physikalische Tatsache. Es wird deshalb immer effizienter sein, Strom etwa vom Solardach direkt zum Betrieb einer Wärmepumpe einzusetzen, als damit aufwendig, unter Explosionsrisiko und großen Verlusten, Wasserstoff herzustellen und den dann zu verbrennen. Man verbraucht mit einer Wärmepumpe ein Viertel bis ein Fünftel des Stromes, den eine Wasserstoffheizung benötigen würde.
Gerade die erklärten Fans der »Effizienz des Marktes« haben mit dem Verständnis des Konzepts Energieeffizienz offenbar massive Schwierigkeiten.
Der grüne Wasserstoff in Europa wird auf absehbare Zeit ohnehin nicht reichen, wie der Energieexperte Michael Liebreich von Bloomberg NEF gerade vorgerechnet hat: Um auch nur die Wasserstoffziele zu erreichen, die die EU sich selbst gesetzt hat, müssten ihm zufolge in den kommenden sieben Jahren pro Jahr zehn Wasserstofffabriken gebaut werden, die dem größten aktuell im Bau befindlichen Projekt Chinas entsprechen. Zehn. Pro Jahr. Klingt, als wären auch dafür Wunder erforderlich.
Biggest hydrogen plant being built (Ordos, China) will cost $850m, require 720MW of renewables, and produce just 30,000 T/yr. You think you're going to build 10 projects like that per year for the next 7 years in Europe? In addition to decarbonising grid, heating and transport?
— Michael Liebreich (@MLiebreich) March 31, 2023
Grüner Wasserstoff wird auf absehbare Zeit knapp und teuer bleiben. Erneuerbar erzeugter Strom muss immer und überall so eingesetzt werden, dass möglichst wenig davon verloren geht. Und das ist sowohl beim Heizen als auch beim Auto geklärt, denn, wie gesagt, Thermodynamik verhandelt nicht: Den Strom direkt zu nutzen, ist immer die effizienteste Lösung.
Wunderglaube ist auch die zum Beispiel von Friedrich Merz gern beworbene vermeintliche Lösung, CO₂ mit Direct Air Capture (DAC) direkt aus der Luft zu holen. Es wäre schön, wenn das ginge, aber es kostet im Moment 300 Euro pro Tonne CO₂, mehr als dreimal so viel wie der aktuelle Preis für CO₂-Emissionsrechte . Auch hier haben wir es also mit Wunderglauben zu tun, nicht mit Pragmatismus.
Aber DAC gibt es zumindest im kleinen Maßstab immerhin tatsächlich. Für Kernfusion, die Energiequelle, von der Merz, Christian Lindner und andere immer schwärmen, um in der Gegenwart nichts tun zu müssen, gilt das nicht. Es gibt keinen funktionierenden Fusionsreaktor, schon gar keinen, der wirklich Strom ins Netz liefern könnte, und das wird wohl noch jahrzehntelang so bleiben . Die 1,5-Grad Schwelle werden wir aber vermutlich bereits in den kommenden zehn bis fünfzehn Jahren überschreiten.
Vor einem KI-Wunder müssen wir uns nicht fürchten, vor unkontrolliert agierenden KI-Konzernen dagegen schon.
Und beim Thema Klima gilt weiterhin: Wir haben keine Zeit, auf Wunder zu warten.