Christian Stöcker

Einflussreiche Philosophie im Silicon Valley Ist »Longtermism« die Rettung – oder eine Gefahr?

Christian Stöcker
Eine Kolumne von Christian Stöcker
Die Klimakrise zeigt, wie kurzsichtig die Menschheit handelt. Eine von Bitcoin-Milliardären und Leuten wie Elon Musk üppig finanzierte Denkschule will das ändern. Eine gute Sache? Nur auf den ersten Blick.
Illustration eines Mensch-Maschine-Roboters: Unser größtes Problem ist short-termism

Illustration eines Mensch-Maschine-Roboters: Unser größtes Problem ist short-termism

Foto: jacquesdurocher / Getty Images

Das Seltsamste am TED-Vortrag des britischen Philosophen William MacAskill  aus dem Jahr 2018 ist, dass die Klimakrise darin nur sehr am Rande vorkommt. Und das, obwohl MacAskill sich die Zukunft der Menschheit zum zentralen Thema gemacht hat.

In Jeans und T-Shirt spricht MacAskill gut zehn Minuten lang über »existenzielle Risiken« für die Menschheit und über die von ihm selbst und anderen populär gemachte Idee des »effektiven Altruismus«. Er arbeitet an einer Einrichtung namens »Global Priorities Institute«. Wenn man ihm aber zuhört, hat man nicht den Eindruck, dass die Klimakrise zu seinen zentralen Prioritäten gehört.

Einmal erwähnt der Philosoph zwar »die Möglichkeit extremer Klimaveränderungen«, aber in einer Reihe mit Biowaffen, außer Kontrolle geratener künstlicher Intelligenz und Geoengineering, also aktiven Eingriffen ins Erdsystem selbst. Mit anderen Worten: in einer Reihe mit derzeit eher hypothetischen Bedrohungen. Dann ergänzt er: »Ich sage nicht, dass eines dieser Risiken besonders wahrscheinlich ist«, und da runzelt man als über das Ausmaß und die Bedrohlichkeit der Klimakrise informierter Mensch dann doch die Stirn.

Sehr, sehr viel Geld ist im Spiel

Ein bekannter Fan und Förderer der neuen philosophischen Richtung, für die MacAskill steht, ist Skype-Mitgründer Jaan Tallinn. Und der scheint da ähnlich zu denken: Als CNBC ihn Ende 2020 fragte , was seiner Meinung nach die größten existenziellen Risiken für die Menschheit seien, zählte Tallinn synthetische Biologie, unkontrollierbare künstliche Intelligenz und als drittes »unbekannte Unbekannte« auf, also Risiken, von denen wir noch gar nicht wissen. Der Klimawandel dagegen sei »nicht existenziell«, so der Multimillionär, solange kein völlig unkontrollierbares Worst-Case-Szenario eintrete. Und das gilt noch immer als unwahrscheinlich. Globale Katastrophen und entsetzliches Leid aber als sehr wahrscheinlich, wenn die Menschheit nicht endlich handelt.

Nun werden Sie sich fragen, warum Sie sich für die Ansichten eines jungen britischen Philosophen und eines estnischen Techmillionärs interessieren sollten.

Weil MacAskill, gemeinsam mit anderen Philosophen wie dem vor allem für sein Buch »Superintelligence« bekannten Nick Bostrom  oder dem Australier Toby Ord, für eine an der University of Oxford entstandene, vor allem im Silicon Valley sehr einflussreiche Denkschule steht. Ihre Protagonisten haben sie »Longtermism« getauft. Leute wie Tallinn setzen ihre gewaltigen Vermögen ein, um diese Denkschule und ihre Projekte zu finanzieren. Und die hat, wenn man ihre Gedanken zu Ende denkt, teils sehr beunruhigende Implikationen.

Immer die ferne Zukunft im Blick

Toby Ord hat den Begriff Longtermism einmal so definiert : »Die Ansicht, dass das wichtigste Kriterium für den Wert unseres heutigen Handelns ist, wie dieses Handeln die ferne Zukunft beeinflussen wird.« Es geht also darum, konstruktiv nach vorn zu denken, was könnte daran falsch sein?

Der Philosoph Phil Torres dagegen hat Longtermism in einem viel beachteten und diskutierten, durchaus polemischen Essay  gerade als »üppig finanziert und zunehmend gefährlich« bezeichnet. Die Longermists seien technologiegläubig und, weil sie den Wert künftiger, noch ungelebter Leben ebenso hoch ansetzen wollten wie den heute lebender Menschen, teilweise zynisch und menschenverachtend. Longtermism sei eine »säkulare Religion«. Hat er recht?

46 Milliarden Dollar und unbescheiden benannte Institute

Longtermism ist eng verbunden mit MacAskills Idee vom »effektivem Altruismus«, und dieser wiederum ist, für ein philosophisches Konzept, unfassbar wirkmächtig. Ein Mitglied der Szene schätzt , dass derzeit 46 Milliarden Dollar bereitstehen, um in Projekte des »effektiven Altruismus« investiert zu werden. Dessen Grundidee ist so simpel wie sinnvoll: karitative Spenden so einzusetzen, dass sie messbare, möglichst positive Ergebnisse erzeugen. Wohltätigkeit plus wissenschaftliche Methode also.

Die Longtermism- und Effective-Altruism-Szene ist eng vernetzt. Man schreibt zusammen Bücher und trifft sich in unbescheiden benannten Institutionen wie dem Future of Humanity Institute, dem Future of Life Institute und dem Global Priorities Institute.

Topspender aus der Krypto-Szene

Zu den Topspendern gehören Silicon-Valley-Milliardäre wie der Facebook-Mitgründer Dustin Moskovitz und der Kryptowährungs-Unternehmer Sam Bankman-Fried. Aus der Krypto-Szene stammen auch viele andere Spender. Elon Musk wiederum spendete Geld für Nick Bostroms Future of Humanity Institute an der University of Oxford, an dem auch Ord arbeitet.

Longtermism und effektiver Altruismus sind derzeit die bei vielen Reichen aus dem Silicon Valley wohl populärsten Denkschulen. Eng verknüpft sind sie wiederum mit Transhumanismus, also der Vorstellung, dass der Mensch sich technologisch selbst verbessern könnte und anderen Zukunftsvisionen, die sämtlich vor allem nach Science-Fiction klingen.

Denkt man all das mit den Unsterblichkeitsfantasien von Leuten wie dem Milliardär und bekennenden Trump-Fan Peter Thiel  und den Weltraumabenteuern von Superreichen wie Musk und Jeff Bezos  zusammen, ergibt sich ein unangenehmes Gesamtbild: Kann es sein, dass die ultrareichen Finanziers der Longtermism-Idee daran vor allem eins mögen: dass sie eine gute Ausrede zu sein scheint, sich nicht mit dem Leid und den existenziellen Gefahren der Gegenwart beschäftigen zu müssen? Sondern lieber mit den eigenen Hobbys? Schließlich geht es doch um »das Potenzial der Menschheit«, nichts Geringeres?

Unser größtes Problem ist short-termism

Tatsächlich haben wir, was der Klimagipfel von Glasgow derzeit wieder einmal auf sehr beunruhigende Weise deutlich macht, im Moment vor allem ein Problem mit dem Gegenteil: short-termism. China, Indien und Australien wollen sich nicht darauf festlegen , bald aus der Kohleverstromung auszusteigen, ebenso wenig wie die USA. Das liegt nicht zuletzt daran, dass die auf diese Weise kurzfristig zu erzielenden Gewinne und Erleichterungen, wirtschaftlich wie politisch, höher bewertet werden als das katastrophale Leid, das die Klimakatastrophe gerade in Ländern wie Indien und China anrichten wird.

Alle Artikel zum Uno-Klimagipfel

Anfang November trifft sich die Staatengemeinschaft im schottischen Glasgow zur 26. Uno-Klimakonferenz, der COP26. Auf dem zweiwöchigen Treffen geht es darum, die Ziele der Länder zu erhöhen und gemeinsame Regeln für den Kampf gegen die Klimakrise zu definieren. Lesen Sie hier alle Artikel zum Gipfel.

Longtermism kann insofern als durchaus sinnvolles Gegengewicht zu etwas gelten, das sowohl in der Ökonomie als auch in der menschlichen Psyche eine zentrale Rolle spielt: Die Gegenwart gilt als mehr wert als die Zukunft. In psychologischen Experimenten entscheiden sich Menschen sehr oft für eine kleinere Belohnung jetzt gleich statt für eine deutlich größere in zwei Wochen oder nächstes Jahr. Der Spatz in der Hand ist bei uns Menschen sehr populär.

Discount rate auf null gesetzt

In die Wirtschaftswissenschaften ist dieses Phänomen in Form der sogenannten discount rates eingegangen: Dinge, die erst in Zukunft verfügbar sind, werden grundsätzlich niedriger bewertet als Dinge, die man heute schon haben kann. Welche discount rate genau angelegt wird und warum, ist so umstritten wie vielfältig, aber das Grundprinzip wird selten infrage gestellt: Hundert Euro heute sind mehr wert als Hundert Euro nächstes Jahr, und viel mehr als Hundert Euro in zehn Jahren.

Das hat, angesichts des Phänomens der Inflation, natürlich einen gewissen Sinn. Es ist aber etwas anderes, wenn man die gleiche Denkweise auch auf künftiges Leid anwendet. Lieber heute noch ein bisschen 180 auf der Autobahn fahren und Kohle verfeuern, die Katastrophen, die wir mit unserem Lebensstil auslösen, sind doch noch weit weg.

Kosmisch betrachtet – Klimakrise irrelevant?

Longtermism dreht diese Logik um: Hier soll das Leben künftiger Menschen genauso viel Wert sein wie das heutiger. Die discount rate für menschliches Leid würde damit auf null gesetzt. Das hat, zu Ende gedacht, allerdings unter Umständen finstere Folgen. Denn wenn die Menschheit noch sehr lange weiter existiert und alle Leben gleich viel Wert sind, sind die Zukünftigen gegenüber den Gegenwärtigen immer in der überwältigenden Mehrheit.

Damit könnte man auch begründen, lieber die Innovatoren und Ingenieure von heute zu schützen und zu pflegen, als die Armut im Rest der Welt zu bekämpfen. Denn wo gäbe es mehr »Potenzial« als im Silicon Valley? Folgerichtig sorgen viele Techmilliardäre lieber für ihr eigenes Leben nach der Apokalypse vor , statt sich mit allen Mitteln um die Verbesserung der Welt im Hier und Jetzt zu kümmern.

Longtermism-Kritiker Phil Torres schreibt: »Wenn man die Lage kosmisch betrachtet, wäre sogar eine Klimakatastrophe, die die menschliche Zivilisation zwei Jahrtausende lang um 75 Prozent reduziert, aus der Ferne betrachtet kaum mehr als ein kleiner Ausreißer – in etwa wie ein 90-Jähriger, der sich mit zwei Jahren einmal den Zeh gestoßen hat.«

Die Wiedergabe wurde unterbrochen.