Computerprognosen Warum eine Rentenversicherung, wenn ich mit 50 sterbe?

Die Digitalisierung führt zu neuem Wissen, das die Gesellschaft erschüttern kann: So lässt sich vorhersagen, wer zukünftig erkranken oder wer wann sterben dürfte. Auf diesen Wandel sind wir nicht besonders gut vorbereitet.

Gesundheits-App auf dem Smartphone
TMN

Gesundheits-App auf dem Smartphone

Eine Kolumne von


Soeben ist der jährliche IT- bzw. Digitalgipfel zu Ende gegangen, der liebenswerte, gipfelgewordene Digitalkonjunktiv der Bundesregierung: könnte.com, müsste.org, hätte-sollen.de.

Einer der Schwerpunkte dort war das Thema E-Health, also digitale Gesundheit zwischen Vernetzung und neuem Wissen durch neue Forschungsmethoden. Wissen! Ein Wort wie eine Hirngranate, das immer einen Wirkungstreffer erzeugt. Wissen ist Macht, Rohstoff und Währung, Wissen ist Ziel, Weg und Zweck gleichzeitig. Im digitalen 21. Jahrhundert dreht sich alles um Daten, Datenströme und Datenverarbeitung, die digitalen Vorformen des Wissens also.

Aber die neuen Technologien mit ihren enormen und gefälligst offensiv auszuschöpfenden Vorteilen - offenbaren auch, dass große Teile der analogen Gesellschaft aufgebaut sind auf Nichtwissen. Speziell dem Nichtwissen der Zukunft. Im Bereich der Gesundheit lässt sich am besten beobachten, welche Rolle Nichtwissen spielt. Schließlich gibt es dort spätestens seit 2003 ein oberlandesgerichtlich festgestelltes "Recht auf Nichtwissen".

Der Patient dürfte morgen sterben - verzichtet man auf die Therapie?

Im Mai 2017 wurde ein Artikel in der Zeitschrift "Nature" veröffentlicht: "Precision Radiology: Predicting longevity using feature engineering and deep learning methods in a radiomics framework". Tatsächlich verbirgt sich hinter diesem Forschungsansatz gesellschaftlicher Sprengstoff, denn das Ziel der Studie war die Vorhersage des Todeszeitpunkts von Patienten mithilfe von Deep Learning, einer Variante der Künstlichen Intelligenz. Es offenbart sich die wunderbare, schreckliche Ambivalenz der digitalen Zukunft der Gesundheit.

Fünf Jahre in die Zukunft vermutet: Inzwischen ist ein Produkt auf dem Markt, das den Todeszeitpunkt eines Krankenhauspatienten mit 99-prozentiger Wahrscheinlichkeit bestimmen kann. Die Maschine schätzt, dass Patient A morgen stirbt. Wendet man die teure Therapie X bei ihm an? Die Frage erscheint unmenschlich, aber sie ist ja bereits Realität.

Kosten sind in Gesundheitssystemen eindeutig ein Überlebensfaktor, und Ärzte sind - ohne dass es offen ausgesprochen werden müsste - heute schon oft gezwungen, ähnliche Entscheidungen zu treffen: von der Reihenfolge lebensrettender Operationen über die Vergabe von Organen bis zur Einschätzung, ob eine Behandlung erfolgsversprechend und damit vertretbar erscheint. Das erklärte Ziel der erwähnten Forscher: Solche Deep-Learning-Systeme "könnten den Ärzten bestimmte Entscheidungen abnehmen."

Arbeitgeber kaufen Gesundheitsprognosen ein

Es ist wichtig zu begreifen, dass hier nicht Wissenschaft und Forschung das Teufelszeug sind - sondern dass in der digitalen Gesellschaft durch neue Datenströme und neue Auswertungsmethoden unvermeidlich Wissen entsteht mit dem Potenzial, die Gesellschaft zu erschüttern. Es kann deshalb weder die Aufgabe der Wissenschaft sein, diese Zusammenhänge nicht zu erforschen, noch sie dauerhaft geheim zu halten. Es bleibt nur die Möglichkeit eines neuen Umgangs mit Wissen, das Bereiche der Gesellschaft beleuchtet, die vorher im beruhigenden Nebel des Nichtwissens verborgen waren.

Denn es geht ja nicht bloß um die Sterblichkeit von schwerkranken Patienten. Ebenfalls im Mai 2017 haben Forscher der Cornell University bei der Vorhersage von Alkohol- und Drogenverwendung bei einzelnen Personen eine 81- bzw. 84-prozentige Wahrscheinlichkeit erreichen können - allein anhand der Daten in sozialen Netzwerken. Längst gibt es Unternehmen, die anhand öffentlich zugänglicher und käuflicher Daten Prognosen verkaufen, wie oft und wie lange jemand krank werden könnte. Eingekauft werden diese Prognosen natürlich von Arbeitgebern.

Das klingt wie ein gesundheitlicher Datenschutz-GAU, der größte Proteste der Bevölkerung nach sich ziehen dürfte. Aber das hängt erfahrungsgemäß nur von der Verpackung ab. Angenommen, es gäbe eine datenbasierte Vorhersagemöglichkeit, eine Selbstmordgefährdung festzustellen - man könnte darauf wetten, dass es von der Boulevardpresse angeführte Proteste in die entgegengesetzte Richtung gäbe. Zum Beispiel bei der Einstellung von Piloten. Und Überraschung, natürlich kann Facebook mit hoher Wahrscheinlichkeit längst die Selbstmordgefährdung einer Person vorhersagen.

  • "Wieso werden meine Steuergelder dazu verwendet, Leute zu retten, die sich mit 99-prozentiger Wahrscheinlichkeit morgen umbringen?"
  • "Weshalb sollte ich einen Arbeitskollegen akzeptieren, der laut algorithmischer Auswertung Alkoholiker ist?"
  • "Warum bezahle ich Rentenversicherung, wenn der Computer ohnehin sagt, dass ich mit 50 sterbe?"

Das sind realistische Beispiele für die gesellschaftlichen Frontverläufe eines neuen Wissens. Und ja, diese Fragen mögen auf den ersten Blick kleingeistig und sogar menschenfeindlich wirken, aber sie werden gestellt und politisch ausgeschlachtet werden. Denn ihnen wohnt in vielen Fällen eine Ambivalenz inne.

Eine 99-prozentige Wahrscheinlichkeit ist keine Gewissheit

Die Frage des Alkohol- und Drogenmissbrauchs hat im Büro zum Beispiel einen anderen Klang als auf einer Baustelle, wo das eigene Leben von einem Kollegen abhängen kann. Es kann der Punkt kommen, wo neues Wissen erhebliche gesellschaftliche Erschütterungen mit sich bringt. Die breite Akzeptanz von Solidargemeinschaften hängt zum Beispiel ziemlich stark vom Unwissen ab, etwa von der theoretischen Möglichkeit, irgendwann selbst betroffen sein zu können.

Und hier bekommt das neue Wissen über die Zukunft einen dunklen Drall: denn eigentlich handelt es sich immer nur um Wahrscheinlichkeiten. Und auch eine 99-prozentige Wahrscheinlichkeit ist eben keine Gewissheit - sie wird bloß oft so behandelt. Vom Publikum und erst recht von Unternehmen, die damit Geld verdienen. Für den Markt ist weniger die messbare Realität relevant und mehr, ob ausreichend viele Leute an ein Produktversprechen glauben. Und wer nicht eingestellt wird, weil er mit seinem Datenprofil zu 90 Prozent Alkoholiker sein könnte, kann lange darum kämpfen, zu den 10 Prozent zu gehören. Wenn er es überhaupt je erfahren sollte.

Heute schon töten Drohnen Leute, die mit einer bestimmten Wahrscheinlichkeit Terroristen sein könnten. Man erkennt daran, dass selbst bei der Frage nach Leben und Tod längst Wahrscheinlichkeit die Gewissheit ersetzt hat: die rote Linie ist überschritten an den Rändern der westlichen Gesellschaften. Deshalb kann diese Haltung leicht ins Innere einsickern. Auch weil Menschen außerordentlich schlecht bei der realistischen Bewertung von Wahrscheinlichkeiten sind.

Dieses Wissen kollidiert mit den Grundwerten unserer Gesellschaft

Und dabei sind noch nicht einmal die Fehler berücksichtigt, über die der Fall Lukas Hartmann eine wertvolle Lektion erteilen kann. Hartmann hatte sich bei 23andme angemeldet, einer unter anderem von Google finanzierten Firma, die Genomauswertungen verkaufte. Eines Tages bekam er eine Mail, dass etwas Brisantes gefunden worden sei. Verbunden mit der Frage, ob er das wirklich wissen wolle und wenn nicht, solle er einfach nicht draufklicken. Soviel zur digitalen Realität des Rechts auf Nichtwissen. 23andme erklärte Hartmann, er habe eine Genomkonstellation, die zu einer seltenen Erbkrankheit namens Gliedergürteldystrophie führe. Die ist nicht heilbar und führt nicht selten zum frühen Tod.

Hartmann aber ist hochspezialisierter Programmierer. Er betrachtete seinen angeblichen Gen-Fehler deshalb als Bug, lud von der Seite von 23andme sein eigenes Genom herunter und machte sich ans Debuggen seines genetischen Codes. Was er fand, war tatsächlich ein Bug, allerdings in der Auswertungssoftware von 23andme. Der ihm schließlich auch vom Unternehmen selbst bestätigt wurde. Ein Bug hatte Lukas Hartmann für unheilbar krank erklärt.

Digitalisierung bedeutet auch, das gesellschaftliche Fundament des Nichtwissens zu durchlöchern. Etwa, weil wir Wissen aus datengestützten Maschinen-Prognosen als faktische Realität behandeln. In manchen Bereichen gibt es kaum andere Möglichkeiten, in anderen kollidiert die Anwendung dieses neuen Wissens oder vermeintlichen Wissens mit den Grundwerten der Gesellschaft. Und wir sind nicht besonders gut darauf vorbereitet. Trotz Digitalgipfel.

Mehr zum Thema
Newsletter
Kolumne - Die Mensch-Maschine


insgesamt 89 Beiträge
Alle Kommentare öffnen
Seite 1
Sportsfreund_Elbe 14.06.2017
1. Einflussfaktoren kaum kontrollierbar
Es gibt schlichtweg zu viele Parameter, die den Mortalitätszeitpunkt beeinflussen. Es ist daher unmöglich, diesen bei Standardpatienten mit einer Wahrscheinlichkeit von 99% zu prognostizieren. Darüber hinaus gibt es dann noch Faktoren, die einen gegenteiligen Einfluss auf die zeitbezogene Mortalitätswahrscheinlichkeit haben. Kein Zweifel: Bei schwer kranken Intensivpatienten lässt sich die Überlebenswahrscheinlichkeit recht gut vorhersagen. Bei gesunden Menschen, wird dies niemals möglich sein.
jhea 14.06.2017
2. Wenn da nicht 100% steht,...
dann ist es völlig egal was da als Datum rausgeworfen wird. (und 100% wird man nicht erreichen, es sei denn das Gerät steht mit einem Bolzenschussgerät hinter meinen Stuhl wenn Datum X kommt) Was wenn die Maschine sich irrt, und ich bis 54 in Saus und Braus lebe und mir über Altersvorsorge keine Gedanken mache, aber dann doch 98 werde? Wer zahlt mir die Differenz von 67 bis 98? Also eine Hypothese die zwar lustig im Sci Fi stories ist, aber mit der Realität nichts zu tun hat :) Auch wird nicht mit einberechnet ob ggf. mein Haus brennt oder ich im Straßenverkehr umkomme... von daher *shrugs* Nicht den Aufwand wert den man da betreibt. Aber wer sonst keine Hobbies hat ;D
genauerschauer 14.06.2017
3.
Wir können nicht mal das Wetter vorhersagen. Mehr muss dazu gar nicht geschrieben werden :-)
watch15 14.06.2017
4. Wir haben es selbst in der Hand!
Aber solange sich immer mehr Leute ein tolles Fitness-Armbändchen umbinden und aus Naivität Ihre Schlaf, Essens- und sonstigen Gewohnheiten fleißig in die Online-Welt senden, wird die Datensammel- und Auswertungswut bestimmter Unternehmen weiter zunehmen ... mit allen für den Verbraucher eher nachteilhaften Folgen. Dass final jegliche Ethik über Bord geworfen wird und ein Computer final entscheidet ob eine Therapie stattfinden soll oder nicht, passt gut in unsere Gewinn- und Geiz-ist-geil Gesellschaft. "Ich würde ja, aber der Computer verbietet mir ihre Krebstherapie!". Eine traurige Entwicklung.
Bondurant 14.06.2017
5.
Längst gibt es Unternehmen, die anhand öffentlich zugänglicher und käuflicher Daten Prognosen verkaufen, wie oft und wie lange jemand krank werden könnte. Längst gibt es auch Kampagnen von Regierungen und sich sonst berufen Fühlenden, die "Prognosen" über den Gesundheitszustand bestimmter Mitglieder der Gesellschaft abliefern, die sich nicht systemkonform verhalten und etwa zu viel wiegen oder trinken, gar noch rauchen. Das finden alle ok, warum nicht einen Schritt weiter?
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2017
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.