Datenlese Big Data in der Medizin: Sprechstunde beim Superrechner

Arzt und Patient: Wie werden in Zukunft Diagnosen gestellt?
Foto: Kevin Wolf/ APIn Datenbanken sind Millionen Patienten und Therapien erfasst. Forscher rücken den Informationsbergen mit Rechenpower und neuen statistischen Methoden zu Leibe - und können so hochkomplizierte Vorgänge im menschlichen Körper enträtseln. Hat die klinische Studie bald ausgedient?
Wahrscheinlich hat die Big-Data-Medizin Michael Snyder das Leben gerettet. Für ein paar Monate war die Gesundheit des Stanforder Genetikprofessors die vielleicht am genauesten vermessene der Welt. Wiederholte detaillierte Blutuntersuchungen lieferten ein dynamisches Abbild seines Immunsystems, des Stoffwechsels und der genetischen Aktivität.
Die computerisierte Auswertung der Daten im Rahmen einer Studie , die bereits im vergangenen Jahr in der Zeitschrift "Cell" erschienen ist, zeigte unter anderem ein hohes Risiko für Diabetes - zur Überraschung von Snyders Ärzten, da klassische Anzeichen wie Übergewicht oder familiäre Vorbelastung fehlten. Als sich die Krankheit dann noch während der Studie entwickelte, konnte Snyder rasch gegensteuern und dank gesunder Ernährung und sportlicher Aktivitäten vorerst verhindern, dass durch einen erhöhten Blutzuckerspiegel irreparable Zellschäden auftreten.
Datenschätze faszinieren Forschung und Industrie
Vieles spricht dafür, dass die als "Big Data" bekannt gewordene datenintensive Wissenschaft als Nächstes die Medizin umkrempeln wird. Große Datenmengen sind vielerorts verfügbar - in Krankenhäusern, bei Versicherungen, bei privaten Anbietern von Gentests oder in zahllosen Internetforen, in denen Krankengeschichten ausgetauscht werden und wertvolle Informationen über Krankheitsverläufe und Nebenwirkungen schlummern.
Diese Datenschätze gilt es zu heben. Renommierte Universitäten wie die britische Oxford University oder die dem Silicon Valley benachbarte Stanford University haben in den vergangenen Jahren Forschungszentren gegründet.
Auch die Industrie hat bereits Witterung aufgenommen, IT-Firmen investieren große Summen. In einem Pilotprojekt stellt zum Beispiel der Computer-Hersteller Dell Infrastruktur bereit, die eine rasche Diagnose und individuell zugeschnittene Behandlung von Patienten mit Neuroblastom erlaubt, einer weit verbreiteten Krebserkrankung im Kindesalter. IBM hat sein Computersystem "Watson" weiterentwickelt, das vor einigen Jahren spektakulär in der amerikanischen Quizshow Jeopardy siegte, und setzt es mittlerweile als Expertensystem zur Diagnose von Lungenkrebs ein.
Zweifel an der Aussagekraft des Durchschnitts
Bisher stand am Anfang medizinischer Forschung fast immer die Hypothese, die wenige bestimmende Faktoren miteinander verknüpfte, etwa dass Rotwein Herz-Kreislauf-Erkrankungen vorbeugt. Im besten Fall konnte man solche Thesen anhand sogenannter randomisierter, kontrollierter Studien überprüfen. Dabei werden große, möglichst ähnliche Patientengruppen gebildet und die Wirkungen verschiedener Behandlungsmethoden verglichen. Die Ergebnisse solcher Untersuchungen gelten jedoch nur im statistischen Mittel für ähnlich zusammengesetzte Patientengruppen.
Was aber, wenn die Natur uns nicht den Gefallen tut, einfachen Gesetzen zu genügen? Was, wenn das tägliche Glas Rotwein den einen gesund hält, je nach Erbanlagen dem anderen aber schadet? Was, wenn ein komplexer Mix aus Faktoren für Krankheiten verantwortlich ist? So argumentiert die Wissenschaftstheoretikerin Sandra Mitchell von der University of Pittsburgh seit längerem, dass biologische Phänomene nicht auf einfache allgemeingültige Zusammenhänge zurückführbar sind, wie wir sie aus der Physik kennen.
In der Tat deutet einiges darauf hin, dass der herkömmliche wissenschaftliche Werkzeugkasten der biomedizinischen Komplexität kaum gewachsen ist. Metastudien , wie sie beispielsweise der Stanforder Medizinprofessor John Ioannidis durchführt, zeigen immer wieder eine erhebliche Unzuverlässigkeit medizinischer Forschungsergebnisse.
Der Patient als Individuum
Big Data bietet einen neuen Ansatz zur Untersuchung komplexer Phänomene. Weil moderne Informationstechnologien große Datenmengen verarbeiten können, sind statistische Methoden einsetzbar, die aufgrund der ursprünglichen Daten Vorhersagen treffen. Der Umweg über Hypothesen, die ein paar Parameter in einen einfachen funktionalen Zusammenhang stellen, würde damit überflüssig. Ein Beispiel für diesen sogenannten nicht-parametrischen Ansatz sind Nächste-Nachbarn-Algorithmen, die in riesigen Datenbergen nach möglichst verwandten Fällen suchen, also beispielsweise nach einem möglichst ähnlichen Patienten.
Es geht um die Vision einer personalisierten Medizin, in der jeder Patient eine auf ihn persönlich abgestimmte Behandlung erhält, mögliche Nebenwirkungen individuell vorhergesagt werden können und eine bessere Vorsorge möglich wird, weil jeder seine Risikofaktoren kennt. Diese Kontextualisierung, analog zur personalisierten Internetsuche oder Online-Werbung, ist ein allgemeines Merkmal der neuen Big-Data-Wissenschaft.
Entscheidend ist, dass die datenintensiven Algorithmen eine viel größere Anzahl von Parametern berücksichtigen können als herkömmliche statistische Methoden, von den Erbanlagen eines Patienten bis hin zu vielfältigen Umwelteinflüssen. Davon würden auch Ärzte profitieren, die sich ja ohnehin um eine individuelle Behandlung ihrer Patienten bemühen.
Rechnergestützte Medizin
Die neuen Ansätze sind kein Allheilmittel. Mit zunehmendem Erfolg der Big-Data-Medizin aber wird sich auch die Rolle des Arztes verändern. Schon im Fall Snyder waren die Algorithmen letztlich den menschlichen Experten überlegen. Der menschliche Erkenntnisapparat scheint nicht in der Lage, die Komplexität und Kontextabhängigkeit vieler biomedizinischer Phänomene zu bewältigen.
So entsteht die Hoffnung, den Erkenntnisprozess in den Computer mit seinen enormen Speicher- und Rechenkapazitäten auslagern zu können. Und es bleibt die Frage, wie künftig Diagnosen gestellt und Therapien verordnet werden sollen, im Zusammenspiel zwischen Arzt und Algorithmus.