SPIEGEL ONLINE

SPIEGEL ONLINE

10. September 2006, 11:07 Uhr

Psychologie

Gedanken lesen mit dem Hirnscanner

Von Stephan Schleim

Wissenschaftler entwickeln immer feinere Methoden, um bewusstes Erleben im Kopf zu messen. Wird damit eines Tages der alte Traum vom Gedankenlesen wahr?

Man sitzt ziemlich hart im Kino von Uri Hasson und Rafael Malach - besser gesagt, man liegt: in einer schmalen Röhre und darf sich nicht rühren. Doch der Eintritt ist frei und außerdem erweist man der Wissenschaft einen Dienst. Im Jahr 2004 ersannen die Forscher vom Weizmann-Institut in Rehovot (Israel) ein für Laborverhältnisse ungewöhnlich lebensnahes Experiment. Sie zeigten ihren Versuchspersonen im Hirnscanner Ausschnitte des Westernklassikers "Zwei glorreiche Halunken" mit Clint Eastwood in der Hauptrolle. Während der brummende Kernspintomograf die neuronale Aktivität der Probanden aufzeichnete, sollten diese nur eines tun: entspannt den Film gucken.

Junge vor einer Magnetresonanz-Aufnahme: Forscher auf den Spuren der Gedanken
AP

Junge vor einer Magnetresonanz-Aufnahme: Forscher auf den Spuren der Gedanken

Bei einem so komplexen Reiz wie einem Hollywood-Streifen kann sich die Aufmerksamkeit des Zuschauers auf ganz Unterschiedliches richten, können ganz verschiedene Assoziationen geweckt werden. Verblüfft stellten die Forscher jedoch fest, dass die registrierte Großhirnaktivität der Probanden zu rund 30 Prozent übereinstimmte. Mehr noch: Hasson und Kollegen konnten zeigen, dass bestimmte Filmszenen ganz spezifische Regionen anregten. Nahaufnahmen der Leinwandhelden stimulierten etwa den hinteren fusiformen Gyrus, der entscheidenden Anteil an der Gesichtserkennung hat. Ein fingerfertiger Umgang mit dem Revolver dagegen versetzte die Neurone im postzentralen Sulcus in Aufruhr. Dort ist die Körperwahrnehmung beheimatet.

Kürzlich drehten Forscher der Universität Pittsburgh den Spieß einfach um: Wenn man weiß, zu welchem Zeitpunkt welche Hirnareale feuern, lässt sich dann nicht rekonstruieren, ob die betreffende Person gerade etwas sieht oder hört, ob sie lacht oder traurig ist? Würden sich auf diesem Weg vielleicht bewusste Wahrnehmungen auskundschaften lassen - womöglich sogar Gedanken lesen?

Hör mal, wer da forscht

Statt eines Westerns wählten die amerikanischen Wissenschaftler die Heimwerker-Sitcom "Home Improvement" (deutscher Titel: "Hör mal, wer da hämmert") als Stimulus. Aus mehreren Folgen der beliebten US-Serie stellten sie drei je 25-minütige Sequenzen zusammen, die dann drei Versuchspersonen vorgeführt wurden. Der Magnetresonanztomograf registrierte währenddessen die Hirnaktivität. Anschließend gaben die Probanden über das gerade Gesehene Auskunft: Ist in dieser Szene gesprochen worden? Hat Sie das amüsiert? Gab es musikalische Untermalung? Für zwölf verschiedene Kategorien von Musik bis Spaßfaktor fassten die Forscher auf diese Weise zusammen, was die Testpersonen bewusst wahrgenommen hatten.

Der so entstandene Datensatz bildete den Ausgangspunkt für einen Wettbewerb: Forschergruppen aus aller Welt waren aufgerufen herauszufinden, was in den Köpfen der Probanden vorging. Auf Basis der Hirnscans aus den ersten beiden Durchgängen, inklusive der jeweiligen Auskünfte, galt es, die Wahrnehmungen während der dritten Filmsequenz zu dechiffrieren. Insgesamt 44 Teams reichten Lösungen ein.

Mitte Juni 2006 wurden auf einer Konferenz in Florenz die Gewinner gekürt. Der erste, mit 10.000 Dollar dotierte Preis ging an die Gruppe um Emanuele Olivetti, einen Informatiker von der Universität Trento. Mit Hirnforschung waren Olivetti und seine Kollegen, die zufällig über einen Freund von dem Wettbewerb erfahren hatten, bis dato nicht in Berührung gekommen. Sie sind vielmehr Experten für die computergestützte Analyse besonders großer Datenmengen.

In einmonatiger Programmierarbeit entwickelten sie einen Algorithmus, der mit bis zu 84-prozentiger Trefferquote offenbarte, was die Versuchspersonen in Pittsburgh Monate zuvor wahrgenommen hatten. Besonders gut klappte das in Sachen Musik und Sprache. Etwas schwieriger war es, die Gefühle des Betrachters oder den Grad der Konzentriertheit zu erfassen. Ganz kapitulierten die Forscher aber nur davor, ob in der betreffenden Szene gegessen wurde oder nicht.

Auch die Lösungsstrategie des Physikers Greg Stephens von der Princeton University, der den zweiten Platz errang, kam ohne Neurophysiologie aus. "Wir haben das Problem auf die mathematische Frage reduziert, wie man eine Gerade optimal durch mehrere Punkte legt", erklärt Stephens. "Als das Modell erst einmal stand, konnten wir im Bruchteil einer Sekunde eine recht zutreffende Schätzung abgeben."

Ist die Mathematik überlegen? Warum die Hirnforscher schlechter abgeschnitten haben als die Programmierer

Und wo blieben die Hirnforscher, die für solche Aufgaben doch eigentlich prädestiniert sein müssten? Sie schnitten überraschenderweise weniger gut ab - wahrscheinlich weil sie allesamt weniger auf die Statistik als auf die Verarbeitung im Gehirn schielten. Die Sieger des Wettbewerbs hingegen wandten aufwändige mathematische Verfahren an, ohne sich darüber den Kopf zu zerbrechen, wie das Gehirn funktioniert.

Bietet das Wissen aus 20 Jahren bildgebender Neuroforschung also keinen Vorteil gegenüber der rein rechnerischen Mustererkennung? Fabrizio Esposito von der Universität Neapel: "Hirnforscher beschränken sich bisher hauptsächlich auf einfache Experimentalbedingungen, wie das Sehen von Gesichtern oder das Hören von Tönen. Für komplexe Sequenzen, in denen gleichzeitig viel Verschiedenes passiert, haben wir noch kein tragfähiges Modell."

Nach Mitorganisator Walter Schneider von der University of Pittsburgh, die zusammen mit der Darpa, der Forschungsagentur des US-Verteidigungsministeriums, das Preisgeld stiftete, war es gerade Zweck der Veranstaltung, mehr über das Gehirn zu erfahren: "Der Wettbewerb soll unser Verständnis verbessern, wie Handlungen im Gehirn gesteuert und bewusste Erlebnisse repräsentiert sind." Der preisgekrönte Spurenleser Olivetti räumt jedoch ein: "Wir haben keine neurophysiologische Interpretation der Daten." Zu groß sei der Sprung von der Statistik zur Hirnanatomie.

Doch auch wenn Hirnforscher beim jüngsten Wettbewerb leer ausgingen, waren sie bei der Dechiffrierung von Bewusstseinsinhalten bislang keineswegs untätig. Schon 2000 konnte Kathleen O'Craven, damals am Massachusetts General Hospital, gemeinsam mit Nancy Kanwisher vom MIT in Cambridge (USA) anhand von Hirnsignalen recht sicher angeben, ob sich ein Proband gerade ein Gesicht vorstellte oder ein Haus. Allein am neuronalen Aktivitätsmuster konnten uneingeweihte Gutachter dies in 85 Prozent der Fälle unterscheiden.

Von solchen Ergebnissen angestachelt, suchen heute immer mehr Hirnforscher nach Methoden, die Auskunft darüber geben, was Menschen gerade sehen oder denken. Zupass kommt ihnen dabei der Fortschritt bei der Auswertung bildgebender Daten: Neuere Ansätze dechiffrieren komplexe Muster in den Momentaufnahmen der Hirnaktivität. Diese Art der Analyse kann auch in relativ "verrauschten" und nicht sehr hoch aufgelösten Kernspindaten bestimmte Wahrnehmungsinhalte detektieren - selbst wenn diese dem Probanden unbewusst blieben.

So lasen etwa John-Dylan Haynes vom Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig und Geraint Rees vom University College London die Orientierung eines am Bildschirm präsentierten Gittermusters an der Hirnaktivität ihrer Versuchspersonen ab. In ihrem Experiment von 2005 kippten sie ein zunächst senkrecht stehendes Gitter um 45 Grad mal nach links und mal nach rechts. Die Hirnscans aus dem primären visuellen Cortex speisten sie in ein Programm ein. Dieses lieferte in acht von zehn Fällen die richtige Antwort. Bei immerhin 60 Prozent - und damit noch über Zufallsniveau - lag die Trefferquote selbst dann, wenn die Testpersonen die Bilder nicht bewusst wahrgenommen hatten, weil sie durch rasch folgende Reize überdeckt worden waren.

Noch erstaunlicher ist ein weiteres Studienergebnis derselben Forscher. Diesmal sahen die Probanden durch eine spezielle Apparatur auf dem einen Auge einen roten, auf dem anderen einen blauen Kreis. Diese "binokulare Rivalität" löst unser visueller Apparat, indem er mal die eine und mal die andere Farbe "einblendet" - nie jedoch beide gleichzeitig oder gemischt. Die meisten Menschen können dabei bewusst steuern, welche Farbe sie sehen. Wieder haben Haynes und Rees ihr Mustererkennungsprogramm mit den Signalen aus den visuellen Hirnarealen gespeist - und konnten so die jeweilige Wahrnehmung mit bis zu 90-prozentiger Trefferquote bestimmen.

Aber ist der Ausdruck "Gedankenlesen" nicht etwas hoch gegriffen für solche Ergebnisse? Die frühere Studie von O'Craven und Kanwisher etwa lieferte zwar zuverlässige Hinweise darauf, wann sich jemand ein Gesicht oder ein Gebäude vorstellte. Wessen Gesicht oder welches Gebäude, blieb dabei jedoch völlig offen. Auch Walter Schneider sieht hierin ein Manko des Wettbewerbs: "Wir wussten stets, was wir den Versuchspersonen gezeigt haben."

Dieser Einwand gilt freilich nicht für Haynes' Studie mit den blauen und roten Kreisen, denn die Versuchsleiter hatten keine Ahnung, welche Art von Reiz die Probanden wahrgenommen hatten. Alle Informationen mussten allein aus dem Gehirn der Versuchsteilnehmer gelesen werden. Nun sind bunte Kreise noch kein Paradebeispiel für tiefschürfende Gedanken - dennoch arbeiten Forscher heute eifrig daran, auch Absichten und verborgenes Wissen per Kernspin zu entschlüsseln.


Stephan Schleim studierte Philosophie und ist Doktorand im Labor für Social Cognitive and Affective Neuroscience an der Universitätsklinik Bonn.

URL:

Verwandte Artikel:


© SPIEGEL ONLINE 2006
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung