23.08.2016

Kluge neue Welt?

Wie uns das Internet verändert – ein Forschungsüberblick Digitale Medien machen süchtig und oberflächlich, warnen Experten. Immer mehr Studien deuten auf das Gegenteil: Wir werden intelligenter – und hilfsbereiter.
ILLUSTRATIONEN CHRISTOPH HOPPENBROCK
D en ersten Schuss bei der Fußballweltmeisterschaft 2014 gab ein Unbekannter im Astronautenlook ab: Juliano Pinto, 28, seit einem Unfall von der Brust abwärts gelähmt. Sein Raumanzug war ein künstliches Skelett, der Helm ein EEG-Messgerät. Es leitete Pintos Hirnsignale an einen mit dem Roboterskelett verkabelten Rechner. Die Vorführung am Rande der Corinthians-Arena in São Paulo dauerte nur Sekunden und ging im WM-Fieber unter. Für die Forschung war sie freilich eine Art Mondlandung: Dem Querschnittsgelähmten gelang es, stehend einen Ball zu kicken – und das nur kraft seiner Gedanken.
Schon lange mähen Roboter selbstständig den Rasen und saugen den Staub in der Wohnung weg. Doch das ist simpel gegen das, was computergesteuerte Maschinen heute können: Ob im Dienste von Gebrechlichen, als smarte Oberflächen in unseren Wohnungen, als Bit-schnelle Sortierer und Schrauber in Fabriken oder als selbst steuernde Autos – die Technik hat angefangen zu denken und sich selbst Neues beizubringen. Sie wird intelligent.
Wie aber ist es mit uns: Halten wir Schritt mit der Technik, werden auch wir immer klüger? Oder werden wir dümmer, weil Maschinen uns das Denken abnehmen? Werden wir die Verlierer der digitalen Revolution sein, weil wir stundenlang an der Wii virtuelle Tennisbälle schlagen, während der Computer lernt, wie er beim strategischen Brettspiel Go die Champions demütigt?
Das ist nicht nur eine Frage für Philosophen, sondern auch für Hirnforscher, Wirtschaftswissenschaftler und Psychologen. Die Forscher suchen mit Experimenten und Studien nach einer Antwort. Eine eindeutig belegte Antwort gibt es nicht, doch immerhin eine Tendenz: Die Menschheit des Digitalzeitalters verblödet nicht. Es gibt, im Gegenteil, sogar Forschungsergebnisse, die darauf hindeuten, dass wir über uns und die Beschränktheit unseres Denkens hinauswachsen können, wenn wir die Möglichkeiten digitaler Technik klug für uns nutzen – und nicht umgekehrt zu Sklaven der Maschinen werden.
Der Homo digitalis hat also gute Chancen, smarter als der Homo analogos zu werden. Und nicht nur das: Er ist vielleicht auch der bessere Mensch, weil er das sozialere Wesen ist.

digitale Versuchung

Doch so einfach ist es nicht, die Kontrolle über die Maschinen zu behalten. Die Welt der Bits und Bytes ist eine große, für manche allzu große Versuchung. Viele Experten warnen sorgenvoll, dass wir nicht klüger würden durch die neue Technik, sondern kollektiv ihrem Sog erliegen könnten. Zu den Bedenkenträgern gehören die Forscher vom Bonner "Menthal Balance"-Projekt. Seit zwei Jahren beobachten sie über eine App das Verhalten von rund 60 000 freiwillig teilnehmenden Smartphonebesitzern. Das Ergebnis sind erschreckende Zahlen: 88-mal am Tag schalteten die Teilnehmer im Schnitt ihr Gerät an; 35-mal nur zum Check von Uhrzeit oder Nachrichtenstand. 53-mal aber entsperrten sie ihr Handy, surften, chatteten, nutzten Apps.
Alle 18 Minuten ihrer wachen Zeit, rechneten die Bonner aus, unterbrachen die Getesteten eine Tätigkeit, um online zu sein. Ganze zweieinhalb Stunden am Tag verbrachte jeder von ihnen am Handy – davon nur sieben Minuten für Telefonate.
Für den Bonner Informatiker Alexander Markowetz waren diese Daten Anlass, Alarm zu schlagen. Uns allen drohe "Digitaler Burn-out", schreibt er in seinem gleichnamigen Buch. Die Folgen malt der Juniorprofessor düster aus: "Unsere Schaffenskraft ist ermattet, unser Geist erschöpft – ein Zustand, in dem sowohl Produktivität als auch Glück weitestgehend ausgeschlossen sind."
Der Zustand, den Markowetz prophezeit, ähnelt den Symptomen des echten Burn-out-Syndroms. Viele Berufstätige fürchten das mysteriöse Erschöpfungsleiden, das sich jahrelang unaufhaltsam auszubreiten schien. Von 2004 bis 2011 stieg die Zahl der Fehltage der Ausgebrannten um das Siebenfache. Was Markowetz allerdings verschweigt: 2011 war der Peak. Seitdem befindet sich die Zahl der Krankschreibungen mit Zusatzdiagnose Burn-out im langsamen Sinkflug. Mit anderen Worten: Die Erschöpfungswelle ebbte just ab, als der Siegeszug der Smartphones begann. Anfang 2011 hatte erst jeder sechste Deutsche ein internetfähiges Handy, heute mehr als jeder zweite.
Markowetz' These vom "digitalen Burn-out" bleibt von diesen Zahlen unberührt: Er hat diesen Zustand nämlich praktischerweise weder definiert noch empirisch gemessen. Seine Vorhersage, der Gesellschaft am Handy stehe die "kollektive Funktionsstörung" bevor, gehört zu einer Panikmache, für die es wohl nur eine handfeste Evidenz gibt: Auf dem Buchmarkt hat sie Konjunktur. Da warnt ein Psychologe im gleichnamigen Buch vor immer mehr "Digital Junkies", ein Medienprofessor prangert "Die Lüge der digitalen Bildung" an, und der Psychiater Manfred Spitzer landet Bestseller mit Titeln wie "Digitale Demenz" oder "Cyberkrank!" (ein Gespräch mit Spitzer und seinem Kontrahenten, dem Bildungsexperten Jörg Dräger, finden Sie auf Seite 46).
Gewiss lassen sich viele Menschen von ihrem Smartphone vereinnahmen. Schon Grundschüler wissen, dass zu viel Handy nicht guttut. Jeder zweite 8- bis 14-Jährige hielt die Ablenkung durch die Kleinstcomputer für problematisch, ergab eine Umfrage der Landesanstalt für Medien Nordrhein-Westfalen 2014; ein Fünftel der Kinder führte schulische Defizite auf die Handy-nutzung zurück. Solche Defizite hat die Forschung bei Studenten empirisch nachgewiesen: In einer US-Studie schnitten 19 Prozent aller Studierenden, die während ihrer Vorlesungen SMS schrieben, hinterher schlechter ab als diejenigen Kommilitonen, die sich auf die Vorträge konzentriert hatten.
Andererseits: Ist Zerstreuung erst eine Massenplage, seit es Smartphones gibt? Nein, wir haben uns früher nur anders abgelenkt: Statt Vokabeln zu pauken, schmökerten wir Comics, telefonierten stundenlang – oder schauten einfach vorbeiziehenden Wolken nach. Im Ergebnis hat Bummelei uns aber damals wie heute weder komplett noch kollektiv aus der Bahn geworfen.
Wolken und Cartoons machen nicht süchtig, halten die Warner dagegen, Handys dagegen schon. Wohl wahr. Allerdings befällt diese seltsame Sucht längst nicht jeden. Je nach Studie gelten ein bis vier Prozent aller Internetnutzer als süchtig; etwa genauso viele Videospieler werden als besessen eingestuft (siehe Kasten Seite 25). Die unterschiedlich hohen Angaben rühren an einem grundlegenden Problem: Die Forschung konnte sich bisher nicht auf eine Definition des Phänomens "Internetsucht" einigen.
Ein weiteres Dilemma ist das von Henne und Ei: Sind es überhaupt die Digitalmedien, die bei manchen Menschen Sucht auslösen, oder sind es umgekehrt nur bestimmte Menschen, für die die Onlinewelt zur Droge wird? Psychisch labile vielleicht, die auch mit der realen Welt überfordert sind? Dafür sprechen die Erfahrungen von Bert te Wildt, Oberarzt am Universitätsklinikum Bochum. "Soziale-Netze-Abhängige sind häufig Menschen, die unter Selbstwertproblemen leiden", sagt der Internetsuchtexperte, "sogar unter Angststörungen und Depression." Internetforen bieten Verzagten die Möglichkeit, gefahrlos in Kontakt zu anderen Menschen zu treten – eine Flucht vor der Wirklichkeit, die ihre psychischen Probleme noch vertiefen kann.
Was bedeutet aber nun die Digitalisierung für die große Mehrheit aller Internetnutzer? Also für die mindestens 96 Prozent, die nicht krankhaft süchtig sind nach dem nächsten Kaufklick, Killergame oder YouPorn-Film? Auch sie lässt die Technik nicht kalt, auch die große Mehrheit nutzt die neue Onlinewelt fleißig. Nur nützt diese ihr gleichzeitig mehr, als die meisten ahnen.

Die globale Schreibrevolution

Clive Thompson, Kolumnist des Tech-Magazins "Wired" und Autor der "New York Times", hat ausgiebig zu den Folgen der Digitalisierung recherchiert. Ergebnis ist sein kürzlich erschienenes Buch: "Smarter than you think" ("Klüger als gedacht"): Wie Technologie unser Hirn zum Besseren verändert. These: Die digitale Technik entwickelt unsere kognitiven Fähigkeiten zu Höchstform: dadurch, dass wir mehr schreiben denn je, uns mehr austauschen denn je und wir beim Problemlösen technisch besser unterstützt werden denn je.
Dem US-Journalisten ist klar, dass Optimisten wie er im Verdacht stehen, naiv zu sein. Wer Pessimismus und Skepsis verbreite, den halte das Publikum schon allein deshalb für klug, weiß Thompson – diesen trüben Automatismus belegen sogar Studien.
Auch Warnungen vor neuen Medien sind alles andere als neu. Berühmt sind Sokrates' Einwände gegen die bei den Griechen aufkommende Mode des Schreibens: Schreibende Menschen würden weniger im Gedächtnis behalten – und müssten nicht mehr Rede und Antwort stehen, sobald sie ihre Argumente schriftlich fixiert hätten. "Stellt man eine Frage, bewahren sie ihre gravitätische Stille", soll sich der Philosoph mokiert haben.
Rund 2000 Jahre später sah das ein anderer berühmter Philosoph schon ganz anders. "Lesen macht einen vollen Mann, Unterhaltung einen fertigen Mann und Schreiben einen exakten Mann", stellte der englische Wissenschaftstheoretiker Francis Bacon im 17. Jahrhundert fest. Dass Schreiben zu Präzision zwingt, erleben Twitterer und Blogger tagtäglich: Es reicht nicht, Wörter aneinanderzureihen, man muss schon wissen, was man damit sagen will – schließlich hat man jede Menge kritischer Leser. Und genau dieses Publikum ist es, wie Studien zeigen, das unser Denkorgan zur Hochform auflaufen lässt.
"Wir sind mitten in einer Revolution der Schriftkundigkeit, wie die Menschheit sie seit der griechischen Zivilisation nicht erlebt hat", sagt Andrea Lunsford, Programmdirektorin für Schreiben und Rhetorik an der kalifornischen Stanford University, eine Professorin mit coiffiertem Dutt und einer Schwäche für Perlen. Lunsford hat die Essays heutiger Studienanfänger in den USA mit denen früherer Generationen verglichen. Ergebnis: Entgegen allen Unkenrufen ob der angeblich schlechter gewordenen Rechtschreibung ist die Fehlerrate nahezu konstant geblieben, obwohl die Aufsätze heute sechsmal so lang sind wie vor rund 100 Jahren – und dabei inhaltlich deutlich komplexer. Auch gegenüber den Erstsemestern vor 30 Jahren haben die heutigen Anfänger noch zugelegt: Damals bildeten persönliche Erlebnisse den Kern der Aufsätze, heute werden dagegen Thesen aufgestellt und argumentativ verteidigt.
Die Ära der Digitalkommunikation ist von überbordender Schreiblust geprägt. Noch in den Neunzigerjahren griffen Menschen privat höchst selten zur Feder. Sogar im goldenen Zeitalter des Briefs, im England des ausgehenden 19. Jahrhunderts, erhielt ein Bürger im Schnitt nur alle zwei Wochen ein Schreiben – inklusive aller Rechnungen und Mahnungen. Heute füllen allein die in den USA täglich produzierten Texte schätzungsweise 36 Millionen Bücher: fast so viel wie der Bestand der größten Bibliothek der Welt, der Washingtoner Library of Congress.
Zur Schreibfähigkeit gesellt sich als neue Kompetenz das Filmen. Jeder Schüler kann sich dank digitaler Hilfswerkzeuge heute als Selfmade-Hitchcock ausprobieren. Die Generation YouTube begnügt sich dabei nicht mit bewegten Selfies, sie erklärt sich und anderen auch die Welt. Beeindruckendes Beispiel ist Salman Khan aus New Orleans, ein MIT-Absolvent, der 2004 anfing, seiner Cousine mit Erklärvideos Mathenachhilfe zu geben. Heute bietet die "Khan-Academy" über 4000 Lernvideos gratis an. Für Deutschlands Mathemuffel versucht auch der YouTuber Daniel Jung sich mit Erfolg an Erklärvideos; sein Film zu Parabeln etwa wurde schon mehr als 387 000-mal abgerufen.

Das erweiterte GedächtniS

Hannah Monyer erforscht seit mehr als 20 Jahren das menschliche Gehirn; für ihre Verdienste erhielt die ärztliche Direktorin an der Universität Heidelberg den Leibniz-Preis sowie das Bundesverdienstkreuz. Mit ihrem Buch "Das geniale Gedächtnis. Wie das Gehirn aus der Vergangenheit unsere Zukunft macht" versucht Monyer gemeinsam mit einem Philosophen ihre Erkenntnisse erstmals dem breiten Publikum zu vermitteln: nämlich dass, vereinfacht gesagt, unser Gedächtnis nicht nur Daten abspeichert, sondern zudem unser Leben sinnvoll plant.
Dabei stellt sich die Hirnforscherin auch den Fragen unserer Zeit: Was wird aus unserem Erinnerungsvermögen, wenn wir Gedichte googeln, statt sie auswendig zu können? Wenn wir Straßennamen ins Navigationsgerät eingeben, uns zum Ziel lotsen lassen und den Weg anschließend gleich wieder vergessen?
Für Monyer und ihren Koautor ist die Sache überraschend klar: Unsere grauen Zellen profitieren von der Auslagerung der Speicheranforderungen. "Das Gedächtnis wird entlastet und bekommt einen Freiraum, den es nie zuvor innehatte." Die neue Freiheit wisse es prima zu nutzen: zu "kreativen Deutungen verwickelter Ausgangslagen" – und damit zur Problemlösung.
Tatsächlich haben Menschen schon immer Informationen extern gespeichert – und zwar besonders gern in fremden Hirnen. Der Harvard-Psychologe Daniel Wegner erforschte einst, wie Ehepaare Alltagswissen untereinander verteilten – ein unbewusster, höchst effizienter Prozess, den Wegner "transactive memory" nannte. Vor ein paar Jahren entdeckte die Forscherin Betsy Sparrow, dass mit dem Netz lebende Menschen heute ihre Gedächtnisleistung in ähnlicher Weise mit dem Computer abstimmen. "Genau wie uns unser transaktives Gedächtnis lehrt, wer was in unseren Familien und Büros weiß, lernen wir, was der Computer ,weiß' und wann wir uns merken müssen, wo er welches Wissen abspeichert", erklärt Sparrow den Mechanismus.
Wir werden also nicht dümmer, wenn wir googeln, Wikipedia konsultieren oder Links anklicken. Tech-Journalist Thompson erkennt sogar deutliche Vorteile darin, Wissen von Maschinen abzufragen. Wenn er etwa einen Auslandskollegen fragen würde, wo genau Drohnen in Pakistan eingesetzt wurden, würde der korrekt "Waziristan" antworten. Das Internet spuckt dagegen den Wikipedia-Eintrag "Drone strikes in Pakistan" aus. Bei dessen Lektüre stieß Thompson neben dem gesuchten Ort auf eindrucksvolle Drohnen-Statistiken und Berichte Betroffener.
Stellen Sie sich vor, so Thompson, ein befragter Kollege würde sich wie eine Suchmaschine verhalten – als Antwort also einen Fünf-Minuten-Vortrag über Waziristan halten! "Wenn uns Menschen belehren, ist das stieselig", findet Thompson. "Wenn Maschinen es tun, ist es dagegen wunderbar. Wir behalten die Kontrolle." Besserwissende Computer bereiten Genuss statt Verdruss.

Virtuelle Empathie

Die Kulturanthropologin Mizuko Ito, Dozentin an der University of California, machte vor Jahren eine erstaunliche Entdeckung: Japanischen Paaren, die getrennt lebten, gelang es, durch den permanenten Austausch von SMS sich einander ähnlich nahe zu fühlen, als wären sie im selben Raum. Dabei schrieben sie sich bloß triviale Statusmeldungen wie "habe Schuhe gekauft" oder "gehe duschen", Dialoge also, die einer der Beteiligten als "ich murmele, und sie murmelt zurück" beschrieb.
Itos Entdeckung hat die Wissenschaft inzwischen "Umgebungsbewusstsein" getauft – ein neues empathisches Bewusstsein, das es ohne moderne Technologien nicht geben würde. Die Erforschung dieses Phänomens hat gerade erst begonnen. Fest steht bereits: Es ist längst nicht so trivial, wie die Texte klingen, die für dieses Bewusstsein sorgen. Statusmeldungen, schreibt Tech-Autor Thompson, "legen bloß offen, wie oberflächlich Menschen schon immer waren: weil sie Gespräche plötzlich sichtbar machen". Nicht Facebook mache uns oberflächlich, sondern umgekehrt: Wir sind es, die mit unserem Spaß an Klatsch und Klüngel die sozialen Medien vollschwafeln.
Wie einflussreich Umgebungsbewusstsein im Arbeitsleben ist, hat der auf Büroräume spezialisierte Architekt Michael O'Neill an mehr als 20 000 Angestellten erforscht. Jüngere Mitarbeiter halten danach kurze informelle Treffen für effizienter als stundenlanges Konferieren. O'Neill zufolge liegt das an ihrem digital geschärften Umgebungsbewusstsein: Junge Kollegen halten online untereinander Kontakt und brauchen daher nicht die große Runde, um sich auszutauschen. Arbeitsgespräche führen sie natürlich auch, aber lieber intensiv, mit ausgewählten Kollegen – und das gern außerhalb des Büros, etwa bei Starbucks.
Die geburtenstarken Jahrgänge bestehen dagegen auf Büroanwesenheit. Sie haben bei ihrem Eintritt ins Arbeitsleben gelernt, dass dort ihr wichtigstes Arbeitsgerät steht: ein fest installiertes Telefon. Zur Teamarbeit sind Konferenzen mit viel Kaffee für sie Usus geworden, zumal sie eben nicht über Twitter oder Snapchat ständig darüber informiert sind, was die Kollegen umtreibt.
Sogar Familienbande können von Umgebungsbewusstsein profitieren. Über soziale Medien, etwa WhatsApp-Familiengruppen, kann enger Kontakt gehalten werden – was insbesondere den weniger mobilen älteren Familienmitgliedern nützt.
Schon bei der Einführung des Telefons barmten die Zeitgenossen, dass Vereinsamung und Verrohung drohten, wenn die Menschheit nicht mehr von Angesicht zu Angesicht kommuniziere. Die Sorge wiederholt sich heute. Dabei gilt für heutige soziale Medien als gesicherte Erkenntnis: Diejenigen, die virtuell gut vernetzt sind, sind es auch offline. Eindrucksvoll belegen das Zahlen des Pew Research Center: 80 Prozent aller Internetnutzer leisteten ehrenamtliche Tätigkeiten oder trafen sich zumindest regelmäßig in Gruppen, sei es zum Chorsingen oder Handballspielen. Bei den Nicht-Internet-Nutzern waren es nur 56 Prozent.
Und dieses Muster zeigt sich schon bei Kindern: Jugendliche, die sich in Hobbyforen online austauschten, erwiesen sich im echten Leben sozialer als Gleichaltrige ohne Netzaktivitäten. Die onlineaffinen Kids setzten sich mit freiwilliger Arbeit mehr für ihre Mitmenschen ein als gleichaltrige Onlinemuffel.

Denken für Fortgeschrittene

Zurück zur Ausgangsfrage: Werden wir klüger oder dümmer dank, trotz oder mit den intelligenten Maschinen? Auch wenn es von wissenschaftlicher Seite nur Antworten zu Teilbereichen gibt: Für Alarmismus besteht kein Anlass. Der Psychologe Christopher Ferguson von der Stetson University in Florida hat stapelweise medienpsychologische Studien kritisch ausgewertet. Sein Fazit: "Dafür, dass uns die neuen Technologien schaden, gibt es so gut wie keine Belege."
Belege gibt es laut Ferguson im Gegenteil dafür, dass sogar die aggressiven Shooter-Spiele für mentale Entwicklung sorgen können. Sie trainieren offenbar die "visuell-räumliche Kognition", anders gesagt: die Hand-Auge-Koordination. Mit dieser Fertigkeit kann man nicht nur beim Militär Karriere machen, sondern auch als Chirurg. Verblüffenderweise könnten aus jugendlichen Shootern besonders geschickte Herztransplanteure werden. Andere Studien deuten darauf hin, dass Gamer sogar ihre sozialen Kompetenzen erweitern – schließlich spielen sie in der Regel nicht allein, sondern in gut organisierten Gemeinschaften, die dank einer Art "Schwarmintelligenz" beachtliche Leistungen hervorbringen – etwa bei der gemeinsamen Lösung von in Spielen versteckten Rätseln.
Einig ist sich die Wissenschaft darin, dass der Nutzen von Pokémon, Warcraft und Co. besser und, vor allem, vorbehaltlos erforscht werden muss. Bisher, ärgert sich Ferguson, habe der Fokus der Forschung auf den vermuteten Folgeschäden gelegen – nicht zuletzt, weil das treffsicher für Schlagzeilen gesorgt habe.
Auch der New Yorker Tech-Enthusiast Clive Thompson kann nicht lückenlos beweisen, dass wir wirklich klüger werden durch die Digitalisierung. Aber er hat erstaunliche Hinweise für diese Annahme zusammengetragen, indem er den Einfluss der Digitalisierung auf das beliebteste Intelligenzspiel der Welt untersucht hat: auf Schach.
1958 brachte das US-Nachwuchstalent Bobby Fischer die Welt zum Staunen, als er mit nur 15 Jahren den Titel eines Grand Master errang. Fischers Rekord wurde erstmals gebrochen, als die Menschheit gerade ins Computerzeitalter eingetreten war: 1991, von der Ungarin Judit Polgar, die Fischer um einen Monat an Jugend unterbot. In den darauffolgenden Jahrzehnten wurden die Grand Master dann immer jünger – seit 2002 liegt der Jüngstenrekord bei zwölf Jahren.
Für Thompson, der sich gründlich in die Materie vertieft hat, liegt der Grund für diese erstaunliche Entwicklung auf der Hand: Die neuen Cracks werden früher fit, weil sie "fortgeschrittenes Schach" gespielt haben. Sie spielen dabei nicht gegen Maschinen – wie der Weltmeister Garri Kasparow 1997, als er gegen den IBM-Rechner "Deep Blue" verlor. Sondern sie spielen Seite an Seite mit den Computern, quasi in symbiotischer Teamarbeit.
Kasparow selbst hatte diese Spielart vorgemacht und sie "advanced chess" getauft. Ein Jahr nach seiner Niederlage gegen Deep Blue hatte er mit einem Computer zusammen einen Schachgegner herausgefordert, der dann ebenfalls von Maschinenhilfe unterstützt gegen den Weltmeister anfocht. Einen Monat zuvor noch hatte Kasparow diesen Kontrahenten besiegt. Diesmal aber zeigte sich, dass der Gegner offenbar gewiefter mit dem Rechner umgehen konnte als der Weltmeister – das Spiel ging unentschieden aus. "Genau wie ein guter Formel-Eins-Fahrer sein eigenes Auto kennen muss, so hatten wir zu lernen, wie das Computerprogramm spielt", beschrieb Kasparow die kognitive Herausforderung.
Offenbar entsteht beim Zusammenspiel eine neue Art von Intelligenz. "Menschliche strategische Führung kombiniert mit dem taktischen Scharfsinn eines Computers", schwärmte Kasparow, "war überwältigend." Diese Mensch-Maschine-Kooperation tut ganz offenkundig auch den beteiligten menschlichen Gehirnen gut. Seit 1994 sind schon 25 Spieler unter 15 Jahren Grand Master geworden. Was vor der Digitalisierungsära nur Wunderkindern gelang, scheint seitdem vielen anderen möglich zu sein.
Auch Juliano Pinto, der gelähmte Brasilianer, der bei der WM-Eröffnung den ersten Ball mithilfe eines an sein Hirn angeschlossenen Exoskeletts anstieß, musste zuvor monatelang am Rechner sein Denkorgan trainieren. Eine Computersimulation stellte dafür seine Beine dar. Pinto musste diesen virtuellen Beinen gedanklich Befehle geben, um zu gehen oder einen Ball anzukicken. Der kognitive Aufwand war ganz ähnlich, wie "eine neue Sprache zu lernen", erklärte einer der beteiligten Forscher.
Mehrsprachigkeit macht erwiesenermaßen schlauer. Wenn wir am Rechner unser Gehirn zu neuer Leistung anspornen, wachsen die Kapazitäten unserer grauen Zellen. Was aber, wenn die intelligenten Maschinen uns irgendwann abhängen, sie schlauer werden als wir – wird menschliches Denken dann womöglich überflüssig?
Der deutsche Technikautor Ulrich Eberl hält diese Gefahr für Science-Fiction. In seinem im Juni erschienenen Buch "Smarte Maschinen. Wie künstliche Intelligenz unser Leben verändert" schreibt der Biophysiker: "Eine der menschlichen Intelligenz ebenbürtige Maschine ist noch lange nicht in Sicht."
Zum Beweis führt Eberl den jährlich an einem anderen Ort ausgetragenen "Loebner-Wettbewerb" an. Seit 1991 stellen sich Computerprogramme dem Test, den vor über einem halben Jahrhundert der geniale britische Informatiker Alan Turing ersann, um zu prüfen, ob Maschinen denken können. Dabei tritt eine Software gegen einen Menschen an. Die ungleichen Kontrahenten erhalten auf einem Bildschirm Fragen zur schriftlichen Beantwortung. Wenn die Jury hinterher nicht klar sagen kann, welche Antwort vom Menschen und welche von der Maschine war, ist ein Preisgeld von mindestens 25 000 Dollar fällig.
Bisher musste dieser Preis nie ausgezahlt werden. Die Maschine, die sich vergangenes Jahr als "Rose" ausgab, eine angeblich 30-jährige Hackerin, wurde schon nach wenigen Minuten enttarnt. Trotz der Brillanz mancher ihrer Antworten scheiterte Rose kläglich an Alltagsfragen. annette.bruhns@spiegel.de
Annette Bruhns hielt vor der Recherche ihre Tochter für eine Aufschneiderin. Die hatte behauptet, ihre Generation sei wegen des Internets klüger als die der Eltern. Inzwischen glaubt die Mutter, dass ihre Tochter wirklich klüger ist – wegen dieser Erkenntnis.

Von Socken und Schüssen

Führen Killerspiele zu Amokläufen und Pornoseiten zu sexueller Gewalt? Die Forschung sagt: Nein.
Stiften blutrünstige Spiele zu Gewalt an? Die Frage ist so alt wie das Genre. Die scheinbare Kausalität, die sich daraus ergibt, dass viele Amokläufer passionierte Videospieler waren – etwa die Mörder an der Columbine Highschool 1999, die Attentäter von Erfurt, Winnenden und zuletzt München –, ist bloß eine Korrelation. "Da 90 Prozent aller männlichen Jugendlichen in den USA spielen, ist die Tatsache, dass ein Amokläufer zuvor schon virtuell geschossen hat, etwa so relevant wie die Frage, ob er bei der Tat Socken trug", spotten US-Forscher von der Villanova University in ihrer Killergame-Studie "Rhetoric versus Data". Auch Kriminalstatistiken zeigen: Die Zahl der Opfer jugendlicher Gewalttäter lag in den USA 2014 um fast 90 Prozent niedriger als 20 Jahre zuvor, also vor Beginn des Spielebooms. Ballerspiele mindern unter Umständen sogar die Gewaltgefahr: So sank in den Monaten nach Veröffentlichung besonders beliebter Killerspiele die Zahl der Totschläge; und nach Absatzpeaks solcher Games ging die Zahl schwerer Körperverletzungen zurück. Offenbar ballern aggressive Typen lieber daheim in neuen Spielen, als die Gegend unsicher zu machen.
Teilentwarnung gibt es beim Suchtpotenzial der Spiele. Als gefährdet erwiesen sich vor allem verhaltensauffällige Jugendliche – etwa Kinder mit einem Aufmerksamkeitsdefizit-Syndrom. Experte Christopher Ferguson aus Florida: "Die Symptome psychischer Defizite zeigten sich schon vor der Spielsucht, nicht umgekehrt." Tröstliches auch aus der Schmuddelecke: Die Angst, mehr Pornokonsum führe zu mehr Sexualdelikten, ist unbegründet. So ist die Vergewaltigungsrate in den USA auf historischem Tiefstand. Und: Anhand von US-Umfragedaten mit 25 000 Teilnehmern fanden Forscher heraus, dass Menschen, die Pornos sehen, aufgeschlossener gegenüber der Gleichberechtigung sind als Pornoabstinenzler. Letztere lehnen weibliche Chefs jedenfalls vehementer ab.
Von Annette Bruhns

SPIEGEL WISSEN 4/2016
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


  • Drohkulisse in Shenzhen: Was bedeuten die Militärfahrzeuge an der Grenze zu Hongkong?
  • Trumps Interesse an Grönland: US-Präsident erntet Spott
  • Roboter im All: Russland schickt Humanoiden zur ISS
  • Kalbender Gletscher: Gefährliche Überraschung beim Kajak-Ausflug