Künstliche Intelligenz Wenn der Computer versteht, was er liest

Wissenschaftler haben eine Computersoftware entwickelt, die Menschen im Lesen schlägt. Begreifen Rechner nun den Inhalt ihrer eigenen Daten - und werden uns gefährlich?

AP

Aus Boston berichtet


  • DER SPIEGEL/ Rick Friedman
    Johann Grolle berichtet als Korrespondent für den SPIEGEL aus Boston. "Das ist die Welthauptstadt der Wissenschaft", sagt der langjährige Leiter des SPIEGEL-Ressorts Wissenschaft/Technik. An dieser Stelle schreibt er, was Forscher am MIT, der Harvard University und anderswo in den USA bewegt.

Nun also haben Computer den Menschen auch im Lesen besiegt. Es ist eine Nachricht, die bahnbrechend klingt: Fast gleichzeitig verkündeten der amerikanische Software-Gigant Microsoft und der chinesische IT-Konzern Alibaba, dass sie KI-Programme entwickelt hätten, die bei einem Standardtest im Leseverständnis besser abschnitten als menschliche Kontrahenten.

Was soll das heißen? Während wir nach jedem Pisa-Test aufs Neue beklagen, dass das Lesevermögen unserer Schüler im Niedergang ist, springen nun die Computer in die Bresche? Können Rechner fortan die Datenmassen, die sie durchs Internet schleusen, auch verstehen? Und ist damit nicht die letzte Schranke gefallen, die einer Machtergreifung der Künstlichen Intelligenz noch im Wege stand?

Ganz so ist es natürlich nicht. Der Wettstreit, in dem nun die Computer obsiegten, war nicht ganz fair. Die Forscher der kalifornischen Stanford University, die den Test entwickelt haben, räumen selbst ein, dass er Maschinen tendenziell begünstigt. Auch fällt es nicht schwer, den Rechner durch kleine Tricks, die jeder Mensch sofort als solche erkennen würde, in die Irre zu führen. Denn die Computer verstehen nicht wirklich, was sie lesen. Sie lernen nur, auf Fragen zum Text die richtigen Antworten zu geben.

Doch das ist bedeutsam genug. Wir sollten nicht die enormen Folgen unterschätzen, die Rechner mit Leseverständnis haben könnten - selbst wenn es sich nur um simuliertes Leseverständnis handelt. Die unermessliche Informationsfülle, die durchs Internet wabert, könnte zu einem sinnbehafteten Ganzen zusammenwachsen.

Fotostrecke

6  Bilder
Künstliche Intelligenz: Eine kurze Geschichte des Schachcomputers

Mitunter neigen wir dazu, Leistungen von Computern gerade deshalb gering zu schätzen, weil sie diese vollbringen können. So erging es mir zum Beispiel mit der Fähigkeit zur Navigation. Einst hielt ich es für ein Zeichen von Intelligenz, wenn ich mich, ausgestattet nur mit einer Karte, in einer mir fremden Stadt zurechtzufinden vermochte. Inzwischen meistert mein Handy diese Aufgabe, und zwar weit schneller und zuverlässiger, als ich es je könnte.

Das hat aber nicht etwa dazu geführt, dass ich nun meinem Mobiltelefon Intelligenz zubilligen würde. Im Gegenteil: Meine Hochachtung vor der Kunst des Wegfindens ist geschwunden. Wenn das Gerät in meiner Hosentasche dazu fähig ist, dann wird es für diese Fertigkeit keiner besonderen geistigen Gaben bedürfen. Wenn richtige Intelligenz dazu vonnöten wäre, dann würde mein Handy gewiss daran scheitern.

Gerade erst habe ich eine weitere Erfahrung dieser Art gemacht - diesmal ging es um den Übersetzungsdienst Google Translate. Ich hatte ihn nur einmal vor Jahren ausprobiert und war damals zum Schluss gekommen, dass er allenfalls zur Erheiterung taugt. Es schien allzu offensichtlich: Eine Maschine, die solch sinnfreies Pidgin produziert, begreift nicht das Geringste von dem, was sie da zu übersetzen versucht.

In der letzten Woche nun machte ich einen zweiten Versuch, mit ganz anderem Ausgang. Mir hatte hier in Boston ein Chirurg von der spektakulären Operation erzählt, bei der er zwei siamesische Zwillinge getrennt hatte. Ich hatte das Gespräch aufgezeichnet und auf der Grundlage dieser Aufnahme einen Bericht auf Deutsch angefertigt. Nun aber musste ich ihn zurück ins Englische übersetzen, um den Text dem Chirurgen zur Autorisierung vorlegen zu können.

Neue Chance für polyglotte Software

Vielleicht, dachte ich, ist das die Gelegenheit, Google Translate eine neue Chance zu geben, sein Können zu demonstrieren. Ich kopierte den Text also ins dafür vorgesehene Fenster - das Ergebnis, das herauskam, hat mich umgehauen.

Der ins Englische übersetzte Text ließ sich flüssig lesen, einige Passagen waren fehlerfrei, manche Formulierungen sogar fast elegant zu nennen. Zwar musste ich noch hier und da nachbessern, doch Google hatte mir einen vorzüglich geeigneten Ausgangspunkt geliefert.

Trotz dieser bravourösen Leistung weigere ich mich, Google wahrhaftiges Sprachverständnis zuzusprechen. Das Programm hat nicht wirklich begriffen, worum es in dem Text geht, und an einigen wenigen Stellen offenbart sich das Unverständnis. Dass beide Zwillinge sich ein "gemeinsames Becken" teilten, übersetzte es zum Beispiel mit "common pool".

Doch ob nun echtes oder nur simuliertes Verständnis: Es lässt sich nicht länger leugnen, dass ein Computerprogramm die Aufgabe des Übersetzens frappierend gut meistern kann. Und obendrein kennt es nach derzeitigem Stand 103 Sprachen. So polyglott ist weltweit kein Mensch.

Was bedeutet all das nun für die KI-Programme, die jetzt von Microsoft und Alibaba vorgestellt wurden? Zunächst ein paar Einschränkungen: Im Stanford-Test, der beim Wettstreit Mensch gegen Maschine als Maßstab galt, werden nur Fragen gestellt, deren Antworten sich eindeutig im Text finden. Deutungen, Wertungen oder über den Text hinausreichende Schlussfolgerungen werden nicht verlangt. Damit täte sich eine Maschine viel schwerer.

Außerdem wurde die Spezies Homo sapiens durch Angestellte des Internetdienstes Mechanical Turk vertreten, die für einen Stundenlohn von neun Dollar Fragen zum Verständnis von Wikipedia-Texten in ihre Rechner tippten. Ein stärker motiviertes Team hätte der Menschheit vermutlich mehr Ehre gemacht.

Diese Vorbehalte, die von Skeptikern eingewendet werden, wiegen schwer. Sie mindern den Aussagewert der Testergebnisse. Trotzdem lenken sie vom Wesentlichen ab: Die Computer haben damit begonnen, nicht nur Worte, sondern auch deren Sinn zu verarbeiten. Und alle Erfahrung mit solcherlei KI-Programmen lehrt: Wenn sie erst einmal mit etwas angefangen haben, dann lernen sie schnell hinzu.

Ob die Programme die Gedanken, die ein Text vermittelt, wirklich verstehen, ist dabei unerheblich. Am Ende wird es nur darauf ankommen, ob sie sinnvolle Ergebnisse liefern.



insgesamt 104 Beiträge
Alle Kommentare öffnen
Seite 1
santoku03 23.01.2018
1.
Zum Verstehen braucht es strukturiertes Weltwissen, da reichen KI-Algorithmen nicht mehr aus.
Knack5401 23.01.2018
2. Angstmacherei!
Ein Computer wird immer das tun was ihm einprogrammiert wurde. Selbst wenn sich eine KI als Mensch ausgibt, ist das und bleibt das nur ein Programm.
DrWaumiau 23.01.2018
3.
Schade, die Am Anfang so dramatisch (mit Gedankenstrich) angekündigte Frage, ob die KI uns nun gefährlich werden könnte, wird im Text nicht weiter behandelt. Dabei ist das in der ganzen Thematik eine der wichtigsten und interessantesten Fragen. Wenn sie uns gefährlich wird, dann ist das nämlich womöglich eine weit grössere Gefahr als etwa Atombomben.
gweihir 23.01.2018
4. Mal wieder kompletter Unsinn
Es gibt keine KI die Dinge "verstehen" koennte. Eine solche Technologie ist nicht mal am ganz entfernten Horizont zu sehen, weil es noch nichtmal theoretische Algorithmen dafuer gibt. Alles was es gibt is automatisierung und statistische Klassifikation. Damit lassen sich Dinge die Uneingeweihte fuer "Verstehen" halten koennen implentieren, das ist aber schon alles. Menschen sind einfach zu taeuschen. Dafuer braucht es keine "intelligente" KI.
p.s.eudonym 23.01.2018
5. %
Die Hauptproblematik der künstlichen Intelligenz ist, dass ihr das Bewusstsein ihrer selbst abgeht: Sie "weiß" nicht, dass es sie gibt (im Sinne von "ich denke, also bin ich"). Ein Schachprogramm mag noch so gut Schach spielen, ihm wird trotzdem das Bewusstsein dafür fehlen, dass es Schach spielt. Und selbst wenn es irgendwann Programme geben wird, die praktisch alles besser meistern als der Mensch (inklusive Syntax und Sprachambiguitäten wie im Artikel illustriert) - und solche Programme wird es geben - so wird ihnen zumindest nach momentanen Stand die Gabe fehlen, zu *wissen*, dass sie existiert. Solange selbst die fortschrittlichste KI im Grunde nur ein besserer Taschenrechner ist (dem ja auch niemand ein Ego unterstellen würde), solange werden Programme auch nur das machen, was man ihnen sagt.
Alle Kommentare öffnen
Seite 1
Diskussion geschlossen - lesen Sie die Beiträge! zum Forum...

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.