Cebit 2018 Wie tickt eine künstliche Intelligenz?

Drohnen-Show auf der Cebit
Foto: Hauke-Christian Dittrich/ dpaSie werden Aktien für uns kaufen und verkaufen, medizinische Diagnosen stellen, Geschäftsberichte analysieren, unsere Kreditwürdigkeit überprüfen, und sie werden uns auf Materialschäden aufmerksam machen, lange bevor wir selbst sie sehen können: Lernende Maschinen werden uns Menschen viele Aufgaben abnehmen. Wer diese Woche über die Cebit gelaufen ist, konnte solche Versprechungen für eine nahe Zukunft kaum übersehen.
Doch es gibt ein Grundproblem mit jenen Systemen, die im allgemeinen Sprachgebrauch als künstliche Intelligenzen (KI) bezeichnet werden und in Fachkreisen ADM-Systeme (für Algorithmic Decision Making) genannt werden: Sie sind schwer zu durchschauen. Warum sie zu welchem Ergebnis kommen, ist von außen nicht erkennbar, oft nicht einmal für ihre Entwickler. Das macht ihren Einsatz mitunter problematisch, sinnlos oder sogar gefährlich.
Was bringt zum Beispiel eine KI, die Röntgenbilder analysiert und daraus Diagnosen erstellt, wenn die behandelnden Ärzte nicht wissen, was sie erkannt haben will? Wie sollen sich Betroffene gegen einen abgelehnten Kreditantrag wehren, wenn ihnen niemand sagen kann, weshalb eine Software die Ablehnung empfohlen hat?
Aus diesem Grund entwickeln Forscher in aller Welt derzeit Werkzeuge, die verständlich machen sollen, was im Inneren von Systemen vor sich geht, die selbsttätig lernen und entscheiden. Explainable AI - erklärbare KI - wird das Forschungsfeld genannt, manche sagen auch "KI-Neurowissenschaft" oder "KI-Tomografie", weil es dem Versuch, in elektronische "Gehirne" zu schauen, nahekommt.
Gemeint sind künstliche neuronale Netze, die grob vereinfacht der Funktionsweise eines menschlichen Gehirns nachempfunden sind und seit einigen Jahren als vielversprechendster Ansatz in der KI-Forschung gelten. (Mehr dazu lesen Sie in unserem "Endlich verständlich" zum Thema.)
Die Forschung an Methoden, die Entscheidungsfindung solcher Netze nachvollziehbar zu machen, beginnt aber gerade erst. "Wenn KI und Maschinelles Lernen noch in den Kinderschuhen stecken", hieß es bei "The Register" kürzlich, "dann befindet sich die Explainable AI noch im embryonalen Stadium".
Ein Produkt - zwei Preise
Auf der Cebit ist die erklärbare KI aber durchaus schon ein Thema. Zwei, die darüber reden, sind Sandra Wachter und Christian Bauckhage. Die Österreicherin Wachter ist promovierte Rechtswissenschaftlerin und Spezialistin für ethisches Design für Algorithmen am Oxford Internet Institute. Bauckhage ist Professor für Informatik an der Universität Bonn und wissenschaftlicher Direktor des Fraunhofer-Zentrums für Maschinelles Lernen.

Sandra Wachter
Foto: SPIEGEL ONLINE"Bis vor etwa sechs Jahren", sagt Wachter, "haben wir gedacht, wir können gar nichts erklären." Dabei habe es Fälle von Diskriminierung durch algorithmische Entscheidungen schon vor Jahrzehnten gegeben. Im Alltag, glaubt Wachter, werden Menschen zunehmend häufiger damit konfrontiert werden - "etwa wenn jemandem bestimmte Jobangebote im Netz nicht angezeigt werden oder beim Differential Pricing" - also wenn verschiedene Internetnutzer für das gleiche Produkt verschiedene Preise angezeigt bekommen, abhängig von den Daten, die das System über sie hat.
Fraunhofer-Forscher Christian Bauckhage sagt: "Jeder, der schon einmal einen Routenplaner benutzt hat, hat auch künstliche Intelligenz benutzt. Daran erkennt man doch, wie normal das schon ist. Wer stellt denn schon infrage, ob die angezeigte Route wirklich die beste ist?"
Kein Königsweg zur erklärbaren KI
Der Machine-Learning-Spezialist verweist auf Googles Duplex-Demo aus dem Mai und sagt voraus, dass "jeder, der eine Telefon-Hotline anruft, in wenigen Jahren mit einer Maschine sprechen wird. Können wir uns auf die verlassen? Das ist die Frage, die wir uns jetzt als Gesellschaft stellen müssen."

Christian Bauckhage
Foto: Fraunhofer IAISEbenso wenig wie Wachter will Bauckhage den Einsatz von automatisch entscheidenden Systemen (ADM) verhindern, im Gegenteil: "Insbesondere in der medizinischen Diagnostik sind sie schon heute oft viel besser als Menschen" - weil sie mit viel mehr Beispielen trainiert würden, als ein Mensch je anschauen könne. "2013 hat so ein System gelernt, dass es gar nicht darauf ankommt, auf Mammografieaufnahmen einen Tumor zu erkennen. Aber wenn es gewisse Gewebeveränderungen erkannte, die noch kein Tumor waren, dann deutete das darauf hin, dass da irgendwo ein Tumor sein muss. Das wussten menschliche Experten bis dahin nicht - dieses Wissen hat die Maschine sozusagen dem Menschen geschenkt."

Rundgang: Die Cebit 2018
Einen Königsweg zur erklärbaren KI aber gibt es noch nicht, nur eine ganze Reihe verschiedener Ansätze. Um nur zwei zu nennen: Wie bereits im vergangenen Jahr etwa stellt das Fraunhofer Heinrich-Hertz-Institut (HHI) auf der Cebit eine Analysemethode namens "Layer-wise Relevance Propagation" (LRP) vor, ein Musterbeispiel für "KI-Tomografie".
LRP beruht auf der Idee, den Entscheidungsprozess eines neuronalen Netzes rückwärts laufen zu lassen und dabei zu beobachten, an welcher Stelle welche künstlichen Neuronen aktiviert wurden und welchen Einfluss das auf die endgültige Entscheidung hatte. Dieser an sich rein mathematische Vorgang wird auf einer Heatmap visualisiert. Im Fall einer Gesichtserkennung etwa färbt die HHI-Software jene Bereiche eines Gesichts rot ein, die für die Erkennung letztlich entscheidend waren.
Offenlegung von Algorithmen verhindern
Sandra Wachter hat ein anderes Konzept mitentwickelt, die sogenannten "Counterfactual Explanations" . Sie beschreibt es so: "Wenn ich ein Darlehen beantrage, aber keines bekomme, dann habe ich kein großes Interesse daran, dass mir jemand erklärt, wie der Algorithmus technisch aufgebaut ist. Sondern ich will wissen, woran es gelegen hat." Counterfactual Explanations leisteten genau das: "Sie sagen mir, welche der Daten, die ich angegeben habe - zum Beispiel Einkommen, Beruf oder Familienstand - anders hätten sein müssen, um ein Darlehen zu bekommen."
Umgesetzt würde das in Form von Algorithmen, eingebettet in das jeweilige System, das sie erklären sollen. "Das geht mit zwei Zeilen Code", sagt Wachter. Die Vorteile von Counterfactual Explanations: Sie funktionieren prinzipiell in vielen verschiedenen Systemen, sind für Laien verständlich, erklären jeden Einzelfall, zwingen ADM-Betreiber nicht zur Offenlegung ihrer Algorithmen und damit möglicherweise von Geschäftsgeheimnissen - und geben zu wenige Informationen preis, die man verwenden könnte, um ein ADM-System zu überlisten.
Die Nachteile: Wenn sich ein neuronales Netz schnell verändert, weil es ständig dazulernt, trifft eine Erklärung von heute eventuell morgen nicht mehr zu. Für Systeme in sicherheitskritischen Bereichen wie zum Beispiel beim autonomen Fahren sind die Erklärungen außerdem zu ungenau. "Counterfactuals sind deshalb ein guter Mittelweg", sagt Wachter. "Wir können damit ein bisschen erklären - und wir sollten weiterarbeiten, bis wir alles erklären können." Ganz so leicht lässt sich eine KI eben nicht durchleuchten.