Cebit 2018 Wie tickt eine künstliche Intelligenz?

Medizin, Recht, Finanzen: In vielen Bereichen treffen zunehmend künstliche Intelligenzen wichtige Entscheidungen. Damit Menschen diese nachvollziehen können, sollen KI-Systeme künftig ihre Beweggründe offenlegen.

Drohnen-Show auf der Cebit
DPA

Drohnen-Show auf der Cebit

Aus Hannover berichtet


Sie werden Aktien für uns kaufen und verkaufen, medizinische Diagnosen stellen, Geschäftsberichte analysieren, unsere Kreditwürdigkeit überprüfen, und sie werden uns auf Materialschäden aufmerksam machen, lange bevor wir selbst sie sehen können: Lernende Maschinen werden uns Menschen viele Aufgaben abnehmen. Wer diese Woche über die Cebit gelaufen ist, konnte solche Versprechungen für eine nahe Zukunft kaum übersehen.

Doch es gibt ein Grundproblem mit jenen Systemen, die im allgemeinen Sprachgebrauch als künstliche Intelligenzen (KI) bezeichnet werden und in Fachkreisen ADM-Systeme (für Algorithmic Decision Making) genannt werden: Sie sind schwer zu durchschauen. Warum sie zu welchem Ergebnis kommen, ist von außen nicht erkennbar, oft nicht einmal für ihre Entwickler. Das macht ihren Einsatz mitunter problematisch, sinnlos oder sogar gefährlich.

Was bringt zum Beispiel eine KI, die Röntgenbilder analysiert und daraus Diagnosen erstellt, wenn die behandelnden Ärzte nicht wissen, was sie erkannt haben will? Wie sollen sich Betroffene gegen einen abgelehnten Kreditantrag wehren, wenn ihnen niemand sagen kann, weshalb eine Software die Ablehnung empfohlen hat?

Fotostrecke

12  Bilder
Lustige Stockfotos zu künstlicher Intelligenz: Was überlegt der Roboter da noch lange?

Aus diesem Grund entwickeln Forscher in aller Welt derzeit Werkzeuge, die verständlich machen sollen, was im Inneren von Systemen vor sich geht, die selbsttätig lernen und entscheiden. Explainable AI - erklärbare KI - wird das Forschungsfeld genannt, manche sagen auch "KI-Neurowissenschaft" oder "KI-Tomografie", weil es dem Versuch, in elektronische "Gehirne" zu schauen, nahekommt.

Gemeint sind künstliche neuronale Netze, die grob vereinfacht der Funktionsweise eines menschlichen Gehirns nachempfunden sind und seit einigen Jahren als vielversprechendster Ansatz in der KI-Forschung gelten. (Mehr dazu lesen Sie in unserem "Endlich verständlich" zum Thema.)

Die Forschung an Methoden, die Entscheidungsfindung solcher Netze nachvollziehbar zu machen, beginnt aber gerade erst. "Wenn KI und Maschinelles Lernen noch in den Kinderschuhen stecken", hieß es bei "The Register" kürzlich, "dann befindet sich die Explainable AI noch im embryonalen Stadium".

Ein Produkt - zwei Preise

Auf der Cebit ist die erklärbare KI aber durchaus schon ein Thema. Zwei, die darüber reden, sind Sandra Wachter und Christian Bauckhage. Die Österreicherin Wachter ist promovierte Rechtswissenschaftlerin und Spezialistin für ethisches Design für Algorithmen am Oxford Internet Institute. Bauckhage ist Professor für Informatik an der Universität Bonn und wissenschaftlicher Direktor des Fraunhofer-Zentrums für Maschinelles Lernen.

Sandra Wachter
SPIEGEL ONLINE

Sandra Wachter

"Bis vor etwa sechs Jahren", sagt Wachter, "haben wir gedacht, wir können gar nichts erklären." Dabei habe es Fälle von Diskriminierung durch algorithmische Entscheidungen schon vor Jahrzehnten gegeben. Im Alltag, glaubt Wachter, werden Menschen zunehmend häufiger damit konfrontiert werden - "etwa wenn jemandem bestimmte Jobangebote im Netz nicht angezeigt werden oder beim Differential Pricing" - also wenn verschiedene Internetnutzer für das gleiche Produkt verschiedene Preise angezeigt bekommen, abhängig von den Daten, die das System über sie hat.

Fraunhofer-Forscher Christian Bauckhage sagt: "Jeder, der schon einmal einen Routenplaner benutzt hat, hat auch künstliche Intelligenz benutzt. Daran erkennt man doch, wie normal das schon ist. Wer stellt denn schon infrage, ob die angezeigte Route wirklich die beste ist?"

Kein Königsweg zur erklärbaren KI

Der Machine-Learning-Spezialist verweist auf Googles Duplex-Demo aus dem Mai und sagt voraus, dass "jeder, der eine Telefon-Hotline anruft, in wenigen Jahren mit einer Maschine sprechen wird. Können wir uns auf die verlassen? Das ist die Frage, die wir uns jetzt als Gesellschaft stellen müssen."

Christian Bauckhage
Fraunhofer IAIS

Christian Bauckhage

Ebenso wenig wie Wachter will Bauckhage den Einsatz von automatisch entscheidenden Systemen (ADM) verhindern, im Gegenteil: "Insbesondere in der medizinischen Diagnostik sind sie schon heute oft viel besser als Menschen" - weil sie mit viel mehr Beispielen trainiert würden, als ein Mensch je anschauen könne. "2013 hat so ein System gelernt, dass es gar nicht darauf ankommt, auf Mammografieaufnahmen einen Tumor zu erkennen. Aber wenn es gewisse Gewebeveränderungen erkannte, die noch kein Tumor waren, dann deutete das darauf hin, dass da irgendwo ein Tumor sein muss. Das wussten menschliche Experten bis dahin nicht - dieses Wissen hat die Maschine sozusagen dem Menschen geschenkt."

Fotostrecke

28  Bilder
Rundgang: Das ist die neue Cebit

Einen Königsweg zur erklärbaren KI aber gibt es noch nicht, nur eine ganze Reihe verschiedener Ansätze. Um nur zwei zu nennen: Wie bereits im vergangenen Jahr etwa stellt das Fraunhofer Heinrich-Hertz-Institut (HHI) auf der Cebit eine Analysemethode namens "Layer-wise Relevance Propagation" (LRP) vor, ein Musterbeispiel für "KI-Tomografie".

LRP beruht auf der Idee, den Entscheidungsprozess eines neuronalen Netzes rückwärts laufen zu lassen und dabei zu beobachten, an welcher Stelle welche künstlichen Neuronen aktiviert wurden und welchen Einfluss das auf die endgültige Entscheidung hatte. Dieser an sich rein mathematische Vorgang wird auf einer Heatmap visualisiert. Im Fall einer Gesichtserkennung etwa färbt die HHI-Software jene Bereiche eines Gesichts rot ein, die für die Erkennung letztlich entscheidend waren.

Offenlegung von Algorithmen verhindern

Sandra Wachter hat ein anderes Konzept mitentwickelt, die sogenannten "Counterfactual Explanations". Sie beschreibt es so: "Wenn ich ein Darlehen beantrage, aber keines bekomme, dann habe ich kein großes Interesse daran, dass mir jemand erklärt, wie der Algorithmus technisch aufgebaut ist. Sondern ich will wissen, woran es gelegen hat." Counterfactual Explanations leisteten genau das: "Sie sagen mir, welche der Daten, die ich angegeben habe - zum Beispiel Einkommen, Beruf oder Familienstand - anders hätten sein müssen, um ein Darlehen zu bekommen."

Umgesetzt würde das in Form von Algorithmen, eingebettet in das jeweilige System, das sie erklären sollen. "Das geht mit zwei Zeilen Code", sagt Wachter. Die Vorteile von Counterfactual Explanations: Sie funktionieren prinzipiell in vielen verschiedenen Systemen, sind für Laien verständlich, erklären jeden Einzelfall, zwingen ADM-Betreiber nicht zur Offenlegung ihrer Algorithmen und damit möglicherweise von Geschäftsgeheimnissen - und geben zu wenige Informationen preis, die man verwenden könnte, um ein ADM-System zu überlisten.

Die Nachteile: Wenn sich ein neuronales Netz schnell verändert, weil es ständig dazulernt, trifft eine Erklärung von heute eventuell morgen nicht mehr zu. Für Systeme in sicherheitskritischen Bereichen wie zum Beispiel beim autonomen Fahren sind die Erklärungen außerdem zu ungenau. "Counterfactuals sind deshalb ein guter Mittelweg", sagt Wachter. "Wir können damit ein bisschen erklären - und wir sollten weiterarbeiten, bis wir alles erklären können." Ganz so leicht lässt sich eine KI eben nicht durchleuchten.



insgesamt 14 Beiträge
Alle Kommentare öffnen
Seite 1
alternativlos 15.06.2018
1. KI ist totalitär
Die Hinwendung zum Menschen schließt die Menschwerdung, das Menschsein und das Menschnichtsein ein, der einem permanenten Prozess des sozialen Zusammenlebens folgt. Diese zwischenmenschlichen Interaktionen durch automatische Algorithmen erfahren zu lassen, verändert nicht nur die Wahrnehmung unserer Gedanken. Wir begreifen auch nicht mehr das Lebensgefühl von menschlicher Wärme, die jedem Denken vorausgeht. Erst wenn wir verstehen, dass unser Geist kein effizientes Instrument einer selbstüberholenden KI sein darf, spüren wir welchen Wert an sich das wiedererlangen einer einfachen Seele hat. Seelen heilen Menschen, KI zerstört diese.
gersois 15.06.2018
2. Naiv!
"Wer stellt denn schon infrage, ob die angezeigte Route wirklich die beste ist?" Jeder, der schon wieder über Feldwege statt breite Straßen geführt wurde! Ist auf dem Lande nicht so selten. Es sollte eigentlich selbstverständlich sein, die Entscheidungen von Algorithmen überprüfen zu können. Software ist nicht fehlerfrei! Und die Nachvollziehbarkeit einer Entscheidung ist einerseits notwendig, um die Korrektheit der Software zu sehen, andererseits um dem Betroffenen die Gründe darlegen zu können. Computerdiagnosen ohne offen gelegten Befund sind doch hoffentlich nur ein Witz.
squire0815 15.06.2018
3. Computer say no/ yes oder Willkommen in der Datendiktatur
Eines der größten Problemen bei dem Einsatz von KIs ist die Entscheidungsdiffusion, d.h. ein Entscheider wird sich im Zweifel immer auf den " Computer" berufen. Ähnliches haben wir ja schon bei der Bankenkrise erlebt. Das System hat so entschieden , dass muss so richtig sein. Im Grunde genommenen müsste die wissenschaftliche Methode der Falsivizierung hier angewendet werden. Der Computer hat nur ein Modell der ( eine Beschränkte Sicht ) auf die Welt, die es bewertet. Also wird immer irgendwo falsch sein. Das müsste dann mit einer Ethischen Basiseinstellung kompensiert werden. Asimov mit seinen Robotergesetzen wäre da schon ein Anfang. Aber das ist ja so 1950 und zudem nicht neoliberal wo die heilenden Kräfte der Marktes alles ins Chaos stürzen....
da_pheles 15.06.2018
4. positiv
KI's sind der Weg zu mehr Objektivität, Gleichbehandlung und schnellen nichtemotionalen Entscheidungen. Man darf durchaus skeptisch sein, denn KI's lassen sich durch Selektion der Trainingsdaten in ihrer Entscheidungstendenz beeinflussen, doch in gleicherweise mit Testdaten überprüfen. In der komplexen Welt wie heute wird es bald nicht mehr ohne technische Unterstützung weiter gehen. Wäre es nicht besser, wenn juristische Streitigkeiten in Minuten statt in Jahren von Tisch wären? Der Straßenverkehr auf Null Todesopfer zu reduzieren? Es gibt mehr Vorteile als Nachteile, und die Gesellschaft kann mit KIs nur besser werden. Wer Angst vor KIs hat, hat zu oft Terminator geschaut!
larsmach 15.06.2018
5. Navigationssysteme verwenden keine Mustererkennung!
Zitat von gersois"Wer stellt denn schon infrage, ob die angezeigte Route wirklich die beste ist?" Jeder, der schon wieder über Feldwege statt breite Straßen geführt wurde! Ist auf dem Lande nicht so selten. Es sollte eigentlich selbstverständlich sein, die Entscheidungen von Algorithmen überprüfen zu können. Software ist nicht fehlerfrei! Und die Nachvollziehbarkeit einer Entscheidung ist einerseits notwendig, um die Korrektheit der Software zu sehen, andererseits um dem Betroffenen die Gründe darlegen zu können. Computerdiagnosen ohne offen gelegten Befund sind doch hoffentlich nur ein Witz.
Navigationssysteme verwenden klare, spezifisch programmierte Algorithmen - keine Mustererkennung wie Gehirne es schnell (und KI Systeme es - noch - langsam vollbringen). Das ist logisch: Das eine muss präzise (!) aus klar vorhandenen Wege-Entfernungsdaten eine Route berechnen, das andere aus unscharfen, unvollständigen Eingaben eine "nur" optimale Lösung herausfiltern! Zwei völlig verschiedene Herangehensweise, und dieser Paradigmenwechsel in der Informatik und seine Folgen scheinen durch das Publikum völlig unterschätzt in seinen Auswirkungen.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.