MIT-Forscherin im Interview "Künstliche Intelligenz muss entzaubert werden"

Sprachassistenten wie Alexa oder Siri sind vertraute Stimmen, soziale Roboter Spielzeug: Für immer mehr Kinder ist künstliche Intelligenz (KI) heute Alltag. Die Wissenschaftlerin Stefania Druga erforscht, wie sie damit umgehen.

Kinder mit Robotern (Symbolbild)
FRANCK ROBICHON/ EPA-EFE/ REX

Kinder mit Robotern (Symbolbild)

Ein Interview von


SPIEGEL ONLINE: Frau Druga, eine neue Generation wächst ganz natürlich mit KI-Anwendungen auf. Nehmen Kinder diese eher als weiteres Familienmitglied oder als Tech-Objekt wahr?

Stefania Druga: Das kommt auf das Alter der Kinder an. Es gibt viele Studien, die zeigen, dass jüngere Kinder zwischen drei und sieben Jahren bei einem sozialen Roboter oder einem animierten Objekt nicht gut unterscheiden können, ob es sich um ein Lebewesen oder eine Maschine handelt. Smarte Spielzeuge, die sprechen oder laufen, werden von ihnen irgendwo zwischen Person, Tier und Gegenstand wahrgenommen, also weder lebendig noch tot. Wenn Kinder etwas älter werden, etwa von sieben Jahren aufwärts, wird ihnen klar, dass es nur ein Gerät ist - selbst wenn es etwa Gefühle zeigt oder spricht.

Zur Person
  • Alex Galmeanu
    Stefania Druga, Jahrgang 1986, forscht an der University of Washington zu Kindern und KI. In der "Personal Robots Group" am Massachusetts Institute of Technology (MIT) hat sie Cognimates entwickelt, eine Open-Source-Plattform für KI-Bildung. Ihre Initiative HacKIDemia vermittelt Kindern in Workshops weltweit den Umgang mit Robotern und künstlicher Intelligenz.

SPIEGEL ONLINE: Sie arbeiten und forschen in vielen Ländern. Welche kulturellen Unterschiede prägen den Umgang mit künstlicher Intelligenz?

Druga: Sprachassistenten wie Alexa und smartes Spielzeug werden in anderen Ländern seltener genutzt als in den USA - deshalb sind die Wahrnehmung, das Verständnis und der Umgang mit diesen Geräten unterschiedlich. Es ist etwas Neues für Kinder, die solche Geräte noch nicht zu Hause haben, und die Anwendungen sind auch nicht in allen Sprachen verfügbar. Manche Kulturen sind außerdem bei Themen wie Privatsphäre und Datenschutz eher sensibel.

SPIEGEL ONLINE: So wie Deutschland?

Druga: Gerade in Deutschland trauen die Kinder den Geräten am wenigsten. Als sie zu meinem Workshop kamen, erwarteten sie, dass Alexa nicht ehrlich auf ihre Fragen antworten, sondern versuchen würde, sie zu täuschen. Sie hatten also bereits durch die Medien und die Gesellschaft eine negative Einstellung der Technologie gegenüber. Die Kinder haben nicht unbedingt anders mit den Geräten interagiert, aber sie haben die Antworten anders interpretiert. Sie hatten zum Beispiel das Gefühl, dass Alexa lügt und gar nicht wissen kann, wer Bundespräsident in Deutschland ist - weil sie nicht aus Deutschland kommt.

SPIEGEL ONLINE: Ist die Skepsis gut oder schlecht?

Druga: Es ist nicht unbedingt ein gutes Phänomen. Medien präsentieren solche Geräte oft mit einem von Angst getriebenen Narrativ, aber es ist komplexer. Ich arbeite an der Demokratisierung dieser Technologie: Jeder sollte über künstliche Intelligenz sprechen können, sie nutzen und besser verstehen können, wie sie funktioniert. Dazu gehört auch zu erkennen, in welchen Fällen sie etwas Positives bewirken kann und in welchen Fällen man besser darauf verzichtet.

SPIEGEL ONLINE: Stellen viele Eltern ihren Kindern bereits Regeln auf, wie viel Zeit sie zum Beispiel mit KI-Objekten verbringen dürfen?

Druga: Ich glaube nicht, dass das weitverbreitet ist. Es gibt Eltern, die ihren Kindern beibringen, "Danke" und "Bitte" zu sagen, wenn sie sich mit Sprachassistenten unterhalten. Aber allgemein gibt es bisher weniger strikte Regeln als bei "Screentime", also wie lange Kinder den Fernseher oder das Smartphone nutzen dürfen.

SPIEGEL ONLINE: Welche Rolle spielen Eltern und das soziale Umfeld generell?

Druga: Wir haben in einer Studie in den USA erforscht, wie Kinder künstliche Intelligenz wahrnehmen und damit interagieren. Deutlich ist: Kinder, bei denen die Familien ein niedriges und mittleres Einkommen hatten, waren anfangs darin besser zusammenzuarbeiten. Sie hatten aber Schwierigkeiten voranzukommen, da sie weniger Erfahrung mit der Programmierung und der Interaktion mit diesen Technologien hatten. Kinder aus einem wohlhabenderen Umfeld hatten anfangs Schwierigkeiten bei der Zusammenarbeit, zeigten aber ein besseres Verständnis für KI-Konzepte.

SPIEGEL ONLINE: Was muss getan werden, um die soziale Kluft in diesem Bereich zu verringern?

Druga: Künstliche Intelligenz muss entzaubert werden. Kinder werden davon beeinflusst, welche Haltung andere Menschen in ihrem Umfeld zu der Technologie haben. Doch die Wahrnehmung und die Interaktion von Kindern mit künstlicher Intelligenz verändert sich, wenn sie lernen, sie zu programmieren. Sobald Kinder und Eltern verstehen, dass sie den Computer oder Sprachassistenten in einer laufenden Konversation trainieren können, demystifiziert es, wie intelligent diese Geräte sind. Sie verstehen, dass der Algorithmus und die Daten dahinter von Menschen entwickelt worden sind. Ist der Prozess erst entzaubert, lernen Eltern und Kinder, die Geräte so zu nutzen, dass sie tun, was sie wollen.

SPIEGEL ONLINE: Wie gelingt es, Kindern diese doch sehr komplexe Technologie zu vermitteln?

Druga: Es muss Spaß machen. Wenn man mit Kindern über autonom fahrende Autos sprechen möchte, ist das langweilig für sie. Künstliche Intelligenz ist auch viel mehr als Alexa - was ja nur ein kommerzielles Produkt ist. Zwar gibt es viele smarte Spielzeuge, aber auch Kinder ohne Zugang zu Alexa oder einem KI-Roboter wie Cozmo müssen die Möglichkeit haben, solche Fähigkeiten zu erwerben. Deshalb entwickeln wir auch Open-Source-Tools für Kinder. Mit der Plattform "Cognimates" können sie Programme für vernetzte Gegenstände, also das Internet der Dinge, entwickeln, aber auch webbasierte Anwendungen.

SPIEGEL ONLINE: Wie funktioniert das konkret?

Druga: Wenn sie mit dem Computer spielen wollen, müssen sie ihm zum Beispiel ein Spiel wie "Schere, Stein, Papier" beibringen, und ihn trainieren, damit er Fotos von einem Stein oder einer Schere erkennt. Je häufiger sie das Spiel spielen, desto öfter können sie dem Computer Feedback geben, ob er etwas richtig oder falsch macht. Das macht den Kindern Spaß und zeigt anschaulich, wie ein Computer darauf trainiert wird, ein Foto zu erkennen.

SPIEGEL ONLINE: Inwieweit vermitteln solche Anwendungen auch einen kritischen Umgang mit künstlicher Intelligenz?

Druga: Kinder lernen auch, dass der Computer nur weiße Hände erkennt, wenn man ihn nur mit Bildern von weißen Händen trainiert. Sie verstehen so tiefe Fragen von Verzerrungseffekten und Fairness, aber auf eine sehr greifbare Art und Weise. Sie erkennen: Wenn sie mit ihren Freunden spielen wollen, ist es wichtig, dass die Anwendung die Hände von allen erkennt - damit alle zusammen spielen können.

SPIEGEL ONLINE: Muss man sich also keine Sorgen um die KI-Generation machen?

Druga: Kinder verstehen Technologie viel differenzierter als Erwachsene und sind viel offener. Sie verstehen, dass Technologie auch in Zukunft wichtig ist und dass wir verstehen müssen, wie sie funktioniert - auch wenn es Risiken gibt und wir darüber diskutieren müssen, was wir automatisieren wollen und was nicht.



insgesamt 21 Beiträge
Alle Kommentare öffnen
Seite 1
rpb76 05.03.2019
1. Ich mag
altmodisch sein, aber Firlefanz wie diese Sprachassistenten oder "KI Spielzeug" mit Internetanbindung kommt mir nicht ins Haus. Habe auch kein Interesse daran dass alle Haushaltsgeräte vernetzt sind etc. Demnächst (oder jetzt schon?) gilt man als rückständig wenn man sich dem KI Konsumterror 4.0 verweigert. Meine Kinder hatten mal einen Tag Spaß an "ok, Google" aber das wars dann auch. Natürlich ist es wichtig dass die Kinder den sinnvollen Umgang mit Computern, Smartphone, Tablet etc. lernen und verstehen wie Programmierung und Wissenserwerb übers Internet funktioniert. Aber muss das mit Convenience Produkten passieren die man im Grunde nicht braucht und die einem aus wirtschaftlichen Interessen als besonders wichtig suggeriert werden? Und warum muss man Stein Schere Papier mit einer KI spielen wenn man es mit echten Freunden spielen könnte? Da fällt mir spontan plötzlich noch das selbstfahrende Auto ein.. Die Summen die da in die Entwicklung fließen wären mit Sicherheit sinnvoller angelegt in der Forschung nach neuen sauberen Antriebstechniken. Aber so wird ja auch fein die Wirtschaft angekurbelt weil ohne flächendeckendes 5G oder noch schneller geht da vermutlich nichts bei den Datenmengen die da permanent hin und hergesendet werden sollen. Ich sehe da eine gewisse Degeneration des Menschen, bald kann er nichts mehr selber weil ihm alles abgenommen wird..
Kinski2003 05.03.2019
2. Das ist alles noch keine KI
Alexa und Co haben noch lange nichts mit einer KI zu tun, das sind alles dumme Sprachassistenten, nicht mehr, da steckt keinerlei Intelligenz dahinter. Die können nicht einen Zentimeter von einer vorgegebenen Programmierung abweichen
mayazi 05.03.2019
3. Rückständig
Hallo rpb76, nein, man wirkt nicht rückständig, wenn man bestimmte Dinge verweigert. Man wirkt dann rückständig, wenn man nicht bemerkt, dass man mit größter Selbstverständlichkeit Dinge benutzt, die von älteren Generationen mal als Firlefanz abgetan wurden, die den Menschen degenerieren lassen (wie dieses seltsame Internet. Oder Elektrizität. Oder das Rad.) und mit ebenso großer Selbstverständlichkeit davon ausgeht, dass jede weitere Entwicklung Firlefanz sei, die den Menschen degenerieren lässt.
edelgero 05.03.2019
4. Verstehen
klar muss Kindern der Umgang mit KI beigebracht werden. Ebenso aber auch das Bewusstsein, das ein System das auf o.k.Google oder Alexa reagiert, das nur kann wenn es permanent alles aus seiner Umgebung wahrnimmt. Ferner sollte vermittelt werden warum das jemand macht, und was mit den gewonnen Daten angestellt wird. Wenn das jedem Kind klar ist, kann damit auch vernünftig umgegangen werden. Servus
taglöhner 05.03.2019
5.
Zitat von Kinski2003Alexa und Co haben noch lange nichts mit einer KI zu tun, das sind alles dumme Sprachassistenten, nicht mehr, da steckt keinerlei Intelligenz dahinter. Die können nicht einen Zentimeter von einer vorgegebenen Programmierung abweichen
Nicht der Service, aber die Stimm/Spracherkennung selbst geht auf einen Lernprozess zurück. Also schon KI.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.