Künstliche Intelligenz "Wenn wir Roboter wie Sklaven behandeln, werden sie rebellieren"

Deutschland soll ein führender Standort für künstliche Intelligenz werden. Entsprechende Studiengänge gibt es bereits, aber was lernt man da eigentlich? Ein Professor für Humanoide Robotik erklärt.

ddp images

Ein Interview von


Chihira Junco hat lange schwarze Haare, sie trägt einen grauen Anzug und eine weiße Bluse und schaut meist sehr ernst. Sie spricht Japanisch, Chinesisch, Englisch und Deutsch, kann Zeichensprache und arbeitet in einem Touristeninformationszentrum in Tokio. Nadine ist Rezeptionistin an der Nanyang Technological University in Singapur. Und Sophia hat zwar weder Haare noch einen richtigen Job, aber sie tourt gern durch Fernsehsendungen.

Chihira Junco, Nadine und Sophia sind humanoide Roboter. Sie sehen also menschlich aus, ahmen menschliche Bewegungen nach, sie lächeln und zwinkern, schauen böse oder traurig - und können darauf reagieren, was andere ihnen sagen. In Japan hat der humanoide Roboter Matsuko bereits eine eigene TV-Show- zusammen mit seinem menschlichen Doppelgänger.

Aufstieg der Roboter - Die Humanoiden kommen

Rai Italia

Auch in Deutschland gibt es bereits erste humanoide Roboter auf dem Arbeitsmarkt. Für ein Berliner Modelabel verkaufen sie Kleidung und Spielzeug. In einer Fürther Supermarktfiliale beantwortet Roboter Pepper Fragen der Kunden, in München nutzt ein Hotel einen Roboter, um Gäste zu empfangen. Ein Seniorenheim in Erfurt setzte testweise Roboter ein, um den Bewohnern Gesellschaft zu leisten - in der Schweiz spielen Roboter mit Dementen und heben Senioren aus dem Bett.

Gute Berufsaussichten

Wissenschaftler gehen davon aus, dass humanoide Roboter in Supermärkten, in Hotels oder Pflegeeinrichtungen in den nächsten Jahren keine Seltenheit mehr sein werden. Auch die Bundesregierung hat die Dringlichkeit des Themas erkannt, am Mittwoch hat sie erste Eckpunkte für eine Strategie zur künstlichen Intelligenz (KI) beschlossen. Im Herbst soll das Konzept fertig sein. Einer der Kernpunkte: eine bessere Bezahlung von KI-Experten. Gute Aussichten also für Studenten, die sich auf künstliche Intelligenz spezialisieren wollen.

Etliche Hochschulen bieten schon entsprechende Studiengänge an. An der Beuth Hochschule für Technik in Berlin startet im Wintersemester der Studiengang Humanoide Robotik. Manfred Hild, Professor für Digitale Systeme, hat den Studiengang zusammen mit Kollegen und Studierenden konzipiert - und erzählt hier, warum er selbst auf virtuelle Assistenten wie Siri oder Alexa verzichtet.

Zur Person
  • Forschungslabor Neurorobotik, Berlin
    Manfred Hild hat an der Universität Konstanz Mathematik und Psychologie studiert und an der Humboldt-Universität zu Berlin promoviert. Seit vier Jahren ist er Professor für Digitale Systeme an der Beuth Hochschule für Technik Berlin. Dort beschäftigt er sich unter anderem mit neuronalen Netzen, humanoider Robotik, Sensomotorik und audiovisueller Wahrnehmung.

SPIEGEL ONLINE: Herr Hild, welcher Roboter hilft Ihnen im Alltag?

Manfred Hild: Ich habe weder einen Roboter zu Hause noch einen virtuellen Assistenten. Den Roboter brauche ich nicht, weil ich schon seit vielen Jahren eine Putzfrau habe, und ich verzichte auf virtuelle Assistenten wie Siri, Alexa oder Amazon Echo, weil sie Daten von mir aufzeichnen und an Unternehmen weitergeben könnten. Das finde ich ethisch höchst fragwürdig.

SPIEGEL ONLINE: Sie tragen doch aber dazu bei, dass es in Zukunft mehr Roboter geben wird. Wie können Sie da virtuelle Assistenten ablehnen?

Hild: Humanoide Roboter sind das Gegenteil virtueller Assistenten: Sie funktionieren als autonome Systeme, senden keine Daten nach außen, lagern auch keine Rechenleistung aus. Ihre Intelligenz befindet sich im Körper und nicht außerhalb.

SPIEGEL ONLINE: Ihre Studenten werden sich also hauptsächlich mit künstlicher Intelligenz in einem künstlichen Körper beschäftigen?

Hild: Wir beschäftigen uns mit Elektrotechnik, Programmierung, Mechatronik und der Mensch-Maschine-Interaktion. Wir werden löten und fräsen. Am Ende sollen dabei humanoide Roboter rauskommen, aber vielleicht baut jemand auch nur einen Arm oder einen Kopf. Wir stellen uns aber auch die Frage, wie sich biologische von technischen Systemen unterscheiden. Vor allem wollen wir herausfinden, wie Intelligenz in Körpern entstehen kann, wie viel man vorgeben muss und wie viel sich von selbst entwickelt. Dabei geht es aber vor allem um ethische Aspekte.

Fotostrecke

4  Bilder
Chihira, Nadine und Sophia: Die neuen Kollegen

SPIEGEL ONLINE: Inwiefern?

Hild: Wir erschaffen intelligente Roboter und erwarten von ihnen, dass sie für uns Handlangerdienste erledigen oder auch Verletzte aus Katastrophengebieten holen. Sie sollen unsere Knechte sein. Aber wenn ein System Intelligenz zeigt, hat es eigene Bedürfnisse. Es hat ein Gedächtnis, merkt sich etwa, wer gut zum ihm war. Unseren Studenten ist das hoffentlich bewusst.

SPIEGEL ONLINE: Aber humanoide Roboter bleiben doch Maschinen, die man ausschalten kann, oder?

Hild: Selbstverständlich kann man sie ausschalten, aber sobald eine Maschine eine Ich-Identität entwickelt und dann wie jedes andere Individuum auch eigene Ziele hat, wird die Maschine vielleicht lieber selbst entscheiden, wann sie sich ausschaltet.

Im Video: Mensch-Maschine-Interaktion

REUTERS

SPIEGEL ONLINE: Ihre Studenten müssen also gut zu den Robotern sein?

Hild: Wir bringen hoffentlich Absolventen hervor, die reflektiert und mündig genug sind, zu wissen, was sie mit ihrem Wissen anstellen werden. Wenn die Menschen humanoide Roboter wie Sklaven behandeln, dann werden sie irgendwann rebellieren - so wie die meisten unterdrückten Völker in der Geschichte. Sie werden aufständisch, wenn sie unterdrückt werden. Wir müssen uns also genau überlegen, wie wir mit Systemen umgehen, die wir selber schaffen.

SPIEGEL ONLINE: Das klingt wie Science Fiction. Können wir denn irgendwann die Kontrolle über die Roboter verlieren, die wir selbst schaffen?

Hild: Die Verantwortung liegt hier ganz klar bei denjenigen, die anderen beibringen, technische Systeme zu konstruieren. Daher muss es einen moralischen Grundkodex bei der Ausbildung geben.

SPIEGEL ONLINE: Wie sieht der aus?

Hild: Wir werden keine Regeln aufstellen oder die Studierenden moralisch zu impfen versuchen, sondern stattdessen die Diskussion über diese Themen anregen, fördern und fortführen. Die Fragen, die sich die Studierenden stellen sollten, werden also eher sein: Welches Ziel verfolge ich mit dem Bau dieses Roboters? Welche Ziele soll der Roboter verfolgen, wenn er gebaut ist? Und welche ethischen, rechtlichen und sozialen Aspekte müssen sie jetzt oder später berücksichtigen? Ziel ist es aber, einen Beitrag zu einer humanen, verantwortungsvollen Gemeinschaft zu leisten.

SPIEGEL ONLINE: Müssen wir Angst davor haben, dass humanoide Roboter in die falschen Hände geraten?

Hild: Ich hoffe zwar nicht, dass humanoide Roboter in Diktaturen hergestellt werden, aber das kann man nicht ausschließen. Wenn es Diktatoren gelingt, sie für sich zu nutzen, dann könnten sie gefährlich werden. Allerdings muss man bedenken, dass intelligente Roboter sich auch eine eigene Meinung bilden und sich gegen böse Machthaber wehren können.

insgesamt 148 Beiträge
Alle Kommentare öffnen
Seite 1
ex rostocker 19.07.2018
1. Lernen von "Raumschiff Orion" !
Die Theorie von rebellierender künstlicher Intelligenz ist uralt! Schon 1968 wurde das Thema in der Serie "Raumschiff Orion" dramaturgisch verwendet. Inner noch aktuell! Von Dietmar Schönherr lernen, heißt siegen lernen!
Mario Herger 19.07.2018
2. Experte ohne Erfahrung
Au Mann! Ein "Experte" und "Professor für Digitale Systeme" der sich weigert selbst Roboter und virtuelle Assistenten einzusetzen und so auszutesten. Wie sammelt dieser Herr Erfahrung dazu? Reines Buchwissen? Andere "Experten"die ihm davon erzählen? Wie will er solche System in aller Tiefe und Möglichkeit verstehen und dieses Wissen weitergeben? Solche Profs an deutschen Unis erklärt warum Deutschland digitalen Wüste ist.
MtSchiara 19.07.2018
3. Roboter haben keine eigenen Ziele
---Zitat von Artikel--- Hild: Wir erschaffen intelligente Roboter und erwarten von ihnen, dass sie für uns Handlangerdienste erledigen oder auch Verletzte aus Katastrophengebieten holen. Sie sollen unsere Knechte sein. Aber wenn ein System Intelligenz zeigt, hat es eigene Bedürfnisse. Es hat ein Gedächtnis, merkt sich etwa, wer gut zu ihm war. Unseren Studenten ist das hoffentlich bewusst. ---Zitatende--- Ein Roboter kann keine eigenen Ziele entwickeln, sondern verfolgt die Ziele, die ein Mensch ihm einprogrammiert hat. Er besitzt lediglich die Fähigkeit, selbständig zu lernen, wie er besonders effizient und effektiv die Ziele erreichen kann, die der Mensch ihm einprogrammiert hat. Um eigene Ziele zu haben, braucht man ein eigenes Bewußtsein. Ein Bewußtsein wurde den Robotern aber nicht einprogrammiert, da völlig unbekannt ist, wie Bewußtsein entsteht und wie man Bewußtsein in einer Maschine Entscheidungen treffen läßt. Roboter simulieren für den Menschen Bewußtsein, besitzen aber keines - und somit besitzen sie auch keine eigenen Ziele.
reichsvernunft 19.07.2018
4. ..KI ist kein Mensch.
Erstens sind wir weit, weit, weit davon entfernt lernende Netzwerke zu schaffen, die ein Bewusstsein entwickeln können, und selbst dann müssten die Dinger erstmal recht mühseelig lernen kreativ zu agieren. Da fehlt einfach die Rechenleistung. Wer berechenbar ist, ist nicht gefährlich, ähnlich dem Deutschen Wähler. Zweitens kommt KI ohne die riesige Deponie evolutionär gewachsenen psychologischen Ballasts daher. Ein Mensch beispielsweise, der keine Angst kennt, keinen Selbsterhaltungstrieb hat, kein Gewinnstreben, keine soziale Profilierungssucht und allgemein all das nicht, was uns so ein bisschen irre und menschlich macht, hätte wohl auch kein Problem damit berechenbar genau bei seiner Aufgabe zu bleiben. Der Mann hat recht, dass es wichtig ist, einen moralischen Basiskanon für Entwickler zu etablieren, die diese Aufgaben definieren, aber der große Aufstand setzt auch menschliche Motivationen vorraus. Sehr fraglich, ob KI diese Art von Junk-code in der Form haben wird. Zu guter Letzt... echte künstliche Intelligenz, mit Bewusstsein, Selbstbestimmung etc. wäre ein Meilenstein der ein neues Zeitalter einläuten könnte, und es wäre fraglich ob man selbst einer einzigen gegenüber Chancen hätte, da sich eine solche, als reine Datenmasse, unbegrenzt ausbreiten und duplizieren könnte. Würde es zu soetwas kommen müsste man dem Ding wohl Menschenrechte einräumen - was jedem halbwegs klardenkenden solchen auch klar sein müsste. Das hat aber nichts - gar nichts - damit zu tun ob dieses Elektronenhirn in einer anheimelnden humanoiden Verpackung steckt oder auf einem großen grauen Kasten in irgend einem Keller läuft. Ich sehe da schon wieder Ansätze eines seltsamen Chauvinismus. Dümmliche Apparate die Aussehen wie Menschen werden dann "nett" behandelt, und der ehemalige Algorithmus vom Pizzadienst der mittels cloud-computing ein reales Bewusstsein erlangt wird weder erkannt noch irgendwie behandelt.
Cleartarga 19.07.2018
5.
Das (fehlende) Echo auf den Beitrag beweist, dass viele Menschen die Entwicklung von KI völlig unterschätzen. Das ist - psychologisch gesehen - normal, ändert allerdings nichts an der Tatsache, dass wir uns mit diesem Thema beschäftigen sollten. Der Mensch lebt geistig in der Gegenwart und beschäftigt sich ungern mit der (ferneren) Zukunft. In der Robotik, sprich KI, denn beides geht Hand in Hand, findet eine schleichende Intelligenzentwicklung statt. Das ist ein Fakt, auch wenn zahlreiche Menschen das nicht wahrhaben wollen. Die Atombombe wurde auch nicht an einem Tag entwickelt und plötzlich war sie da. Es spricht kein rationelles Argument dagegen, dass Roboter ihr eigenes Ich entwickeln werden. Darauf zu vertrauen, dass dies irgendwann passieren wird, ist angesichts der technologischen Entwicklung der letzten 250 Jahre geradezu naiv. Man sollte sich also - als Gesellschaft - mit dem Thema beschäftigen.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.