Künstliche Intelligenz "Facebook möchte seine Macht nicht einsetzen, selbst wenn es das könnte"

Yann LeCun gilt als einer der "Godfathers of AI". Jetzt entwickelt er für Facebook als Chef künstliche Intelligenz, die Falschinformationen erkennen und die Corona-Folgen eindämmen soll. Hier erklärt er die Probleme dabei.
Ein Interview von Sebastian Meineck
Foto: Facebook

Die größten Fortschritte in künstlicher Intelligenz kommen nicht nur aus Universitäten. Auch Konzerne wie Facebook, Google und IBM stecken Millionen in die Forschung. Im Jahr 2013 hat sich Facebook einen der Vordenker der KI-Forschung ins Team geholt, Professor Yann LeCun von der Universität New York.

LeCun gilt als Begründer des Convolutional Neural Network, einer Form des maschinellen Lernens mit neuronalen Netzen, die sich besonders zum Erfassen von Bildern eignet. Aufgrund seiner Pionierarbeit im Bereich Künstlicher Intelligenz in den 1990er Jahren wird er manchmal auch als einer der "Godfathers of Artificial Intelligence " bezeichnet.

LeCun und sein Team entwickeln unter anderem Software, die Menschen per Augmented Reality in eine Ganzkörpermaske stecken  kann, sowie Software, die versucht, die Bedeutung eines Textes zu erfassen . Aktuell arbeiten die KI-Forscher von Facebook unter anderem daran, Falschinformationen über Covid-19 automatisch zu erkennen und mit Warnhinweisen zu versehen . "Falsche Informationen", warnt eine Texttafel über einem betroffenen Post, "von unabhängigen Faktenprüfern geprüft".

Im exklusiven Deutschland-Interview erzählt LeCun an welche Grenzen KI im Kampf gegen Covid-19 auf Facebook stößt - und welche ethischen Ansprüche er gegenüber dem Konzern erhebt.

Zur Person
Foto:

Facebook

Yann LeCun, geboren 1960, ist Chief Scientist von Facebook und leitet das vor fünf Jahren gegründete KI-Forschungszentrum des Unternehmens in Paris (FAIR ). Er arbeitet als Professor für Computer Science an der Universität New York. Für seine Arbeit zu Deep Learning erhielt er im Jahr 2018 mit seinen Kollegen Yoshua Bengio and Geoffrey Hinton den Turing Award , der auch als Nobelpreis der Informatik bezeichnet wird.

SPIEGEL: Herr LeCun, in der Öffentlichkeit gilt künstliche Intelligenz als gruselig und als Gefahr für Arbeitsplätze. Hat sie dieses Image verdient?

LeCun: Bei jeder neuen Technologie haben Menschen Angst, dass sie die gesellschaftlichen Verhältnisse durcheinanderwirft. Und genau das tut Technologie! Meist verändert sie die Welt zum Guten. Bei KI ist die Angst etwas größer, weil wir von Science-Fiction-Filmen geprägt sind. Aber die Realität ist eine andere.

SPIEGEL: In der Realität braucht KI noch menschliche Hilfe, um Desinformation auf Facebook erstmals zu erkennen. Ist das nicht etwas enttäuschend?

LeCun: So ist das mit Technologie. KI fehlt das, was wir guten Menschenverstand nennen. In diesem Sinne ist sie sehr beschränkt. Was wir an KI eher fürchten sollten, ist, dass sie nicht gut genug funktioniert.

SPIEGEL: Auf welche andere Weise setzt Facebook KI gegen die Pandemie ein?

LeCun: Gemeinsam mit der Universität New York haben wir regionale Vorhersagemodelle entwickelt. Das hilft Krankenhäusern, ihre Ressourcen zu planen, etwa Intensivbetten und medizinische Masken. Aktuell kommt das in New Jersey zum Einsatz . Etwas Ähnliches haben wir mit der Uni Wien ausgearbeitet.

SPIEGEL: Auf Facebook dürfen derzeit keine medizinischen Masken verkauft werden, um Missbrauch und Mondpreise zu verhindern. KI soll dabei helfen, das Verbot durchzusetzen und die Angebote zu löschen. Wie funktioniert das?

LeCun: Jedes Foto und Video, das Sie auf Facebook und Instagram hochladen, läuft innerhalb von Sekunden durch eine Bilderkennung. Ihr Upload wird mit einer Datenbank verbotener Inhalte verglichen. Auf diese Weise lassen sich Angebote für medizinische Masken erkennen, aber auch Terrorpropaganda, Kindesmissbrauch und Pornografie. Dann kann dieser Beitrag gelöscht werden.

SPIEGEL: Das klingt nach einer Technologie, die sich auch kinderleicht für politische Zensur missbrauchen ließe.

LeCun: Natürlich kann sie missbraucht werden! Deshalb achtet Facebook extrem genau darauf, sich bei politischen Debatten auf keine Seite zu schlagen. Besonders in den letzten Monaten. Facebook möchte seine Macht nicht einsetzen, selbst wenn es das könnte. Facebook geht mit Technologie verantwortungsvoll um.

SPIEGEL: Andere Plattformen könnten so eine Technologie trotzdem für Zensur nutzen. Bereitet das Ihnen als Wissenschaftler keine Sorge?

LeCun: Jede Technologie kann für gute und schlechte Zwecke eingesetzt werden. Autos erkennen mittels KI, wenn ein Kind auf die Straße läuft und legen eine Vollbremsung ein. Solche Bremssysteme retten jeden Tag Leben, und sie basieren auf meiner Forschung. Aber auch autoritäre Regime können mit KI massenhaft Gesichtserkennung betreiben und Menschen verfolgen. Es hängt von der Stärke unserer demokratischen Institutionen ab, wie Technologie eingesetzt wird.

SPIEGEL: Können Sie sich als Forscher also zurücklehnen und sagen, die Demokratie wird es richten?

LeCun: Über den Einsatz der Technologie muss die Gesellschaft als Ganzes entscheiden. Ich muss darauf vertrauen. Als Wissenschaftler habe ich nicht das Recht, der Öffentlichkeit grundlegende Erkenntnisse vorzuenthalten, nur weil ich Angst vor negativen Folgen habe.

SPIEGEL: Welche rote Linie ziehen Sie für Ihre Forschung?

LeCun: Ich forsche nicht an Waffen und nicht an geheimen Projekten. Als Professor an der Universität New York wurde meine Forschung auch vom US-Verteidigungsministerium finanziert. Aber die Ergebnisse wurden veröffentlicht. Das erweitert das Wissen der Menschheit, und das kann nur gut sein. Facebook hat eine ähnliche ethische Haltung, deshalb arbeite ich dort gern.

SPIEGEL: Wie ist es Facebook gelungen, einen der renommiertesten KI-Forscher der Welt abzuwerben?

LeCun: Mark Zuckerberg hat mich mehrmals angerufen und mir erzählt, er möchte ein KI-Forschungszentrum aufbauen. Zuerst habe ich ihm gesagt, ich kann ihm nicht helfen. Ich wollte nicht aus New York wegziehen und im akademischen Umfeld bleiben. Ein paar Monate später rief er noch einmal an und sagte: Wir wollen, dass du das machst. Und ich sagte ihm, ich hätte da ein paar Bedingungen.

SPIEGEL: Am Ende durften Sie Ihre Stelle an der Universität New York behalten. Welche Bedingungen hatten Sie noch?

LeCun: Alles, was wir für Facebook erforschen, wird veröffentlicht, in den meisten Fällen als offener Quellcode. Nur so können wir die besten Forschenden anwerben. Wenn Sie einem Forscher sagen, komm, arbeite für uns, aber du darfst keinem etwas darüber verraten, dann zerstören Sie dessen Karriere. Der beschleunigte Fortschritt bei KI ist durch offene Forschung wie unsere möglich. Auch Google hat seine KI-Forschung geöffnet, nachdem wir das getan haben.

SPIEGEL: Ende 2019 gab es einen Eklat um eine Zusammenarbeit zwischen Facebook und der TU München. Der Forschungsvertrag erlaubte es Facebook, eine Veröffentlichung der Universität bis zu drei Monate zu verzögern, um Schutzrechte anzumelden. Ist das noch freie Forschung?

LeCun: Es gibt eine Menge Vereinbarungen zwischen Facebook und Universitäten. Diese Art von Restriktion ist mir nicht bekannt. Generell hat Facebook äußerst wenige Patente und nutzt sie nur, um sich abzusichern.

SPIEGEL: Glauben Sie, dass ein reicher Tech-Gigant eine Universität schnell einschüchtern kann?

LeCun: Es gibt da ein paar Firmen aus dem Bereich Hardware und Konsumgüter, die äußerst unangenehm sind. In der Forschung sind sie sehr geheimniskrämerisch. Aber ich werde jetzt keine Namen nennen. Bei all den Firmen, mit denen ich es bisher zu tun hatte, gehört Facebook zu den angenehmsten.

Die Wiedergabe wurde unterbrochen.