Christian Stöcker

Forschung der Tech-Konzerne Die Privatisierung der Intelligenz

Viel ist derzeit von der Dominanz von Google, Microsoft und Co. die Rede - zu selten aber von den Folgen, die das haben könnte - der Privatisierung wissenschaftlichen Erkenntnisgewinns.
Google-Dependance in New York

Google-Dependance in New York

Foto: Sean Gallup/ Getty Images

"Diese Firmen hier investieren kräftig in maschinelles Lernen und künstliche Intelligenz . Das tun sie, indem sie mehr und mehr Daten über euch, mich und alle anderen sammeln."
Katharine Jarmul im Vortrag " Deep Learning Blindspots  " beim Chaos Communications Congress

Programmkomitees wissenschaftlicher Tagungen bestehen in der Regel aus Forschern, die an Universitäten und anderen öffentlichen Forschungseinrichtungen arbeiten. In einem Gebiet aber ist das schon seit einiger Zeit nicht mehr so: Wenn es um maschinelles Lernen geht nämlich, also um die technische Basis dessen, was aktuell unter dem Schlagwort künstliche Intelligenz verhandelt wird.

Die 1987 begründete Konferenz Neural Information Processing Systems (NIPS), einst eine obskure Veranstaltung, heute ein - massiv männerdominiertes - Superstar-Event, ist ein hervorragendes Beispiel. Dem 17-köpfigen Programmkomitee der jüngsten Tagung, die Anfang Dezember in Kalifornien stattfand, gehörten drei Angestellte von Microsoft an, ein Google-Mitarbeiter, einer von Facebook und fünf, die für Amazon arbeiten.

Berge von Geld, Hardware - und kluge Köpfe

Manche der Firmenforscher haben parallel auch noch Jobs an Universitäten, aber das ändert wenig: Die Forschungsgebiete maschinelles Lernen und künstliche Intelligenz werden von den gleichen fünf Unternehmen dominiert, die auch sonst gerade unser Leben und Teile der Wirtschaft umkrempeln: Apple, Alphabet/Google, Microsoft, Amazon und Facebook. In China spielen die dortigen Tech-Giganten Alibaba und Tencent eine ähnliche Rolle.

Die fünf und ihre chinesischen Pendants haben, was man braucht, um auch bei der nächsten Revolution, die unser aller Leben massiv verändern wird, wieder vorn dabei zu sein: der Konstruktion und des Betriebs lernender Systeme. Sie haben Zugriff auf Unmengen von Daten, die wir alle ihnen liefern, wie die Entwicklerin Katharine Jarmul das in ihrem eingangs zitierten Vortrag auf dem Kongress des Chaos Computer Clubs in Leipzig vor ein paar Tagen formuliert hat.

Und sie haben das nötige Geld, um in Hardware und Personal abenteuerliche Summen zu investieren. Dabei macht es zunächst gar nichts, wenn die eingekauften KI-Fachleute erst einmal spektakuläre, aber schwer zu monetarisierende Spielereien wie Deepminds AlphaGo Zero entwickeln.

Früher oder später wird sich all die Forschung darüber, was lernende Systeme mit riesigen Datenmengen anstellen können, von allein in Gold verwandeln, das ist das Kalkül. Sie werden Verkehr, Gesundheitswesen, Werkstoffentwicklung, industrielle Abläufe, den Krieg und das friedliche Zusammenleben der meisten Menschen verändern und dabei viel Geld machen.

Wozu noch promovieren? Wozu an der Uni bleiben?

Dieses Kalkül bekommen derzeit nicht zuletzt diejenigen zu spüren, die sich auch für diese Themen interessieren: KI-Start-ups zum Beispiel, die im Zweifel von den Giganten einfach aufgekauft werden , und sei es nur, um an ihr Personal zu kommen. Und Hochschulen und Forschungsinstitute, denn die finden in diesem Bereich nur noch mit Mühe Menschen, die dazu zu überreden sind, beispielsweise eine Promotion im Bereich maschinelles Lernen in Angriff zu nehmen.

Warum die Mühen der akademischen Welt, mit Lehrverpflichtung, eingeschränkten Ressourcen und mühsam zusammengekratzten Daten zum Trainieren der eigenen Software in Kauf nehmen, wenn man für ein Vielfaches des Doktorandengehalts direkt bei einem der Großen einsteigen kann? Bei denen, die auf den Datenbergen sitzen?

Die Wissenserzeugung selbst wird privatisiert

Entsprechende Berichte aus den Informatikfakultäten von Hochschulen  gibt es bereits aus mehreren europäischen Ländern , und auch an deutschen Hochschulen kann man, wenn auch eher im privaten Gespräch, Geschichten hören von Studenten, die direkt nach dem Masterabschluss abgeworben werden, obwohl man sie gerne dabehalten hätte.

Eine technologische Entwicklung, die extrem weitreichende Folgen haben wird, schreitet in atemberaubendem Tempo voran, ständig wird neues Wissen, werden neue Modelle und Methoden generiert. Aber ein gewaltiger Teil dieses Wissens entsteht nicht an öffentlichen Einrichtungen, die ihre Forschungsergebnisse grundsätzlich der Allgemeinheit zugänglich machen - sondern unter dem Dach einiger weniger Privatunternehmen.

Die Schaffung von Wissen selbst wird privatisiert. Auch wenn die Unternehmensforscher viel veröffentlichen - am Ende wird der Shareholder-Value das öffentliche Interesse im Zweifel schlagen.

Die Schildkröte, die für ein Gewehr gehalten wird

Was Mono- oder Oligopole im Bereich fundamentaler Informationstechnologien für Folgen haben können, zeigen die Chip-Sicherheitslücken "Spectre" und "Meltdown" derzeit sehr deutlich: Wenn die Systeme der Monopolisten eine Macke haben, dann betrifft diese Macke plötzlich den ganzen Planeten. In die Entdeckung der gravierenden Sicherheitslücken waren Fachleute privater IT-Sicherheitsfirmen involviert - und eine ganze Reihe von Forschern von diversen Universitäten in Australien, den USA und Österreich.

Die eingangs zitierte Katharine Jarmul zeigte in ihrem Vortrag eindrucksvolle Beispiele dafür, wie sich die neuen, lernenden IT-Systeme austricksen lassen. Ein besonders lustiges, aber auch Furcht einflößendes: Forscher vom MIT in Boston haben mit einem 3D-Drucker und ein bisschen Farbe eine Plastikschildröte produziert .

Das Tierchen wird von einem gängigen, von Google-Forschern entwickelten System zur Objekterkennung verlässlich als Gewehr klassifiziert, was man sich sogar als Video ansehen kann. Vielleicht noch beunruhigender: Ähnliches funktioniert auch in der anderen Richtung. In diesem Fall gelang es den Forschern, ein Bild von Gewehren als Bild eines Hubschraubers  einstufen zu lassen. Was eine solche, gezielt ausgenutzte Macke etwa in einem automatisierten System zur Terrorabwehr für Konsequenzen haben könnte, möchte man sich lieber nicht ausmalen.

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Auf die Frage eines Zuhörers, ob unabhängige Forscher, wenn sie solche Manipulationsmöglichkeiten aufdeckten, nicht nur den Giganten die Arbeit abnähmen, antwortete Jarmul: "Natürlich kommt die meiste dieser Forschung derzeit von diesen Firmen selbst, weil ihnen das Sorgen macht." Sie sei aber überzeugt, dass es gerade deshalb essenziell sei, mit öffentlicher Forschung und Open-Source-Technik gegenzuhalten: "Ich würde lieber das tun, als einfach aufzugeben."