OpenAI stellt ein ChatGPT bekommt noch mehr menschliche Nachhilfe

OpenAI-Logo: Daten vorsortieren
Foto: LIONEL BONAVENTURE / AFPDaten und Algorithmen genügen nicht, um eine künstliche Intelligenz (KI) mit hoher Qualität zu schaffen, benötigt wird auch viel menschlicher Input. Nach einem Bericht des US-Portals »Semafor« hat der KI-Spezialist OpenAI im vergangenen halben Jahr 1000 Leiharbeiter unter anderem in Lateinamerika und Osteuropa engagiert, die Ergebnisse von Diensten wie dem Chatbot ChatGPT verbessern sollen.
Mit Bildergeneratoren und dem Textgenerator ChatGPT hat das US-Unternehmen in den vergangenen Monaten für Furore gesorgt und auch das Investoreninteresse geschürt. Microsoft kündigte vor Kurzem ein weiteres Milliardeninvestment bei OpenAI an.
Konkurrenz für Programmierer?
Laut dem Bericht sind die neu eingestellten Arbeitskräfte keine KI-Spezialisten, die sich um die Weiterentwicklung der Technik selbst kümmern sollen. Stattdessen sind 60 Prozent von ihnen damit beschäftigt, Daten vorzusortieren, mit denen die verschiedenen OpenAI-Dienste trainiert werden können.
Gleichzeitig soll die Firma 400 Software-Entwickler engagiert haben, die nicht selbst für OpenAI programmieren sollen, sondern einer KI das Erstellen von Programmen beibringen sollen. Die Zahl ist bemerkenswert, da OpenAI laut eigenen Angaben gerade einmal 375 Festangestellte hat.
Die Programmierer könnten ein weniger bekanntes Produkt verbessern, das OpenAI bereits im vergangenen Jahr veröffentlicht hatte: Codex erstellt automatisiert Programmcode, dessen Funktionsweise zuvor in normaler Sprache beschrieben wurde. Allerdings hatte Codex, das von Microsofts Programmier-Plattform Github integriert wurde, gleich nach Veröffentlichung für Kontroversen gesorgt. In einer Sammelklage vom November werfen Entwickler Github und OpenAI vor, dass Codex unerlaubt fremden Code kopiert habe. Auch die Qualität der gelieferten Lösungen ist umstritten. Die Entwickler-Plattform Stack Overflow untersagte im Dezember kurzerhand, KI-generierten Programmzeilen in den Foren zu posten.
Die neuen Informationen legen nahe, dass OpenAI die Fähigkeit von Codex verbessern will, eigenständig Programme zu schreiben, statt bekannte Programmbestandteile neu zusammenzustellen. Eine anonyme Quelle schilderte »Semafor«, dass Bewerber im Einstellungsprozess Programmieraufgaben nicht einfach lösen, sondern den Weg dahin beschreiben sollten. Auch gefundene Programmierfehler sollten beschrieben werden, statt sie direkt zu lösen. Die Firma wollte den Bericht nicht kommentieren.
Stundenlohn für Leiharbeiter in Kenia: Bis zu zwei Dollar
Dass OpenAI Leiharbeiter für das Training seiner Modelle einsetzt, hatte kürzlich schon das Magazin »Time« aufgedeckt : ChatGPT wurde mit gigantischen Textmengen aus dem Internet trainiert, entsprechend hat er auch Inhalte aus den finsteren Ecken des Netzes zu sehen bekommen. Damit der Dienst selbst möglichst keine gewaltverherrlichenden, rassistischen oder auf andere Art schädliche Texte generiert, musste er zunächst lernen, was solche Texte beinhalten. OpenAI beauftragte deshalb die Firma Sama, entsprechende Texte zu annotieren, »labeln« wird das in der Branche genannt. Damit sollte ChatGPT dann lernen, selbstständig unerwünschte Inhalte zu erkennen und seinen Nutzerinnen und Nutzern gar nicht erst anzuzeigen.
Sama stellte laut »Time« drei Dutzend seiner Mitarbeiter in Kenia ab, die Zehntausende detaillierter Beschreibungen von Kindesmissbrauch, Vergewaltigung, Sex mit Tieren, Mord, Suizid, Folter, Selbstverletzungen und Inzest lesen und annotieren sollten. Ihr Lohn für die nach ihren Angaben traumatisierende Arbeit: zwischen 1,32 und zwei Dollar pro Stunde, abhängig von ihrer Aufgabe und Leistung. Sama selbst kassierte dem Bericht zufolge 12,50 Dollar pro Stunde von OpenAI. Auf eine Anfrage des SPIEGEL zu dem Bericht hat OpenAI nicht geantwortet.