Warnung des ChatGPT-Konzerns »Superintelligenz könnte die Menschheit entmachten«
Website des ChatGPT-Anbieters Open AI
Foto: Richard Drew / APDer ChatGPT-Anbieter OpenAI will ein neues Forschungsteam zusammenstellen und erhebliche Ressourcen investieren, um die Sicherheit künstlicher Intelligenz (KI) für die Menschheit zu gewährleisten. Dies hat das KI-Unternehmen am Mittwoch angekündigt.
»Die enorme Macht der »Superintelligenz« könnte zu einer Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen«, schrieben OpenAI-Mitgründer Ilya Sutskever und der Leiter der OpenAI-Abteilung für zukünftige Ausrichtung Jan Leike in einem Blog-Beitrag. »Derzeit haben wir keine Möglichkeit, eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie eigene Wege geht.«
Den Blog können Sie im Original hier lesen: Introducing Superalignment
Die Autoren des Blogs sagten voraus, superintelligente KI-Systeme, die intelligenter seien als Menschen, könnten noch in diesem Jahrzehnt verwirklicht werden. Der Mensch werde bessere Techniken benötigen als zurzeit zur Verfügung stehen, um superintelligente KI zu kontrollieren.
Microsoft werde daher 20 Prozent seiner Rechnerleistung in den nächsten vier Jahren dafür einsetzen, eine Lösung dieses Problems zu erarbeiten. Zudem sei das Unternehmen dabei, ein neues Forschungsteam, das »Superalignment Team« zu diesem Zweck zusammenzustellen.
Die potenziellen Gefahren der künstlichen Intelligenz werden zurzeit von Forschern und in der breiten Öffentlichkeit intensiv diskutiert:
Die EU arbeitet an einem Gesetzentwurf zur Regulierung von KI, dem »AI Act«.
In den USA wird nach dem Vorbild der EU-Pläne über eine Einstufung von KI-Anwendungen in Risikoklassen diskutiert, von der die Auflagen für die Unternehmen abhängen.
Uno-Generalsekretär António Guterres sieht die Zukunft der künstlichen Intelligenz kritisch. Er schlägt vor, eine von den Uno-Staaten gemeinsam geführte Regulierungsbehörde einzusetzen.
Im März hatte eine Gruppe von KI-Branchenführern und -Experten einen offenen Brief unterzeichnet, in dem sie auf mögliche Risiken von KI für die Gesellschaft hinwiesen und eine sechsmonatige Pause bei der Entwicklung von Systemen forderten, die leistungsfähiger seien als OpenAIs GPT-4.
Im Mai hatten Hunderte Expertinnen und Experten vor künstlicher Intelligenz gewarnt: »Es sollte global priorisiert werden, das Risiko der Auslöschung durch KI zu verringern – auf einer Stufe mit anderen Risiken für die gesamte Gesellschaft, wie etwa Pandemien und Nuklearkrieg«, lautet es übersetzt. Zu den Unterzeichnern zählen Sam Altman, CEO von OpenAI, Demis Hassabis, Chef von Google DeepMind, sowie die mit dem Turing Award ausgezeichneten KI-Forscher Geoffrey Hinton und Yoshua Bengio.
Anmerkung der Redaktion: In einer früheren Fassung dieses Artikels hieß es, die EU habe sich bereits auf einen Gesetzentwurf zur Regulierung von KI geeinigt. Tatsächlich laufen die Verhandlungen noch, wir haben den Satz entsprechend korrigiert.