Zum Inhalt springen

Warnung des ChatGPT-Konzerns »Superintelligenz könnte die Menschheit entmachten«

Es ist kein Vorschlag für ein Science-Fiction-Drehbuch: Den ChatGPT-Erfindern fällt jetzt erst auf, dass niemand die technischen Möglichkeiten hat, eine künstliche Superintelligenz zu kontrollieren. Nun wird geforscht.
Website des ChatGPT-Anbieters Open AI

Website des ChatGPT-Anbieters Open AI

Foto: Richard Drew / AP

Der ChatGPT-Anbieter OpenAI will ein neues Forschungsteam zusammenstellen und erhebliche Ressourcen investieren, um die Sicherheit künstlicher Intelligenz (KI) für die Menschheit zu gewährleisten. Dies hat das KI-Unternehmen am Mittwoch angekündigt.

»Die enorme Macht der »Superintelligenz« könnte zu einer Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen«, schrieben OpenAI-Mitgründer Ilya Sutskever und der Leiter der OpenAI-Abteilung für zukünftige Ausrichtung Jan Leike in einem Blog-Beitrag. »Derzeit haben wir keine Möglichkeit, eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie eigene Wege geht.«

Die Autoren des Blogs sagten voraus, superintelligente KI-Systeme, die intelligenter seien als Menschen, könnten noch in diesem Jahrzehnt verwirklicht werden. Der Mensch werde bessere Techniken benötigen als zurzeit zur Verfügung stehen, um superintelligente KI zu kontrollieren.

Microsoft werde daher 20 Prozent seiner Rechnerleistung in den nächsten vier Jahren dafür einsetzen, eine Lösung dieses Problems zu erarbeiten. Zudem sei das Unternehmen dabei, ein neues Forschungsteam, das »Superalignment Team« zu diesem Zweck zusammenzustellen.

Die potenziellen Gefahren der künstlichen Intelligenz werden zurzeit von Forschern und in der breiten Öffentlichkeit intensiv diskutiert:

  • Die EU arbeitet an einem Gesetzentwurf zur Regulierung von KI, dem »AI Act«.

  • In den USA wird nach dem Vorbild der EU-Pläne über eine Einstufung von KI-Anwendungen in Risikoklassen diskutiert, von der die Auflagen für die Unternehmen abhängen.

  • Uno-Generalsekretär António Guterres sieht die Zukunft der künstlichen Intelligenz kritisch. Er schlägt vor, eine von den Uno-Staaten gemeinsam geführte Regulierungsbehörde einzusetzen.

  • Im März hatte eine Gruppe von KI-Branchenführern und -Experten einen offenen Brief unterzeichnet, in dem sie auf mögliche Risiken von KI für die Gesellschaft hinwiesen und eine sechsmonatige Pause bei der Entwicklung von Systemen forderten, die leistungsfähiger seien als OpenAIs GPT-4.

  • Im Mai hatten Hunderte Expertinnen und Experten vor künstlicher Intelligenz gewarnt: »Es sollte global priorisiert werden, das Risiko der Auslöschung durch KI zu verringern – auf einer Stufe mit anderen Risiken für die gesamte Gesellschaft, wie etwa Pandemien und Nuklearkrieg«, lautet es übersetzt. Zu den Unterzeichnern zählen Sam Altman, CEO von OpenAI, Demis Hassabis, Chef von Google DeepMind, sowie die mit dem Turing Award ausgezeichneten KI-Forscher Geoffrey Hinton und Yoshua Bengio.

Anmerkung der Redaktion: In einer früheren Fassung dieses Artikels hieß es, die EU habe sich bereits auf einen Gesetzentwurf zur Regulierung von KI geeinigt. Tatsächlich laufen die Verhandlungen noch, wir haben den Satz entsprechend korrigiert.

oka/Reuters