Anhörung im US-Senat ChatGPT-Macher warnt vor Wahlmanipulation durch KI

»Dies macht mich nervös«: OpenAI-Chef Sam Altman ist besorgt, dass künstliche Intelligenz für politische Zwecke missbraucht werden könnte. Sein Vorschlag: Eine globale Behörde soll die Sicherheit der Systeme überwachen.
OpenAI-Chef Sam Altman: »Wir brauchen Regeln«

OpenAI-Chef Sam Altman: »Wir brauchen Regeln«

Foto: Jim Lo Scalzo / EPA

Wozu sind künstliche Intelligenzen (KI) potenziell fähig? Nach Einschätzung des ChatGPT-Anbieters könnten sie zumindest zur Manipulation von Wahlen missbraucht werden. »Dies macht mich nervös«, sagte Sam Altman, Mitgründer und Chef der Microsoft-Beteiligung OpenAI laut Redetext am Dienstag bei einer Anhörung vor einem Ausschuss des US-Senats. »Wir brauchen Regeln und Leitlinien für den Umfang an Transparenz, die Anbieter dieser Programme leisten müssen.«

Der ChatGPT-Macher sagte weiter, staatliche Eingriffe würden entscheidend sein, um die Risiken von immer leistungsfähigeren KI-Systemen zu mindern. »Während diese Technologie voranschreitet, verstehen wir, dass die Menschen besorgt darüber sind, wie sie die Art und Weise, wie wir leben, verändern könnte. Wir sind es auch.«

Mit der Veröffentlichung von ChatGPT hat OpenAI den aktuellen Hype um sogenannte Generative KI ausgelöst. Sie simuliert menschliche Interaktion und kann anhand weniger Stichworte Texte, Bilder oder Videos erstellen. Da diese sich nur schwer als maschinell erzeugt identifizieren lassen, befürchten Kritiker breit angelegte Desinformationskampagnen. So könnten massenhaft inhaltsgleiche, aber leicht umformulierte Falschnachrichten verbreitet werden. Möglich sei außerdem die täuschend echte Manipulation von Bildern oder Videos, im Fachjargon »Deep Fakes« genannt.

Altman schlug die Gründung einer US-amerikanischen oder globalen Behörde vor, die die leistungsfähigsten KI-Systeme lizenzieren und die Befugnis haben würde, »diese Lizenz zu entziehen und die Einhaltung von Sicherheitsstandards zu gewährleisten.«

Auch WHO besorgt

Unterdessen warnte die Weltgesundheitsorganisation (WHO) vor Risiken von KI-Einsatz im Gesundheitsbereich. Auf diese Weise könne es zu Behandlungsfehlern, Falschinformationen oder Datenmissbrauch kommen. Die Uno-Behörde forderte in einer Mitteilung  einen verantwortungsvollen Umgang mit diesen Technologien.

KI-Anwendungen, die auf riesige Datenmengen zugreifen, können etwa bei der Verbreitung von Gesundheitsinformationen oder der Erstellung von Diagnosen behilflich sein. Die WHO zeigte sich besorgt, dass die üblichen Vorsichtsmaßnahmen gegenüber neuen Technologien im Fall von KI nicht konsequent umgesetzt würden.

Große sprachbasierte KI-Modelle, die wie neuronale Netzwerke aufgebaut sind, erzeugen laut WHO scheinbar professionelle Antworten. »Diese Antworten können aber völlig falsch sein oder schwere Fehler enthalten, besonders wenn es um Gesundheit geht«, warnte die Organisation.

Künstliche Intelligenz sollte erst dann im medizinischen Bereich eingesetzt werden, wenn verlässliche Daten über den Nutzen der Technologie vorlägen, meinte die WHO.

sol/dpa/Reuters/AP
Die Wiedergabe wurde unterbrochen.
Playlist
Speichern Sie Audioinhalte in Ihrer Playlist, um sie später zu hören oder offline abzuspielen. Zusätzlich können Sie Ihre Playlist über alle Geräte mit der SPIEGEL-App synchronisieren, auf denen Sie mit Ihrem Konto angemeldet sind.
Jetzt anmelden
Sie haben noch kein SPIEGEL-Konto? Jetzt registrieren
Merkliste
Speichern Sie Ihre Lieblingsartikel in der persönlichen Merkliste, um sie später zu lesen und einfach wiederzufinden.
Jetzt anmelden
Sie haben noch kein SPIEGEL-Konto? Jetzt registrieren
Mehrfachnutzung erkannt
Bitte beachten Sie: Die zeitgleiche Nutzung von SPIEGEL+-Inhalten ist auf ein Gerät beschränkt. Wir behalten uns vor, die Mehrfachnutzung zukünftig technisch zu unterbinden.
Sie möchten SPIEGEL+ auf mehreren Geräten zeitgleich nutzen? Zu unseren Angeboten