Anhörung im US-Senat ChatGPT-Macher warnt vor Wahlmanipulation durch KI

OpenAI-Chef Sam Altman: »Wir brauchen Regeln«
Foto: Jim Lo Scalzo / EPAWozu sind künstliche Intelligenzen (KI) potenziell fähig? Nach Einschätzung des ChatGPT-Anbieters könnten sie zumindest zur Manipulation von Wahlen missbraucht werden. »Dies macht mich nervös«, sagte Sam Altman, Mitgründer und Chef der Microsoft-Beteiligung OpenAI laut Redetext am Dienstag bei einer Anhörung vor einem Ausschuss des US-Senats. »Wir brauchen Regeln und Leitlinien für den Umfang an Transparenz, die Anbieter dieser Programme leisten müssen.«
Der ChatGPT-Macher sagte weiter, staatliche Eingriffe würden entscheidend sein, um die Risiken von immer leistungsfähigeren KI-Systemen zu mindern. »Während diese Technologie voranschreitet, verstehen wir, dass die Menschen besorgt darüber sind, wie sie die Art und Weise, wie wir leben, verändern könnte. Wir sind es auch.«
Mit der Veröffentlichung von ChatGPT hat OpenAI den aktuellen Hype um sogenannte Generative KI ausgelöst. Sie simuliert menschliche Interaktion und kann anhand weniger Stichworte Texte, Bilder oder Videos erstellen. Da diese sich nur schwer als maschinell erzeugt identifizieren lassen, befürchten Kritiker breit angelegte Desinformationskampagnen. So könnten massenhaft inhaltsgleiche, aber leicht umformulierte Falschnachrichten verbreitet werden. Möglich sei außerdem die täuschend echte Manipulation von Bildern oder Videos, im Fachjargon »Deep Fakes« genannt.
Altman schlug die Gründung einer US-amerikanischen oder globalen Behörde vor, die die leistungsfähigsten KI-Systeme lizenzieren und die Befugnis haben würde, »diese Lizenz zu entziehen und die Einhaltung von Sicherheitsstandards zu gewährleisten.«
Auch WHO besorgt
Unterdessen warnte die Weltgesundheitsorganisation (WHO) vor Risiken von KI-Einsatz im Gesundheitsbereich. Auf diese Weise könne es zu Behandlungsfehlern, Falschinformationen oder Datenmissbrauch kommen. Die Uno-Behörde forderte in einer Mitteilung einen verantwortungsvollen Umgang mit diesen Technologien.
KI-Anwendungen, die auf riesige Datenmengen zugreifen, können etwa bei der Verbreitung von Gesundheitsinformationen oder der Erstellung von Diagnosen behilflich sein. Die WHO zeigte sich besorgt, dass die üblichen Vorsichtsmaßnahmen gegenüber neuen Technologien im Fall von KI nicht konsequent umgesetzt würden.
Große sprachbasierte KI-Modelle, die wie neuronale Netzwerke aufgebaut sind, erzeugen laut WHO scheinbar professionelle Antworten. »Diese Antworten können aber völlig falsch sein oder schwere Fehler enthalten, besonders wenn es um Gesundheit geht«, warnte die Organisation.
Künstliche Intelligenz sollte erst dann im medizinischen Bereich eingesetzt werden, wenn verlässliche Daten über den Nutzen der Technologie vorlägen, meinte die WHO.