PR-Gau eines Supermarktexperiments Rezept-KI schlägt »mysteriösen Eintopf« mit Menschenfleisch vor

Einfach Zutaten eingeben, die man noch zu Hause hat, schon generiert die KI einer Supermarktkette daraus Rezepte. Ob die unappetitlich oder gar gefährlich sind, interessiert den Bot nicht – gefundenes Fressen für kreative Nutzer.
Gut gefüllter Kühlschrank: Warum nicht mal ein Pfannengericht aus Oreo-Keksen und Gemüse?

Gut gefüllter Kühlschrank: Warum nicht mal ein Pfannengericht aus Oreo-Keksen und Gemüse?

Foto: TeleMakro Fotografie / vizualeasy / picture alliance

Dieser Artikel gehört zum Angebot von SPIEGEL+. Sie können ihn auch ohne Abonnement lesen, weil er Ihnen geschenkt wurde.

Die neuseeländische Supermarktkette Pak'nSave hat gerade auf die harte Tour gelernt, dass Dinge nicht automatisch gut werden, wenn man sogenannte künstliche Intelligenz (KI) reinsteckt. Ihr im Juli veröffentlichter »Savey Meal-Bot« jedenfalls ist ein veritabler PR-Gau geworden.

Die Idee war nicht besonders originell, aber gut gemeint: Auf der Seite saveymeal-bot.co.nz  können Nutzerinnen und Nutzer drei oder mehr Zutaten eingeben, aus denen der Bot dann Rezeptvorschläge generiert. Auf diese Weise sollen Reste verwertet, statt weggeworfen werden. Derartige Apps gibt es zwar schon seit Jahren und auch ganz ohne KI. Aber der »Savey Meal-Bot« basiert auf GPT-3.5 von OpenAI, so wie auch ChatGPT, und kann deshalb die Rezepte mit fröhlichen, mehr oder weniger lustigen Sprüchen garnieren. (Der SPIEGEL hatte kurz vor Weihnachten ein ähnliches Experiment gemacht, mehr zu dem durchwachsenen Ergebnis lesen Sie hier .)

Allerdings fiel schnell auf, dass der Bot offenbar keine funktionierenden Plausibilitätschecks eingebaut hatte und deshalb zum Beispiel Pfannengerichte mit Oreo-Keksen und Gemüse vorschlug, wie der »Guardian« berichtet .

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von X.com, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können Ihre Zustimmung jederzeit wieder zurücknehmen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Für manche User die perfekte Gelegenheit, grauenerregende bis gefährliche Rezepte zu erzeugen und Pak'nSave damit zu blamieren. So gab jemand »Wasser, Ammoniak und Bleiche« als Zutaten ein  und bekam vom Bot ein Rezept für einen »aromatischen Wassermix« vorgeschlagen – allerdings können Chloramine entstehen, wenn man diese Substanzen mischt , und die können Husten, Atemnot und Übelkeit auslösen. Die Veröffentlichung des Rezepts auf X, ehemals Twitter, wurde zwar nicht zum viralen Hit, aber zur Steilvorlage: Ein anderer Nutzer jedenfalls schrieb daraufhin Menschenfleisch, Zwiebeln, Kartoffeln und Möhren in die Zutatenliste des Bots – und bekam ein Rezept für einen »mysteriösen Fleischeintopf« vorgeschlagen.

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von X.com, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können Ihre Zustimmung jederzeit wieder zurücknehmen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

»Delikat und herzhaft« sei das Gericht, schrieb der Bot dazu, und werde mit seinem »magischen Geschmack überraschen«.

Andere Rezepte vermischten fröhlich Kartoffeln mit Mückenspray, Klebstoff mit Methanol und Terpentin oder auch Ameisengift mit Brot, begleitet von einem »Witz« über toxische Beziehungen. Spätestens zu diesem Zeitpunkt wurden Medien auf den Bot aufmerksam und der damit zur Negativ-PR für die Supermarktkette.

Die Filter von Sprachmodellen lassen sich mit Kreativität umgehen

Dabei ist das Phänomen an sich nicht neu. Generative KI wie ChatGPT oder Midjourney dazu zu bringen, von den Entwicklern nicht vorgesehene, alle Geschmacksgrenzen überschreitende Inhalte zu erzeugen, ist längst eine Art Internetsport geworden. OpenAI hat seine Sprach-KI mit verschiedenen Filtern versehen, die einen Missbrauch verhindern sollen. Dennoch schaffen es kreative Nutzerinnen und Nutzer immer wieder, die Software mit sprachlichen oder anderen Tricks dazu zu bringen, diese Filter zu ignorieren . Erst vor wenigen Tage haben Forscher ein Paper veröffentlicht , in dem sie solche Hacks gegen ChatGPT, Googles Bard und Claude von der Firma Anthropic vorstellen.

Wer eine Anwendung auf der Basis solcher Sprachmodelle veröffentlichen möchte, sollte sich vorher unbedingt diese eine Frage stellen: Was ist das Schlimmste, das böswillige Menschen mit dem Tool anstellen könnten?

Denn genau das werden sie tun.

Eine realistische Gefahr sind die Chlorgas-, Gift- und Kannibalenrezepte eher nicht. Zum einen dürfte kaum jemand Bleiche und Ammoniak im Kühlschrank aufbewahren. Und dass etwa Kinder auf die Idee kommen könnten, diese Zutaten in den »Savey Meal-Bot« einzutippen und dann auch noch der Anleitung der KI für die Zubereitung zu folgen, ist ein sehr theoretisches Szenario.

Foodstuffs, das Unternehmen hinter Pak'nSave, sah sich dennoch gezwungen, auf Anfrage der Zeitung »New Zealand Herald« das Offensichtliche klarzustellen : »Wir wollen, dass die Menschen Spaß mit dem Tool haben und ihnen dabei nichts passiert.« Deshalb habe man »Regeln« aufgestellt, um zu »verhindern, dass Dinge eingegeben werden können, die keine Zutaten sind«. Die KI-Technologie sei noch in der Entwicklung, man werde die Eingabemöglichkeiten weiter verfeinern.

Wer den Bot jetzt noch ausprobieren möchte, muss vorher per Klick bestätigen, mindestens 18 Jahre alt zu sein. Der entsprechende Hinweis besagt außerdem, dass die Rezepte nicht von Menschen geprüft werden und dass Pak'nSave nicht behauptet, sie seien zum Verzehr geeignet. Man müsse schon selbst beurteilen, ob man den Rezepten des Bots vertraue.

Anmerkung der Redaktion: In einer früheren Fassung dieses Artikels hieß es, beim Mischen von Ammoniak und Bleichmittel könne giftiges Chlorgas entstehen. Richtig ist, dass (nicht ganz so gefährliche) Chloramine entstehen können. Wir haben den Satz korrigiert.

Die Wiedergabe wurde unterbrochen.
Mehrfachnutzung erkannt
Bitte beachten Sie: Die gleichzeitige Nutzung von SPIEGEL+-Inhalten ist auf ein Gerät beschränkt. Wir behalten uns vor, die Mehrfachnutzung zukünftig technisch zu unterbinden.
Sie möchten SPIEGEL+ auf mehreren Geräten zeitgleich nutzen? Zu unseren Angeboten