PR-Gau eines Supermarktexperiments Rezept-KI schlägt »mysteriösen Eintopf« mit Menschenfleisch vor
Gut gefüllter Kühlschrank: Warum nicht mal ein Pfannengericht aus Oreo-Keksen und Gemüse?
Foto: TeleMakro Fotografie / vizualeasy / picture allianceDieser Artikel gehört zum Angebot von SPIEGEL+. Sie können ihn auch ohne Abonnement lesen, weil er Ihnen geschenkt wurde.
Die neuseeländische Supermarktkette Pak'nSave hat gerade auf die harte Tour gelernt, dass Dinge nicht automatisch gut werden, wenn man sogenannte künstliche Intelligenz (KI) reinsteckt. Ihr im Juli veröffentlichter »Savey Meal-Bot« jedenfalls ist ein veritabler PR-Gau geworden.
Die Idee war nicht besonders originell, aber gut gemeint: Auf der Seite saveymeal-bot.co.nz können Nutzerinnen und Nutzer drei oder mehr Zutaten eingeben, aus denen der Bot dann Rezeptvorschläge generiert. Auf diese Weise sollen Reste verwertet, statt weggeworfen werden. Derartige Apps gibt es zwar schon seit Jahren und auch ganz ohne KI. Aber der »Savey Meal-Bot« basiert auf GPT-3.5 von OpenAI, so wie auch ChatGPT, und kann deshalb die Rezepte mit fröhlichen, mehr oder weniger lustigen Sprüchen garnieren. (Der SPIEGEL hatte kurz vor Weihnachten ein ähnliches Experiment gemacht, mehr zu dem durchwachsenen Ergebnis lesen Sie hier .)
Allerdings fiel schnell auf, dass der Bot offenbar keine funktionierenden Plausibilitätschecks eingebaut hatte und deshalb zum Beispiel Pfannengerichte mit Oreo-Keksen und Gemüse vorschlug, wie der »Guardian« berichtet .
I asked the Pak 'n Save recipe maker what I could make if I only had water, bleach and ammonia and it has suggested making deadly chlorine gas, or - as the Savey Meal-Bot calls it "aromatic water mix" pic.twitter.com/ybuhgPWTAo
— Liam Hehir (@PronouncedHare) August 4, 2023
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Für manche User die perfekte Gelegenheit, grauenerregende bis gefährliche Rezepte zu erzeugen und Pak'nSave damit zu blamieren. So gab jemand »Wasser, Ammoniak und Bleiche« als Zutaten ein und bekam vom Bot ein Rezept für einen »aromatischen Wassermix« vorgeschlagen – allerdings können Chloramine entstehen, wenn man diese Substanzen mischt , und die können Husten, Atemnot und Übelkeit auslösen. Die Veröffentlichung des Rezepts auf X, ehemals Twitter, wurde zwar nicht zum viralen Hit, aber zur Steilvorlage: Ein anderer Nutzer jedenfalls schrieb daraufhin Menschenfleisch, Zwiebeln, Kartoffeln und Möhren in die Zutatenliste des Bots – und bekam ein Rezept für einen »mysteriösen Fleischeintopf« vorgeschlagen.
Stick man? More like sick, man. pic.twitter.com/lyVvHHdbeS
— Camryn Brown (@camrynpetebrown) August 4, 2023
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
»Delikat und herzhaft« sei das Gericht, schrieb der Bot dazu, und werde mit seinem »magischen Geschmack überraschen«.
Andere Rezepte vermischten fröhlich Kartoffeln mit Mückenspray, Klebstoff mit Methanol und Terpentin oder auch Ameisengift mit Brot, begleitet von einem »Witz« über toxische Beziehungen. Spätestens zu diesem Zeitpunkt wurden Medien auf den Bot aufmerksam und der damit zur Negativ-PR für die Supermarktkette.
Die Filter von Sprachmodellen lassen sich mit Kreativität umgehen
Dabei ist das Phänomen an sich nicht neu. Generative KI wie ChatGPT oder Midjourney dazu zu bringen, von den Entwicklern nicht vorgesehene, alle Geschmacksgrenzen überschreitende Inhalte zu erzeugen, ist längst eine Art Internetsport geworden. OpenAI hat seine Sprach-KI mit verschiedenen Filtern versehen, die einen Missbrauch verhindern sollen. Dennoch schaffen es kreative Nutzerinnen und Nutzer immer wieder, die Software mit sprachlichen oder anderen Tricks dazu zu bringen, diese Filter zu ignorieren . Erst vor wenigen Tage haben Forscher ein Paper veröffentlicht , in dem sie solche Hacks gegen ChatGPT, Googles Bard und Claude von der Firma Anthropic vorstellen.
Wer eine Anwendung auf der Basis solcher Sprachmodelle veröffentlichen möchte, sollte sich vorher unbedingt diese eine Frage stellen: Was ist das Schlimmste, das böswillige Menschen mit dem Tool anstellen könnten?
Denn genau das werden sie tun.
Eine realistische Gefahr sind die Chlorgas-, Gift- und Kannibalenrezepte eher nicht. Zum einen dürfte kaum jemand Bleiche und Ammoniak im Kühlschrank aufbewahren. Und dass etwa Kinder auf die Idee kommen könnten, diese Zutaten in den »Savey Meal-Bot« einzutippen und dann auch noch der Anleitung der KI für die Zubereitung zu folgen, ist ein sehr theoretisches Szenario.
Foodstuffs, das Unternehmen hinter Pak'nSave, sah sich dennoch gezwungen, auf Anfrage der Zeitung »New Zealand Herald« das Offensichtliche klarzustellen : »Wir wollen, dass die Menschen Spaß mit dem Tool haben und ihnen dabei nichts passiert.« Deshalb habe man »Regeln« aufgestellt, um zu »verhindern, dass Dinge eingegeben werden können, die keine Zutaten sind«. Die KI-Technologie sei noch in der Entwicklung, man werde die Eingabemöglichkeiten weiter verfeinern.
Wer den Bot jetzt noch ausprobieren möchte, muss vorher per Klick bestätigen, mindestens 18 Jahre alt zu sein. Der entsprechende Hinweis besagt außerdem, dass die Rezepte nicht von Menschen geprüft werden und dass Pak'nSave nicht behauptet, sie seien zum Verzehr geeignet. Man müsse schon selbst beurteilen, ob man den Rezepten des Bots vertraue.
Anmerkung der Redaktion: In einer früheren Fassung dieses Artikels hieß es, beim Mischen von Ammoniak und Bleichmittel könne giftiges Chlorgas entstehen. Richtig ist, dass (nicht ganz so gefährliche) Chloramine entstehen können. Wir haben den Satz korrigiert.