Software-Update angekündigt Apple stoppt Auswertung von Siri-Sprachaufnahmen

Nach Google setzt nun auch Apple die Auswertung von Audioaufnahmen seines Sprachassistenten aus. Für den Datenschutz ist das gut. Für die Sprachsteuerung nicht.
Eine junge Frau versucht mit Siri in norddeutschen Dialekt zu sprechen. Solche Fähigkeiten sollen durch die Überprüfung von Sprachaufzeichnungen verbessert werden

Eine junge Frau versucht mit Siri in norddeutschen Dialekt zu sprechen. Solche Fähigkeiten sollen durch die Überprüfung von Sprachaufzeichnungen verbessert werden

Foto: Daniel Reinhardt/dpa

Apple will von Siri angefertigte Sprachaufnahmen seiner Nutzer vorerst nicht mehr von Auftragnehmern auswerten lassen. Das US-Unternehmen reagiert damit auf einen Zeitungsbericht von vergangener Woche, in dem es unter anderem hieß, bei diesem Prozess würden "zahllose Aufnahmen von privaten Unterhaltungen zwischen Ärzten und Patienten, Geschäftsverhandlungen, offenbar kriminellen Vorgängen und sexuellen Begebenheiten" angehört.

Der Konzern kündigte an, seine Nutzer künftig ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter zu bitten. Wer dem nicht zustimme, müsse demnach auch nicht fürchten, dass private Gespräche von Fremden angehört würden.

Eine entsprechende Funktion solle mit einem späteren Softwareupdate eingeführt werden, teilte der iPhone-Konzern dem Tech-Blog "TechCrunch" in der Nacht zum Freitag mit. Bis dahin werde die Praxis weltweit gestoppt. Zudem wolle man den "Grading" genannten Prozess, bei dem Auftragnehmer beurteilen, wie gut und akkurat Siri auf Sprachbefehle reagiert hat, überprüfen.

Alle tun es

Bei Assistenzsoftware wie Amazons Alexa, dem Google Assistant und Siri wurden Fragmente von Mitschnitten seit Jahren zum Teil auch von Menschen angehört und abgetippt, um die Qualität der Spracherkennung zu verbessern. Es geht dabei zum Beispiel um Fälle, in denen die Sprachassistenten versagten, etwa durch eine falsche Erkennung von Aktivierungswörtern, aber auch um neue Sprachen und Dialekte.

Die Anbieter betonen, dass die Aufnahmen vor derartigen Analysen anonymisiert werden. Vielen Nutzern war diese Praxis allerdings offensichtlich nicht bewusst, bis vor einigen Monaten erste Medienberichte zu diesem Thema  auftauchten.

Fotostrecke

Die besten Siri-Sprüche: "Miezekatze, Miezekatze, Miezekatze"

Schwer auffindbare Hinweise

Apple verwies in einem Sicherheitsdokument schon länger darauf, dass auch "eine geringe Anzahl von Transkriptionen" zur Verbesserung des Dienstes eingesetzt werden könne. Nach dem im geschlossenen Bereich für Softwareentwickler hinterlegten Dokument musste man allerdings gezielt suchen. Normale Nutzer werden bei der Einrichtung von Siri bisher nicht explizit auf die Möglichkeit hingewiesen, dass ihre Spracheingaben analysiert werden.

In einem Bericht der Zeitung "Guardian" von vergangener Woche erzählte ein Mitarbeiter eines Apple-Dienstleisters, auf den Aufnahmen seien zum Teil sehr private Details zu hören. So schnappe Siri auch Fragmente von Gesprächen auf, in denen es um medizinische oder geschäftliche Inhalte oder gar mögliche kriminelle Aktivitäten gehe, sagte er. Ebenso würden Nutzer mitunter versehentlich beim Sex aufgenommen.

Ein paar Monate Pause

Die fehlerhaften Aktivierungen, bei denen die Software glaubt, die Weckworte "Hey, Siri" gehört zu haben, sind dabei ein besonderes Problem. Denn dabei können Sätze und Unterhaltungen aufgezeichnet werden, die nicht an die Sprachassistentin gerichtet waren. Beim nachträglichen Anhören sollen die Mitarbeiter herausfinden, welche Worte oder Geräusche die versehentliche Aktivierung auslösten. Mit diesem Wissen soll die Software entsprechend angepasst werden, um Fehlauslösungen künftig zu verhindern. Nach früheren Angaben von Apple wurde weniger als ein Prozent der Aufnahmen in meist nur wenige Sekunden langen Fragmenten von Menschen ausgewertet.

Bereits am Donnerstag war bekannt geworden, dass Google nach einem ähnlichen Bericht über seinen Assistant schon Anfang Juli das Anhören der Mitschnitte durch Menschen in der EU ausgesetzt hat. Dieser Stopp gilt noch mindestens bis Ende Oktober, wie der Hamburger Datenschützer Johannes Caspar mitteilte. Er leitete wegen der Praxis ein Verwaltungsverfahren gegen den Internetkonzern ein, um das Anhören der Mitschnitte durch Google-Mitarbeiter oder -Dienstleister zu untersagen.

Ohne Menschen geht das nicht

Das aus Datenschutzsicht sinnvolle Verfahren dürfte allerdings Auswirkungen auf die qualitative Verbesserung von Sprachassistenten haben. Vor einigen Monaten erklärte der Medieninformatiker Florian Gallwitz von der Technischen Hochschule Nürnberg dem SPIEGEL, dass man so etwas wie Alexa, den Google Assistant oder Apples Siri nicht am Reißbrett entwerfen könne. "Damit das System funktioniert, müssen die Entwickler möglichst genau vorhersehen, wie Nutzer damit interagieren werden. Das funktioniert nur, indem man sie mit dem System reden lässt und ihre Eingaben dann zur Weiterentwicklung nutzt."

Sprachassistenten seien keine selbstlernenden Systeme, sagte Gallwitz überdies. Die korrekte Transkription der Aufzeichnungen sei "Handarbeit". Demnach kann diese Aufgabe nur von Menschen erledigt werden, deren Auswertungen dann die maschinelle Spracherkennung verbessern.

Um künftig besser verhindern zu können, dass Sprachassistenten versehentlich mithören und private Gespräche mithören, muss man also offenbar erst einmal ebensolche Aufzeichnungen auswerten. Auch künstliche Intelligenzen lernen aus ihren Fehlern. Und wenn sie die nicht selbst erkennen, muss ihnen der Mensch dabei helfen.

mak/dpa
Die Wiedergabe wurde unterbrochen.