Privatsphäre Wie Apple Ihre Daten zugleich nutzen und schützen will

Apple will mit Nutzerdaten die eigenen Dienste verbessern. Anders als bei der Konkurrenz soll dabei aber die Privatsphäre gewahrt bleiben - dank eines filigranen mathematischen Konstrukts.
Apple-Manager Craig Federighi

Apple-Manager Craig Federighi

Foto: GABRIELLE LURIE/ AFP

Spätestens seit der Affäre um das iPhone des Attentäters von San Bernardino ist das Bemühen um die Privatsphäre seiner Nutzer für Apple zum Markenzeichen geworden. Auf der Entwicklerkonferenz WWDC in San Francisco zeigte der Konzern nun mehrere neue Technologien, mit denen er Daten und Privatsphäre seiner Kunden schützen will.

Leicht fällt Apple das nicht. Denn viele der neuen Funktionen von iOS 10, macOS Sierra, watchOS 3 und tvOS 10 bringen nur dann die gewünschten Ergebnisse, wenn sie das Verhalten und die Vorlieben der Nutzer auswerten können. Doch beim Sammeln und Auswerten eben dieser Daten will sich Apple von der Konkurrenz absetzen.

Fotostrecke

Apple-Updates: Die neuen Funktionen von iOS 10 und macOS Sierra

Foto: Apple

Google und Facebook häufen so viel Wissen wie nur möglich über ihre Kunden an. Das hilft ihnen zum einen, ihre Angebote sehr gut auf die Wünsche der Nutzer zuzuschneiden. Zum anderen lassen sich die Daten verwenden, um zielgerichtete Werbung zu platzieren. Apples Manager hingegen wiederholen seit Jahren gebetsmühlenartig bei jeder Gelegenheit, dass sie kein Interesse an den Daten ihrer Kunden haben.

Aber ganz so einfach ist es dann eben doch nicht. Zwar verdient Apple kein Geld mit Werbung, doch etliche Dienste und Funktionen seiner Betriebssysteme können nur dann zu brauchbaren Ergebnisse kommen, wenn sie Nutzerdaten auswerten. Weil Apple das bisher nicht oder nur in sehr kleinem Rahmen getan hat, konnten einige seiner Offerten nicht mit denen der Konkurrenz mithalten.

Daten verwässern - und dann nutzen

Auf der WWDC hat Apples Software-Chef Craig Federighi nur gesagt, wie es künftig doch möglich sein soll, Services anzubieten, die auf Nutzerdaten basieren, ohne dafür die Daten der Nutzer zu nutzen. Ein Konzept, das als Differential Privacy - stumpf übersetzt: Differentielle Privatsphäre - bezeichnet wird, soll genau das möglich machen.

Damit das möglich wird, wird den ermittelten Daten eine gewisse Menge mathematisches Rauschen hinzugefügt. Man könnte sagen, dass die Messwerte durch zufällig hinzugefügte Daten verwässert werden. Einzelne Datensätze werden dadurch unbrauchbar, können nicht mehr auf einzelne User zurückgeführt werden. Wertet man aber viele auf diese Weise randomisierte Datensätze auf, lassen sich Trends erkennen und als generelles Ergebnis nutzen. Apple lernt also etwas über die Gesamtheit der Nutzer, nicht aber über den Einzelnen. Eine typische Big-Data-Anwendung.

Wenn das funktioniert, lassen sich damit viele nützliche Dinge anstellen. Etwa wenn es darum geht, dass Apps Siri auf bestimmte Suchanfragen die gewünschten Antworten liefern oder besonders häufig verwendete Emojis weit vorne auf der Emoji-Tastatur zu finden sind.

Soweit die Theorie. Damit das aber auch tatsächlich funktionieren kann, ist viel Feintuning nötig, merken Kritiker an. Fügt man den Daten zu wenig Rauschen hinzu, steigt die Gefahr drastisch an, dass einzelne Nutzer doch zu identifizieren sind. Werden die Daten hingegen mit zu viel Rauschen angereichert, werden sie nutzlos, weil die Ergebnisse nicht mehr den realen Werten entsprechen.

Künstliche Intelligenz muss trainiert werden

Um sicherzustellen, dass Apple wirklich keine Möglichkeit hat, einen von einem Gerät übertragenen Datensatz auf eine bestimmte Person zurückzuführen, wird die Anonymisierung schon auf dem Gerät vorgenommen, die Rechner des Unternehmens bekommen nur per Differential Privacy modifizierte Daten überspielt.

Fotostrecke

Fotostrecke: Neues von Apple

Foto: imago

Ohnehin versucht der Konzern, viel von dem, was seine neuen Betriebssystemversionen attraktiv machen soll, auf den Geräten selbst stattfinden zu lassen - statt in der Cloud. Die Gesichtserkennung beispielsweise, die alle auf dem Gerät gespeicherten Fotos analysiert und es so ermöglicht, beispielsweise nur "Fotos von Tante Erna" anzeigen zu lassen, arbeitet lokal auf dem iPhone.

Das Rennen hat begonnen

Apple erklärte, die Rechenleistung reiche dafür allemal aus. Die sogenannte Deep-Learning-Technologie - eigentlich eine Domäne von Supercomputern - habe man dafür quasi zweigeteilt. Das Anlernen der Algorithmen künstlicher Intelligenz führt man auf großen Servern durch, wo diese quasi lernen, die Merkmale von Gesichtern zu erkennen.

Erst wenn das klappt, wird die Software auf das Smartphone übertragen, wo sie nach den gelernten Mustern vorgeht, um Personen zu identifizieren. Weder die Fotos noch die Daten der abgebildeten Personen landen dabei auf Apples Servern.

In der Theorie hört sich das alles logisch und richtig an. In der Praxis bleibt abzuwarten, wie gut Apples Datenverschleierung tatsächlich arbeitet. Hacker und Sicherheitsforscher jedenfalls haben sich schon auf die erste Betaversion von iOS 10 gestürzt und suchen sie nach Fehlern und Lücken ab. Absolute Sicherheit zu garantieren, ist beim heutigen Stand der Technik ohnehin kaum möglich. Man muss nur ständig versuchen, den Angreifern einen Schritt voraus zu sein.

Die Wiedergabe wurde unterbrochen.