Neuer Google Assistant "Star Trek"-Feeling am Smartphone

Auf seiner I/O-Konferenz hat Google eine neue Version seines digitalen Assistenten vorgestellt, die sich bisher nötige Umwege spart. Das Ergebnis erinnert an den Computer aus "Raumschiff Enterprise".
Google-Chef Sundar Pichai kündigt bei der Entwicklerkonferenz Google I/O einen neuen Google Assistant an

Google-Chef Sundar Pichai kündigt bei der Entwicklerkonferenz Google I/O einen neuen Google Assistant an

Foto: Andrej Sokolow/ dpa

Künstliche Intelligenz, das war bisher etwas, dass es entweder nur in großen Rechenzentren gab, oder in extrem abgespeckter Fassung beispielsweise auf Smartphones. Was mancher Hersteller dort aber als künstliche Intelligenz, kurz KI, bezeichnet, sind meist nur einzelne Funktionen, hochspezielle Algorithmen, die etwa beim Fotografieren oder bei der Bildverbesserung helfen sollen. Was Google am Dienstag auf seiner Entwicklerkonferenz I/O in Kalifornien gezeigt hat, geht weit über solche Mini-Intelligenzen hinaus.

Dass Google die neue Version als "Assistant der nächsten Generation" bezeichnet, ist durchaus berechtigt. Schließlich ist der Assistant seit seiner Einführung 2016 immer auch eine entfernte Intelligenz gewesen. Egal was man Google KI fragt, bittet oder aufträgt, es muss immer über das Internet transportiert werden. Kommuniziert man mit dem System über Sprachbefehle, werden die von Googles Servern in Textbefehle übersetzt, die von der KI verstanden werden. Ist das Netzwerk lahm oder hat man kein Netz, verschwindet damit auch die KI und der Assistant bleibt stumm.

Mit dem neuen Assistant wird das anders, verspricht Google und zeigt auch gleich, wie: Statt in einem Google-Rechenzentrum sollen wichtige Teile des Google Assistant künftig auf den Smartphones der Nutzer laufen, zur Not auch offline. Um das zu ermöglichen habe man die rund 100 Gigabyte großen KI-Datenbanken, die man in den Rechenzentren benötigt, um Sprache zu erkennen und zu interpretieren, auf einen Umfang von einem halben Gigabyte reduziert. Das passt locker auch in den Speicher eines Smartphones, weshalb die Spracherkennung des Assistant mit dieser Technik auch auf dem Gerät selbst funktionieren kann.

Das Handy versteht

Weil der Umweg über Netzwerke und Rechenzentren bei dieser Methode fehlt, geht alles viel schneller. Bis zu zehnmal schneller als bisher, quasi in Echtzeit, könne das neue System Sprache erkennen, interpretieren und Fragen beantworten. Das sei meist viel schneller, als man es per Texteingabe erledigen könnte, sagt Google.

Was das im Alltag bedeuten kann, zeigte eine Google-Mitarbeiterin mit einer beeindruckenden Präsentation: In schneller Folge wies sie ihr Handy an, verschiedene Apps zu starten, Kalendereinträge zu erstellen, nach bestimmten Fotos zu suchen und diese Freunden zu schicken. Von Grundsatz her wäre so etwas auch heute schon möglich, nur müsste man dabei jeden neuen Befehl mit einem "Hey Google" oder "OK Google" einleiten und jede Aktion sauber von der nächsten trennen.

Bei Googles Demo am Dienstag war das anders. Der Assistant schaffte es, verschiedene Befehle und Eingaben nacheinander korrekt zu interpretieren und auszuführen. Nur einmal kam die Präsentation ins Stocken, als der Befehl, eine bestimmte App zu starten, nicht auf Anhieb funktionierte. Ein kleiner Fehler, den das System gleich fulminant ausglich, als es beim Diktieren einer E-Mail sauber unterschied, wann es Befehle ausführen sollte ("schreibe eine E-Mail an...", "nächster Absatz") und wann es einfach nur den Text der E-Mail annehmen sollte. Das erinnerte schon sehr daran, wie in den "Star Trek"-Filmen der Umgang mit den Computern der Zukunft dargestellt wurde.

Fotostrecke

Pixel 3a im Test: Googles günstige Mittelklasse

Foto: Matthias Kremp/ SPIEGEL ONLINE

Siri und Cortana unter Zugzwang

Nebenbei hat der neue Assistant auch für Google etliche Vorteile. Für Google ist das System zum einen eine Entlastung. Wenn künftig nicht mehr Millionen Nutzer ihre Sprachbefehle von Google-Servern interpretieren lassen, dürfte zumindest eine gewisse Einsparung dabei herauskommen, weil das Unternehmen einige Server weniger laufen lassen muss. Zum anderen kann der Konzern das System unter der Fahne des Schutzes der Privatsphäre laufen lassen, weil damit alles, was man mit seinem Handy per Sprache regelt, privat bleibt, da es gar nicht erst auf Googles Server kommt.

Wichtiger als das ist aber, dass die Geschwindigkeit der Spracherkennung sowie die flexible Reaktion auf Dateneingaben und Befehle den Umgang mit dem neuen Google Assistant - so wie er jetzt von Google gezeigt wurde - viel natürlicher wirken lassen, als bisher. Allein der Wegfall des bisher ebenso lästigen wie allgegenwärtigen "OK Google" macht Gespräche mit der KI viel flüssiger. Dass die KI dabei künftig auch selbst zwischen Testeingaben, Fragen und Befehlen unterscheiden können soll, wird sie weit von dem abheben, was die Konkurrenz zu bieten hat. Microsoft hat eine zumindest ansatzweise ähnliche Technik bisher nur im Video gezeigt. Ob Apple etwas vergleichbares Anfang Juni auf seiner Entwicklerkonferenz WWDC aufbieten können wird, bleibt abzuwarten.

Abzuwarten bleibt auch, wann der neue Assistant für viele Nutzer verfügbar wird. Vorerst hat Google nur angekündigt, das System "später im Jahr" und nur auf aktuellen Pixel-Smartphones einführen zu wollen.