Entwicklerkonferenz I/O Google zeigt Radaranlage für die Hosentasche

Sie wollen anders sein, arbeiten anders und schaffen mehr, als man glaubt: Googles Entwicklungslabor ATAP zeigt auf dem Entwicklertreffen Google I/O, wie man Mobilgeräte in Zukunft steuern könnte. Ein britischer Schneider hilft dabei.
Google-Forschungsleiter Ivan Poupyrev: Erforscht neue Benutzeroberflächen

Google-Forschungsleiter Ivan Poupyrev: Erforscht neue Benutzeroberflächen

Foto: Christoph Dernbach/ dpa

So schön Miniaturisierung ist, bringt sie doch Probleme mit sich. Welche, das erklärte Managerin Regina Dugan am 29. Mai auf der Entwicklerkonferenz Google I/O in San Francisco. Schon in den Fünfzigerjahren hätten Forscher erkannt, in welchem Maße es für Menschen schwieriger wird, Objekte anzutippen, je kleiner diese werden.

Mit den Smartwatches sei diese Grenze nun erreicht, sagte Dugan, die Googles Advanced Technology and Projects Group (ATAP) leitet, die geheime interne Forschungsabteilung des Konzerns. Deshalb sei es nötig, jetzt alternative Eingabemethoden zu finden.

Welche das sein könnten, zeigte Google-Forscher Ivan Poupyrev. Eine Lösung, die sein Team entwickelt hat, ist ein Gerät, das er selbst als Taschenradar bezeichnet. Die Idee dahinter: Egal welches Gerät man steuern will, wie groß oder klein es ist, soll man dieselben Gesten benutzen können, die man vom Smartphone gewohnt ist - nur ohne das Smartphone zu berühren.

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Wie das aussieht, zeigte Poupyrev in San Francisco. Innerhalb von zehn Monaten entwickelten seine Mitarbeiter aus einem schuhkartongroßen Prototyp ein Radargerät, das die Größe einer Ein-Cent-Münze hat. In einer Testinstallation tastet das Mini-Radar die Bewegungen der Hand des Benutzers ab, kann erkennen, ob man etwa Daumen und Zeigefinger aneinanderreibt, um zu scrollen. Ebenso kann man in der Luft an einem virtuellen Lautstärkeregler drehen oder mit dem Zeigefinger virtuelles Tischfußball spielen.

Fotostrecke

Entwicklerkonferenz: Ein Rundgang über die Google I/O 2015

Foto: SPIEGEL ONLINE

Dieselbe Technik funktioniert aber auch mit Smartwatches. Poupyrev zeigte, wie er die Uhrzeit eines solchen Gerätes mithilfe der Project Soli genannten Technik einstellte. Bewegte er seinen Finger fünf Zentimeter über dem Radar-Chip, konnte er den Stundenzeiger verstellen, hob er die Finger ein paar Zentimeter höher, reagierte die Minuteneinstellung.

Das ultimative Wearable

Fotostrecke

Vor Ort in San Francisco: So sieht es bei der Google I/O aus

Foto: SPIEGEL ONLINE

Eine andere Möglichkeit, Mobilgeräte zu steuern, hat das ATAP-Team unter der Bezeichnung Project Jacquard entwickelt. Das Ziel: das ultimative Wearable zu entwickeln, Kleidung, die interaktiv als Benutzeroberfläche nutzbar ist. Einfach sei das schon deshalb nicht gewesen, weil man bei Google zwar viel Ahnung vom Programmieren, aber keine von der Textilproduktion habe, erklärte Poupyrev.

Also haben Googles Entwickler sich mit Textilspezialisten in Asien zusammengetan, um eine Technik zu entwickeln, die es ermöglicht, elektrisch leitendes Garn in Kleidungsstoffe einzuarbeiten. Dass die ersten Versuche trotzdem scheiterten, lag an der falschen Grundannahme, dass man ganze Stoffbahnen mit leitenden Drähten verweben solle. Das Ergebnis waren viel zu empfindliche Stoffe, die zudem keine klar definierte Nutzfläche hatten.

Die Lösung war es schließlich, nur etwa handtellergroße Flecken auf den Textilien mit dem Spezialgarn zu verweben. So ergab sich nicht nur eine klar definierte Position für die Touch-Oberfläche, sondern die Technik ließ sich auch viel leichter samt Anschlüssen in ein Kleidungstück einbringen. Dass das keine reine Fantasie ist, bewies der Google-Forscher, indem er einfach auf das Sakko zeigte, das er trug. Ein Schneider in Londons Savile Row habe es ihm aus dem Google-Textil maßgeschneidert, er könne damit jetzt sein Smartphone vom Ärmel aus steuern.

Interaktive Levi's-Jeans?

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Aber dabei soll es nicht bleiben. Um aus dem Forschungsprojekt ein kommerzielles Produkt zu machen, hat sich Google mit dem Kleidungskonzern Levi's zusammengetan. Der soll nun Wege finden, Project Jacquard in seine Textilien einzuarbeiten. Levi's-Manager Paul Gillinger verglich das Projekt mit der Levi's-Erfindung, Arbeitshosen mit Kupfernieten zu verstärken, was letztlich zu den Jeans, wie man sie heute kennt, führte. Wann die ersten solchen Kleidungsstücke in den Handel kommen, verriet Gillinger nicht.

ATAP-Chefin Dugan sparte nach der Vorstellung der neuen Technologien allerdings nicht mit Lob für ihre Mitarbeiter und sich selbst. ATAP habe sich innerhalb Googles den Geist eines Start-up bewahrt, schwärmte sie. Man sei schließlich "eine kleine Piratentruppe, die versucht, heißen Scheiß zu machen".

Die Wiedergabe wurde unterbrochen.