Google I/O Mai 2016 - Android N und weitere Neuheiten

googleIOLogo2016byGoogleUnser Blick nach Mountain View mit den Ankündigungen der Google I/O 2016: Instant Apps, Daydream, Android „N“ und Assistant. Das sind nur einige der auf der Google I/O vorgestellten Neuheiten des Internet-Konzerns. Die Messenger App Allo, welche Artificial Intelligence benutzt und neue Möglichkeiten zur Videotelefonie über Duo. Was verbirgt sich hinter den wohlklingenden Namen? Welche Rolle spielt die Sprachsteuerung bei den zukünftigen Produkten und was können die User jetzt für Google tun? Eine Zusammenfassung des Events...

 

Google Assistant

Bereits seit Ende der 90er Jahre gehört Google schon zum alltäglichen Leben. Damals gingen pro Tag bereits etwa eine halbe Million Suchanfragen ein. 2014 waren es etwa 2,1 Milliarden. Und doch: Google könnte schon bald einen noch weit größeren Teil in unserem Leben einnehmen, als es bisher ohnehin schon der Fall war. Grund dafür ist eine der Neuheiten, die auf der diesjährigen Entwickler-Konferenz des Suchmaschinen-Giganten vorgestellt wurde: Der Google Assistant.

Was auf den ersten Blick relativ unspektakulär klingt ist nicht weniger als die eigentliche Sensation der Google I/O 2016. Der Assistant revolutioniert die Websuche – also das Flaggschiff Googles, macht sie kommunikativer, interaktiver und vor allem eins: menschlicher.

Wenn man den Assistant genauer betrachtet, handelt es sich dabei um eine konsequente Fortsetzung von Google Now. Zur klassischen Anzeige der Suchergebnisse kommt nun der Dialog hinzu. „Dieser Assistent spricht mit euch, versteht euer Leben und unterstützt euch bei allem, was ihr erledigen müsst. (…) Der Assistent funktioniert geräte- und kontextunabhängig. Zum Beispiel könnt ihr jederzeit Googles Hilfe in Anspruch nehmen. Der Google-Assistent basiert auf unserem jahrelangen Bemühen, Nutzerfragen zu verstehen.“, heißt es von Seiten der Kalifornier.

 

Allo

Nach Google Talk, Hangouts, Google + und noch einigen anderen Apps versucht Google nun mit Allo die führenden Messenger-Apps wie WhatsApp und den Facebook Messenger vom Thron zu stoßen. Möglich werden soll dies durch die Kombination der bereits bekannten Dienste der Facebook-Konkurrenten und der künstlichen Intelligenz Googles. Diese wird durch Assistant „verkörpert“ und schlägt bei empfangenen Nachrichten beispielsweise Smart Replies, also intelligente Antworten, oder sogar passende Emojis vor. Bei der Auswahl der Antworten merkt sich Google bestimmte Muster, lernt daraus und kann somit die angebotenen Antwortmögichkeiten verbessern. Sogar auf Fotos(!) bietet Allo die passenden Smart Replies an.

Die Möglichkeit, die Schriftgröße zu verändern soll dazu beitragen, dass es zu weniger Missverständnissen beim geschriebenen Wort kommt. Sorgten Worte in Versalien dank der guten alten Chatiquette bisher immer dafür, dass sich der Empfänger angeschrien fühlte, kann der Sender nun durch Wischen des Sendebuttons nach oben oder unten die Schriftgröße anpassen und den geschriebenen Text entweder nach einem Flüstern, oder eben nach richtigem Schreien aussehen lassen. Das sind zwar nette Spielereien, allerdings besitzt Allo ein Manko: Die Texte werden nicht oder nur teilweise verschlüsselt. Wer mit seinem Gesprächspartner ein wirklich sicheres Gespräch führen möchte, ist dazu angehalten, einen Inkognito-Modus zu aktivieren. Wer das nicht weiß, teilt seine Gesprächsinhalte uneingeschränkt mit dem App-Betreiber.

 

Duo

Die Video-Anruf-App soll ernstzunehmender Konkurrent für andere Angebote wie Facetime oder Skype werden. Duo ist schnell erklärt: Laut Google soll die One-To-One-Video-App angeblich immer und überall funktionieren. Dazu scannt es die verfügbare Netzqualität alle paar Sekunden und wechselt danach automatisch vom WLAN ins mobile Netz und wieder zurück.

Den eigentlichen Mehrwert für den User nennt Google Knockknock. Bereits bevor der Angerufene den Anruf entgegennimmt, werden Bilder übertragen. So kann man sofort erkennen, wer einen anruft. So wie Allo soll Duo ab Sommer 2016 sowohl für Android als auch iOS verfügbar sein.

 

Daydream

Hinter dem Produkt mit dem vielversprechenden Namen Tagtraum verbirgt sich die Virtual-Reality-Plattform von Google. Doch will man hier nicht nur bei den anderen, wie beispielsweise Samsung Gear VR „mitspielen“, sondern Standards setzen, welche die VR vom spaßigen Gimmick zu ernstzunehmender mobiler Hardware ausbauen. Google sieht Daydream als HighEnd, sodass Hersteller, die das VR-Produkt unterstützen wollen, gewisse Mindestanforderungen erfüllen müssen, um von Google als „würdig“ erachtet zu werden. Daydream soll auf sämtlichen Smartphones fest integriert werden, die mit Android N laufen. Ergo: jedes Handy, das dieses Betriebssystem nutzt wird VR-fähig. Welche Performance die Geräte dabei leisten müssen ist noch nicht bekannt, ebenso wenig wie der Preis für die zugehörige Brille und den eigens für Daydream entwickelten Controller. Verfügbar ist die Plattform ab dem kommenden Herbst.

 

Google Home

So ziemlich jeder fand es schon damals fantastisch, wenn in Science-Fiction-Filmen der Kapitän eines Raumschiffs per Sprachbefehl direkte Kommandos an das Schiff gegeben hat. Mit Home hat Google nun so etwas in der Art vorgestellt. Der WLAN-Lautsprecher kann im Zimmer positioniert und über Sprachbefehl angesteuert werden. So soll Home beispielsweise Tickets buchen, allgemeine Fragen beantworten und Smart-Home-Zubehör steuern können. Aber auch eine Verknüpfung mit dem Musik-Streaming-Dienst Spotifiy ist vorhanden. Auch in diesem Produkt findet der Assistant seinen Platz. Spätestens jetzt dürfte auffallen, dass Assistant weit mehr ist, als nur eine Fortsetzung von Google Now.

Optisch weist Home gewisse Ähnlichkeiten mit einer Rundumkennleuchte der Einsatzfahrzeuge von Feuerwehr oder Gas-Notdienst auf, kann jedoch in einigen Aspekten individualisiert werden. Die Unterseite beispielsweise soll in verschiedenen Farben erhältlich sein und ausgetauscht werden können. Im Lichtkörper sind farbige LEDs verbaut, die zum Beispiel anzeigen, ob Home gerade arbeitet. Laut Google soll der Lautsprecher kräftig genug sein, um Räume mit „klaren Höhen und kräftigen Bässen“ zu füllen.

 

Instant Apps

Im April dieses Jahres waren allein im Play Store mehr als zwei Millionen Apps verfügbar. Realistisch betrachtet ist die Chance also relativ gering, einige Apps gezielt an den Mann zu bringen. An diesem Punkt möchte Google den Entwicklern unter die Arme greifen und es ihnen ermöglichen, ihre Apps auch zu vermarkten. Dabei behilflich sein sollen Instant Apps: Anwendungen, die nicht mehr auf dem Smartphone installiert werden müssen, um sie zu nutzen.

Im Beispiel der Google I/O Keynote sah das wie folgt aus: Eine Mail mit Link soll genügen, um beispielsweise eine Video-App zu öffnen, die gar nicht auf dem Gerät installiert ist. Das funktioniert, indem nur die für die Ausführung der App signifikanten Teile der App heruntergeladen werden. Instant Apps sollen sich neben Link auch per NFC starten lassen – sogar auch für ältere Geräte, die noch unter Jelly Bean laufen. Veröffentlicht werden die Instant Apps voraussichtlich „später dieses Jahr“, so Google.

Ebenfalls vorgestellt wurde neben den Instant Apps auch die Möglichkeit, diese noch schneller und effizienter zu entwickeln: Android Studio 2.2. Die Entwicklungsumgebung soll es ermöglichen, den Build-Prozess einer App bis zu zehn Mal so schnell ablaufen zu lassen wie bisher. Die Emulation soll bis zu drei Mal schneller werden. Darüber hinaus wurde ein neuer Layout Designer hinzugefügt.

 

Android Wear 2.0

Das Smartwatch-Betriebssystem bekommt das größte Update seines zweijährigen Daseins. Es beinhaltet unter anderem eine für Messaging optimierte Tastatur, ein neues User-Interface, vom Smartphone unabhängige Stand-Alone-Apps und Verbesserungen für Google Fit. Die Stand-Alone-Anwendungen sollen beispielsweise via Bluetooth oder Mobilfunk auf das Internet zugreifen können und funktionieren somit auch ohne eine Verbindung zum Smartphone.

Das User-Interface ist speziell für runde Ziffernblätter entwickelt und bietet ein Menü, das die Apps ähnlich einem Karussell durchblättern lässt. Der Farbstil wurde ebenfalls angepasst. Er wurde etwas dunkler gestaltet, was eine bessere Bedienung bezwecken soll.

Weitere Interface-Verbesserung ist eine Complications API, die es den Android-Wear-Trägern erlaubt, künftig unterschiedliche Widgets auf dem Ziffernblatt auszutauschen und ganz nach Belieben zu personalisieren.

Google weitet die Eingabemethoden der Wearables aus. Neben Spracherkennung steht nun auch eine Tastatur- sowie Handschrifteingabe zur Verfügung. Das komplette Android-Framework wurde ebenfalls auf Wear portiert. Entwickler können also auch komplett eigenständig angepasste Eingabemethoden entwickeln.

 

Android N

Bereits im März sind einige Informationen zum kommenden Android-N-Betriebssystem durchgesickert. Jetzt gibt es noch mehr Details zu „N“. Das System wird künftig Updates im Hintergrund herunterladen und automatisch installieren – ohne, dass man dafür eingeloggt sein muss. Auch sollen Android-User produktiver werden können. So entfernt N längere Zeit nicht verwendete Apps aus dem Verlauf, um dem Anwender die Suche nach den häufig beziehungsweise zuletzt genutzten Apps zu erleichtern. Ein „Clear-All“-Button wird ebenso geben wie das „Quick Switch“ – per Doppel-Tap auf den „Letzte“-Button wird die zuletzt geschlossene App wieder geöffnet.

Auch bei den Verschlüsselungen gibt es Änderungen. Diese sind künftig dateibasiert verschlüsselt.

Zum einen bedeutet das, dass auch bei gerooteten Geräten die Daten diverser eingerichteter User nicht mehr lesbar sind. Zum anderen ist das Voraussetzung für die im Hintergrund herunterladenden Updates. Ob die neue Art der Verschlüsselung die Gesamtverschlüsselung „nur“ ergänzt, oder komplett ersetzt ging allerdings nicht eindeutig aus der Keynotes hervor.

Was den Namen des neuen Betriebssystems angeht, setzt Google nun auf die Mithilfe der Community. Der Tradition folgend möchte Google das OS nach einer Süßigkeit benennen, aktuell wird eine Leckerei mit dem Anfangsbuchstaben „N“ gesucht. Vorschläge können auf dieser Android-Naming-Seite eingereicht werden.

 

TPU

Das Beste kommt zum Schluss, heißt es. Google entwickelt eigene Prozessoren. Spekulationen darüber gibt es bereits seit einigen Jahren. Die Gewissheit gibt es spätestens seit dieser Entwicklerkonferenz. Mit der Vorstellung seiner Tensor Processing Unit (TPU) macht sich der Internet-Konzern ein gutes Stück unabhängiger von Nvidia, deren Chips bisher in den meisten KI-Produkten von Google Einsatz fanden. In einem Blog-Eintrag wird die Effizienz der TPU wie folgt erläutert: „Aufgrund der speziellen Anforderungen der KI-Anwendungen kann die TPU auf ein gewisses Maß an Präzision bei der Berechnung verzichten und deshalb mehr Rechenoperationen aus dem Chip pressen.“ Die TPU wird beispielsweise auch in Google Home eingebaut und erlaubt dem System, sich ständig zu verbessern indem es von den gesammelten Daten lernt.

Dieses Maschinelle Lernen nutzt Google bereits seit einiger Zeit und hat in einem Wettkampf in dem asiatischen Brettspiel Go gezeigt, was damit möglich ist. Das „Gehirn“ von AlphaGo, der Google KI bestand aus eben diesem Chip.





Twittern