Focus Wearables

Wearables sind überall

Uhr
von Christian Stocker, Mitgründer, Liip

Wearables: fantastische Science-Fiction-Geräte, oder? Heute tragen viele von uns smarte Uhren oder Kopfhörer mit ­integrierten Assistenten wie Alexa, Google oder Siri. Mit der Veröffentlichung von iOS 12 hat Apple nun neue Möglichkeiten für Wearables geschaffen. Zwei werden aus Sicht eines App-Entwicklers als praxisorientierte Beispiele beleuchtet.

Christian Stocker, Mitgründer, Liip (Source: zVg)
Christian Stocker, Mitgründer, Liip (Source: zVg)

Zum ersten Mal ist es für App-Entwickler möglich, direkt über Siri mit dem Nutzer zu interagieren. Mit Empfehlungen und Shortcuts oder dem Siri Watch Face. Wird wiederkehrend die gleiche Pizza über eine App bestellt, bietet Siri beim nächsten Mal im Sperrbildschirm oder auf der Apple Watch diese Pizza an. Mit der Einrichtung eines Shortcuts und dem Befehl an Siri "Bestell mir eine Pizza" kann ohne App, sondern über die Uhr, die Pizza bestellt werden. Mit der separaten Shortcut-App ergeben sich weitere Möglichkeit, das Leben über Wearables zu steuern: Ein Ablauf kann erstellt werden. Dieser berechnet den Arbeitsweg, weiss die Ankunftszeit zuhause, schaltet das Licht im Büro aus, bestellt Pizza und schreibt eine Nachricht an die Liebsten mit der Ankunftszeit.

Siri lernt, Informationen zu beschaffen

Auch zur Informationsbeschaffung kann das Wissen genutzt werden. Die App "Time for Coffee!" macht das für ÖV-Abfahrtszeiten, "Carrot Weather" für Wettervorher­sagen. Beide unterstützen die Siri-Integration. Siri liest den Wetterbericht vor oder sagt, wann der nächste Zug fährt. Benutzt der User das Siri Watch Face, werden die nächsten Abfahrtszeiten oder morgens die Wetterprognose auf der Apple Watch präsentiert. Siri lernt dabei vom Benutzungsmuster und zeigt die Daten zum passenden Zeitpunkt an. Damit sind die benötigten Informationen immer zur Hand oder im Ohr – ohne dass das Smartphone hervorgegraben werden muss. Diese Möglichkeiten sind noch nicht perfekt. Denn Siri kann keine weiterführenden Informationen an die App weiterleiten. Wann der nächste Zug nach Bern fährt, muss beispielsweise fix beigebracht werden. Später wird Siri den Satz "Wann fährt der nächste Zug nach Zürich?" trotzdem nicht verstehen. Es werden zwei verschiedene "Lernsätze" benötigt.

Assistenten trainieren und programmieren

Innerhalb der Shortcut-App sind die Möglichkeiten für App-Entwickler limitiert. Die Eingabe-/Ausgabe-Parameter für die eingebauten Aktionen fehlen. Beide beschriebenen Apps versuchen, diese Einschränkungen über die Zwischenablage zu lösen. Das erhöht die Komplexität in der Workflow-Erstellung. Die Hoffnung besteht, dass Apple in einer nächsten Version die Möglichkeiten für noch flexiblere Workflows einbaut.

Erhöhte Nutzerinteraktion dank Programmierung

Die neuen Features in iOS 12 erlauben vielseitige Interaktion mit Benutzern einer App. Sie helfen, wiederkehrende Tasks zu automatisieren und die App zu benutzen, selbst wenn die Benutzung eines Smartphones unangebracht ist. Trotzdem bringen sie die User zurück zur App. Allerdings ohne dabei gleich auf die oft störenden Notifications zu zufälligen Zeitpunkten zurückgreifen zu müssen.

Siri denkt mit und zeigt die passenden Aktionen nur an, wenn sie für die User nützlich sein könnten. Es lohnt sich jedenfalls für App-Entwickler, diese neuen Möglichkeiten anzuschauen.

Webcode
DPF8_116304

Kommentare

« Mehr