Aus der Perspektive eines „Glass“ Trägers

Gestern hat Google ein Video veröffentlicht, welches zeigt, wie es aussieht, wenn man Google Glass trägt.

Mit Sprachkommandos lassen sich dabei diverse Aktionen durchführen.
So ist es zB möglich die Route einblenden zu lassen, Fotos oder Videos aufzunehmen, Bilder zu teilen, Wörter übersetzen, Videotelefonie und noch einiges anderes.

Weitere Features:
Google hat außerdem Patentanträge aufgegeben, um Befehle auch mittels Laser zu projizieren (Dabei wird eine zB virtuelle Tastatur auf die Hand projiziert. Mit der anderen Hand kann man dann die Tasten drücken).

Ein weiterer Patentantrag verrät, dass der Ton für die Gespräche über die Vibration der Knochen übertragen wird.

Eine Art „Entwickler“-Version („Explorer-Edition„) wird vorerst an eine limitierte Anzahl an Leuten ausgeteilt,  und das auch nur in den USA.

Ob zum Zeitpunkt des Releases Glass auch für die weltweite Masse angeboten wird, ist noch nicht bekannt.
Ich schätze aber, dass dies sehr wohl der Fall sein wird.