Jeder hat eine andere Sicht auf die Dinge, die er so wahrnimmt oder wahrnehmen möchte. Man könnte auch sagen, dass wir uns für bestimmte Dinge ganz eigenständig die Augen öffnen und die Sache dann auf uns wirken lassen. Das ist zumindest eine Charaktereigenschaft eines Menschen, die in etlichen Facetten zu erkennen ist. Anhand dieser Gesichtspunkte definieren wir auch unser Nutzerverhalten und nutzen beispielsweise ein iPhone und ein iPad immer anders als es andere um uns herum tun. Doch was wäre, wenn wir alle gewisse Funktionen künftig visuell auf einem Nenner nutzen würden? Dinge, die unsere Grundeigenschaften als Mensch unterstreichen und im Alltag viele Situationen erleichtern? Was wäre, wenn uns eine Brille die Welt öffnen würde? Reden wir doch in dieser Kolumne erneut von der  Glass.

-Glass-–-viel-mehr-als-eine-gewoehnliche-Brille-Teil-2-scaled  Glass – viel mehr als eine gewöhnliche Brille? Teil 2

Diese Kolumne ist auch als Podcast verfügbar.

Podcast_Badge_Transparent  Glass – viel mehr als eine gewöhnliche Brille? Teil 2

Die Welt als Tor

Wir nehmen die Welt grundsätzlich unterschiedlich wahr und das in vielen Altersstufen nochmals anders. Was Kinder erblicken und feststellen, übersehen Erwachsene schlicht. Die kindliche Naivität mag die Ursache dafür sein, aber auch die Gewohnheit, dass bestimmte Sachen schlicht bekannt und vorhanden sind. Wir vergessen in unserem Umfeld somit oftmals Dinge. Oft gar nicht bewusst. Erst durch genaueres Hinsehen nehmen wir sie oft wieder wahr und das sind manchmal nur ganz kleine Details. Das ist allerdings vollkommen normal. Vor allem in der heutigen und sich sehr schnell drehenden Welt und Zeit. Dabei lohnt sich der Blick. Vor allem der zweite Blick. 

Ich bin der Meinung, dass AR (Augmented Reality) in der Zukunft eine sehr große Rolle im Alltag spielen wird (⇒LINK). Auch wenn viele diesen Wandel noch nicht sehen und derzeitige AR-Dinge als eine Art Spielerei betrachten (was okay ist), sehe ich dieses Thema auf eine lange Sicht und beobachte hier die kleinen Schritte zum Großen. So ist es jeder neue Release einer Hauptversion von iOS und iPadOS und jede neue Hardwarerevision von iPhone und iPad, welche die kleinen Schritte gehen, um an etwas Großem anzukommen. Denn wer hätte heute gedacht, dass die Kamera im iPhone DIE Kamera ist? Stimmt, niemand. Und dennoch hat sich das iPhone über Jahre hinweg in kleinen Schritten zu dieser Profi-Kamera im Hosentaschenformat entwickelt.

Was ist AR?

Es gibt VR und es gibt AR. Beides sind schon sehr alte Konzepte, die aber bis heute immer noch die Grundkonzepte beider Welten definieren. Wo der Nutzer in VR über eine Brille und weitere Bedienelemente aus der Realität in eine komplett virtuelle Welt abtauchen und in ihr interagieren kann, verknüpft AR eine virtuelle Welt mit der realen Welt. Im Klartext bedeutet dies, dass AR dem realen Sichtfeld mehr virtuelle Inhalte in visueller Form hinzufügt. Schaut man in moderne Automobile, so sind Head-up-Displays heute oft eine grundlegende Option zum Führen eines Fahrzeugs. Dem Fahrer werden im direkten Sichtfeld in der Frontscheibe des KFZ zusätzliche Informationen eingeblendet.

Schaut er also durch die Frontscheibe, so sieht er nicht nur auf die Straße, sondern zeitgleich auch auf zusätzliche Inhalte wie die genaue Deklarierung für einen Spurwechsel. So werden dem realen Umfeld anhand von Daten mehr Eigenschaften verpasst. Ein Head-up-Display arbeitet somit auf der Basis von AR und erlaubt dem Fahrer mehr durch nur einen Blick zu sehen. Es ist in diesem Moment beispielsweise kein abschweifender Blick auf ein Navigationssystem in der Mittelkonsole mehr nötig, da diese gewünschte Information direkt im Hauptsichtfeld eingeblendet ist und somit mit der realen Umfeld eine Symbiose eingeht. Diese Art von Verschmelzung begegnet uns heute schon in vielen Bereichen und wir nehmen sie als komplett normal wahr.

Apple arbeitet seit vielen Jahren …

… schon an dem Thema Augmented Reality. Das sieht man vor allem bei allen neuen Hardwareprodukten und auch Softwareerscheinungen. Selten, dass ein iPhone nicht eine neue Kamerafunktion erhält, wodurch es selbst mehr Blick auf den Raum hat. So kann ein iPhone mit LIDAR-Sensor schon heute eine virtuelle Welt von dem Blick auf ein Objekt schaffen und es als Bilddateien einfließen lassen. Allein dadurch sind Dinge wie Portraits erst möglich. Das iPhone arbeitet in einem AR-Bereich und definiert sich so den Raum in einem Bild. Anhand dieser Raumdaten kann dann ein Objekt in den Vordergrund berechnet werden. Das ist ein absolut kleiner Schnipsel aus dem AR-Bereich, aber ein oft vergessener. Oft wird AR auch nur auf visuelle Themen heruntergebrochen, was leider oft falsch ist. Zumindest wenn man genauer hinsieht oder besser hinhört.

So sind es nicht nur visuelle Themen, sondern auch klangtechnische Eigenschaften, die den AR-Bereich erweitern. Mit 3D-Audio erweitert Apple daher seit einiger Zeit die Audiowahrnehmung in ein räumliches Klangbild. Das klingt erst einmal nur wie ein Equalizer, doch wenn man sich dazu das Thema “Spatial Audio” dazuholt, wo das Klangbild zur Kopfausrichtung ausgerichtet wird und bei Bewegung auch folgt und sich somit verändert, dann reden wir schon über viel mehr. In diesem Fall unterstreicht Audio in den Ohren die Realität. Hört man also etwas hinter sich und dreht sich um, so hört man den Ton nun vor sich und zwischen dieser Bewegung eine Veränderung des Tons. Ein Beispiel wäre ein Auto, das von hinten rechts nach vorne rechts an einem vorbeifährt. Auch diese Punkte sind ein Teil von AR und für die Zukunft ein wichtiger Baustein, um in Kombination arbeiten zu können.

Nun, das nächste große Ding wird schlicht AR sein.

Nicht heute, nicht morgen, aber auf absehbare Zeit. Irgendwann wird es eine  Glass geben, die einer ganz gewöhnlichen Brille gleicht, aber einfach viel mehr bietet und zugleich erleichtert. Schon heute kann ein iPhone ein Objekt in seinen Abmessungen erkennen und somit auch eine bestimmte Größe und ein Volumen berechnen. Künftig wird der Blick aber schlicht durch eine Glasscheibe vor den Augen stattfinden und eine Welt zwischen Auge und Realität erweitert das Sichtbild. Schaue ich mir iOS 15 an, dann sehe ich die nächsten großen Schritte. Apple arbeitet seine Karten-App grundlegend neu auf und ebnet den Weg immer mehr in Richtung Augmented Reality.

So besitzt das iPhone …

… das Verständnis zu wissen, wo es anhand der Kartendaten genau ist und kann über die Sicht seiner Kamera auch sehen, in welcher Ausrichtung es steht. Der LIDAR-Sensor sorgt zugleich für die räumliche Bestätigung und Berechnung der Nähe und Ausrichtung. So weiß ein iPhone mit den Kartendaten von iOS 15 genau, in welcher Straße, vor welchem Gebäude und in welcher Ausrichtung es steht. Und da hier nun AR ins Spiel kommt, werden in dieses Sichtfeld der Kamera noch der Straßenname und Navigationsinhalte eingeblendet. Damit verschmilzt die Sicht durch die Kamera auf die Realität mit den Daten aus der Karten-App und bietet eine Kombination aus beidem an.

Auch das Erkennen von Schriften, das Analysieren des Textinhaltes, die Möglichkeit hierfür ein Nachschlagewerk zu nutzen oder die Information direkt teilen zu können, ist ein weiterer Schritt zu einer  Glass. Das Betriebssystem lernt immer mehr mit seiner Hardware lokal Dinge verarbeiten zu können. Selbst Siri spiegelt sich als Indiz wider, dass sie ein Teil der AR-Strategie ist und sein wird. Mit iOS 15 und Co. kann sie bestimmte Aufgaben komplett lokal verstehen und in Funktionen umsetzen – ganz ohne Verarbeitung via Internet. So stellt sie einen Wecker direkt auf Befehl und ohne Verzögerung. Summiert man diese ganzen Punkte, sieht man ein neues Produkt.

Die  Glass …

… wird noch einige Jahre benötigen. Dennoch merkt man, dass sie greifbar ist. All die unterschiedlichsten Software- und Hardwareveränderungen, die seit Jahren passieren, bilden den Weg zu ihr und ebnen ihr am Ende den Weg in einem Ökosystem arbeiten zu können. Am Ende wird es eine Brille sein, sie lokal Dinge versteht und anhand von Daten aus dem Ökosystem handeln kann. Versteht man Apple und sein Gedanke des Ökosystems, so sieht man für die Zukunft auch ganz neue Dinge. Ein MacBook entsperrt sich dann vielleicht beim Aufklappen schon deshalb, weil die  Glass auf der Nase das sich öffnende MacBook “sieht”, damit kommuniziert und es zum Entsperren authentifiziert – wie es eine Apple Watch heute mit dem Mac und iPhone ebenfalls macht. Allerdings auf einem ganz anderen Level der Sichtweise. Doch bis es zu einer  Glass kommt, werden wir vorher noch viel mehr Schritte zu diesem Ziel sehen – etliche mehr. Es werden Schritt für Schritt mehr Daten nur noch lokal verarbeitet werden können, um nur zwingend notwendige und sich oft veränderte Informationen als Zusatz dazuladen zu müssen.

Ich freue mich daher schon auf den ersten Trip in einer Stadt, in deren Land ich der Sprache nicht mächtig bin, und eine  Glass auf meiner Nase sitzt. Fremdsprachige Schriftzüge in meinem Blickfeld werden über die Sicht und lokal in meine Sprache übersetzt, sodass mir die Kommunikation zwischen zwei Sprachen erlaubt wird. Sie zeigt mir Sehenswürdigkeiten anhand von Kartendaten auf, navigiert mich dorthin und schießt die Urlaubsfotos mit einem Augenzwickeln. Irrsinn? Zukunft? Nun, wer hätte auf seinem GameBoy beim Fangen von Pokémon damals gedacht, dass er diese Viecher heute, 20 Jahre später, in AR auf dem Sofa sitzen hat?

Man sieht oft etwas hundert Mal, tausend Mal, ehe man es zum allerersten Mal wirklich sieht.

∼ Christian Morgenstern – deutscher Dichter ∼

456bc002fa764e3d8645d989d705c8a1  Glass – viel mehr als eine gewöhnliche Brille? Teil 2
kaffeekasse  Glass – viel mehr als eine gewöhnliche Brille? Teil 2
Dir hat dieser Artikel gefallen?
Dann würde ich mich über eine Unterstützung freuen!