Meta Ray-Ban Display zum Anfassen: Die Smart Glasses, auf die Sie gewartet haben

Wenn die Leute meine Ray-Ban Smart Glasses der ersten Generation sehen, wollen sie eines wissen. Und das hat nichts mit künstlicher Intelligenz, Kameras oder dem überraschend guten Klang zu tun, den sie im offenen Ohr erzeugen. Sie wollen wissen, was ihnen wahrscheinlich gerade jetzt, während Sie dies lesen, als Erstes durch den Kopf geht: Haben sie einen Bildschirm? Die Antwort? Leider nein … bis jetzt.
Auf der Meta Connect 2025 stellte Meta endlich seine Ray-Ban Display Smart Glasses vor, die, wie der Name schon vermuten lässt, über einen Bildschirm verfügen. Das klingt zunächst nicht nach viel – Bildschirme sind überall und ständig zu sehen. Eigentlich sogar zu viele. Doch nachdem ich die Brillen vor der Präsentation getestet habe, muss ich Ihnen leider mitteilen, dass Sie sich wahrscheinlich einen weiteren Bildschirm wünschen werden, ob Sie es wissen oder nicht. Zunächst möchten Sie aber wahrscheinlich wissen, was genau auf diesem Bildschirm vor sich geht.
Die Antwort? Natürlich Apps. Das Display, das tatsächlich vollfarbig und nicht monochrom ist, wie frühere Berichte vermuten ließen , dient als Head-up-Display (HUD) für Dinge wie Benachrichtigungen, Navigation und sogar Bilder und Videos. Die vollständigen Spezifikationen des Displays finden Sie hier im Begleittext zu meinem Hands-on. Zunächst möchte ich mich aber darauf konzentrieren, wie sich der Bildschirm anfühlt. Die Antwort? Anfangs etwas irritierend.

Obwohl das Ray-Ban Display, das 69 g wiegt (etwa 10 Gramm mehr als die erste Generation ohne Bildschirm), sein Bestes tut, um einem keinen Bildschirm vors Gesicht zu drücken, ist es dennoch da, schwebt wie ein echter Clippy und wartet darauf, einen jederzeit mit einer Benachrichtigung abzulenken. Und egal, was man von Smart Glasses mit Bildschirm hält, das ist eine gute Sache, denn das Display ist der Hauptgrund, warum man 800 Dollar für eine Brille ausgeben könnte. Sobald sich die Augen an den Bildschirm gewöhnt haben (bei mir hat es etwa eine Minute gedauert), kann man loslegen. Hier kommt das Meta Neural Band ins Spiel.
Das Neural Band ist Metas sEMG-Armband , ein technisches Gerät, das die Firma schon seit Jahren präsentiert und nun auf die Größe eines Whoop-Fitnessarmbands geschrumpft ist. Es liest die elektrischen Signale in der Hand und registriert Kneifen, Wischen, Tippen und Handgelenksdrehungen als Eingaben in der Brille. Ich hatte zunächst Bedenken, dass sich das Armband klobig oder zu auffällig anfühlen könnte, aber ich kann Ihnen versichern, dass dies nicht der Fall ist – es ist so leicht wie nur möglich. Die Smartbrille fühlte sich auch leicht und angenehm auf meinem Gesicht an, obwohl sie deutlich dicker war als die Ray-Ban-Brillen der ersten Generation.

Wichtiger als sein geringes Gewicht und seine Unauffälligkeit ist seine hohe Reaktionsfreudigkeit. Nachdem das Neural Band fest an meinem Handgelenk saß (anfangs war es etwas locker, aber nach der Anpassung besser), war die Navigation durch die Benutzeroberfläche ziemlich intuitiv. Ein Zusammenziehen von Zeigefinger und Daumen entspricht „Auswählen“, ein Zusammenziehen von Mittelfinger und Daumen entspricht „Zurück“ und zum Scrollen ballt man eine Faust und legt den Daumen wie eine Maus aus Fleisch und Blut darüber. Es ist ein bisschen wie Vision Pro und ein bisschen wie Quest 3 , aber ohne Hand-Tracking. Ich lüge Sie nicht an, es fühlt sich wie Magie an, wenn es flüssig funktioniert.
Persönlich habe ich noch einige Schwankungen bei den Eingaben festgestellt – man muss vielleicht ein- oder zweimal versuchen, etwas einzugeben, bevor es registriert wird – aber ich würde sagen, dass es die meiste Zeit gut funktioniert (zumindest viel besser, als man es von einem Gerät erwarten würde, das buchstäblich das erste seiner Art ist). Ich vermute jedoch, dass die Erfahrung mit der Zeit nur flüssiger wird und sogar noch besser, wenn Sie wirklich üben, richtig durch die Benutzeroberfläche zu navigieren. Ganz zu schweigen von den Anwendungen für die Zukunft! Meta plant bereits die Einführung einer Handschriftfunktion, die jedoch zum Start noch nicht verfügbar ist. Ich konnte es mir aus erster Hand ansehen … irgendwie. Ich konnte die Handschrift selbst nicht verwenden, aber ich habe einem Meta-Vertreter dabei zugesehen, und es schien zu funktionieren, obwohl ich nicht wissen kann, wie gut, bis ich es selbst verwende.

Aber genug von den Bedienelementen; kommen wir nun zu dem, was man damit eigentlich macht. Ich konnte so ziemlich alles ausprobieren, was das Meta Ray-Ban Display zu bieten hat, einschließlich der ganzen Bandbreite an Handy-ähnlichen Funktionen. Zu meinen Lieblingsfunktionen gehört das Fotografieren im POV-Modus, bei dem ein Fenster auf dem Brillendisplay eingeblendet wird, das direkt in der Linse zeigt, was man fotografiert – endlich kein Raten und Prüfen mehr beim Fotografieren. Ein weiterer Wow-Moment ist die Möglichkeit, die Finger zusammenzudrücken und das Handgelenk zu drehen (als würde man einen Drehknopf drehen), um heranzuzoomen. Es ist zwar subtil, aber man fühlt sich wie ein Zauberer, wenn man eine Kamera nur durch Handbewegungen steuern kann.
Ein weiteres herausragendes Feature ist die Navigation, die eine Karte auf dem Brillendisplay anzeigt, um Ihnen zu zeigen, wohin Sie fahren. Natürlich konnte ich die Funktion nur eingeschränkt testen, da ich in meiner Demo nicht mit der Brille herumlaufen konnte, aber die Karte war scharf und hell genug für den Einsatz im Freien (ich habe das Ding im Sonnenlicht getestet, und die Helligkeit von 5.000 Nits war ausreichend). Meta überlässt es Ihnen, ob Sie die Navigation im Auto oder auf dem Fahrrad nutzen, aber es warnt Sie vor den Gefahren des Blicks auf den Bildschirm, wenn es erkennt, dass Sie sich schnell bewegen. Es ist schwer zu sagen, wie störend ein HUD beim Radfahren wäre, und ich plane, dies irgendwann umfassend zu testen.

Eine weitere interessante Funktion, die Sie vielleicht tatsächlich nutzen könnten, ist die Videoanruffunktion. Dabei wird unten rechts ein Video Ihres Gesprächspartners angezeigt. Das Interessante an dieser Funktion ist, dass die Person, die Sie anrufen, die Perspektive Ihres Gesprächspartners einnimmt, sodass dieser sehen kann, was Sie gerade ansehen. Ich würde das in keiner Situation tun, da Ihr Gesprächspartner Sie normalerweise sehen möchte und nicht nur, was Sie ansehen. Aber ich kann bestätigen, dass es zumindest funktioniert.
Apropos einfach funktionieren: Es gibt auch eine Live-Transkriptionsfunktion, die Ihre Umgebung abhört und das Gesagte Ihres Gesprächspartners auf das Display der Datenbrille projiziert. Bei der Nutzung dieser Funktion hatte ich zwei Gedanken: Erstens könnte sie die Barrierefreiheit grundlegend verändern. Gerade bei Hörbehinderungen kann es enorm hilfreich sein, ein Live-Transkript sehen zu können. Zweitens könnte sich eine solche Funktion hervorragend für Übersetzungen eignen, woran Meta in diesem Fall bereits gedacht hat. Ich hatte noch keine Gelegenheit, die Datenbrille zum Übersetzen in eine andere Sprache zu verwenden, aber das Potenzial ist vorhanden.
Ein Problem, das ich hier voraussehe, ist, dass die Smart Glasses andere Gespräche in der Nähe auffangen könnten. Meta hat das auch bedacht und erklärt, dass die Mikrofone im Ray-Ban-Display sich per Beamforming nur auf die Person konzentrieren, die man gerade ansieht. Ich hatte die Gelegenheit, das zu testen. Während ein Meta-Mitarbeiter im Raum mit mir sprach, führten andere ihre eigenen Gespräche in relativ normaler Lautstärke. Die Ergebnisse? Ziemlich gemischt. Während sich die Transkription hauptsächlich auf die Person konzentrierte, die ich ansah, wurden hier und da dennoch einzelne Wörter aufgenommen. Das scheint in lauten Situationen unvermeidlich, aber wer weiß? Vielleicht können Beamforming und KI die Lücken schließen.

Wenn Sie nach einem Killer-Feature für Metas Ray-Ban Display Smart Glasses suchen, bin ich mir nicht sicher, ob es unbedingt eines gibt. Aber eines weiß ich: Die Kopplung der Brille mit ihrem Neural Band dürfte ein echter Game-Changer sein. Die Navigation durch die Benutzeroberfläche von Smart Glasses war in diesem Bereich ein ständiges Problem, und bisher habe ich noch keine Lösung gesehen, die ich für eine Killer-Lösung gehalten hätte. Basierend auf meinen ersten Demos würde ich aber sagen, dass Metas „gehirnlesendes“ Armband der Durchbruch sein könnte, auf den wir gewartet haben – zumindest bis Hand- oder Augentracking in diesem Umfang möglich wird.
Ich werde mehr darüber wissen, wie alles funktioniert, wenn ich die Gelegenheit habe, Meta Ray-Ban Display selbst zu verwenden, aber im Moment würde ich sagen, dass Meta im Rennen um die Smart Glasses immer noch klar der Spitzenreiter ist und sein Vorsprung gerade ziemlich groß geworden ist.
gizmodo