Hands-on mit der Meta Ray-Ban Display Brille

Wenn es um das neue 799-Dollar -Meta geht Ray-Ban Display-Brille, es ist das dazugehörige flauschige, graue Armband, das wirklich glänzt.
Ich konnte Metas Smart Glasses der nächsten Generation testen, die das Social-Media-Unternehmen am Mittwoch auf seiner jährlichen Connect-Veranstaltung ankündigte . Es handelt sich um die ersten Brillen mit integriertem Display, die Meta an Verbraucher verkauft. Dies ist ein wichtiger Schritt für das Unternehmen auf dem Weg zur Verwirklichung der Vision von CEO Mark Zuckerberg, dass Headsets und Brillen Smartphones als bevorzugte Form der Computernutzung ablösen.
Das Display der neuen Brille ist allerdings noch recht simpel. Letztes Jahr stellte Meta auf der Connect seine Orion-Brille vor, einen Prototyp, der komplexe 3D-Grafiken über die physische Welt legen kann. Diese Brille war dick, benötigte einen Rechenpuck und wurde nur zu Demozwecken gebaut.
Das Meta Ray-Ban Display wird jedoch ab dem 30. September in den USA für die Öffentlichkeit erhältlich sein.
Obwohl die neue Brille nur über ein kleines digitales Display in der rechten Linse verfügt, ermöglicht dieser Bildschirm einzigartige visuelle Funktionen, wie das Lesen von Nachrichten, das Anzeigen von Fotovorschauen und das Lesen von Live-Untertiteln während eines Gesprächs mit jemandem.
Um das Gerät zu steuern, muss man das EMG-Sensorarmband anlegen, das die elektrischen Signale des Körpers erfasst, sodass man die Brille per Handgesten steuern kann. Das Anlegen war wie das Anlegen einer Uhr, nur dass ich beim Auslösen einen kleinen elektrischen Schlag spürte. Es war zwar nicht so ein Schock wie beim Wäschetrocknen, aber er war spürbar.
Das Aufsetzen der neuen Brille war weniger schockierend, bis ich sie aufsetzte und das kleine Display direkt unter meiner rechten Wange zum Vorschein kam. Das Display ähnelt einem miniaturisierten Smartphone-Bildschirm, ist aber durchscheinend, um reale Objekte nicht zu verdecken.
Obwohl es sich um ein hochauflösendes Display handelt, waren die Symbole im Vergleich zu meinem realen Sichtfeld nicht immer klar, wodurch die Buchstaben etwas trüb erschienen. Diese Grafiken sollen Ihren Kopf nicht in kristallklarer Wiedergabetreue umhüllen, sondern dienen dazu, einfache Aktionen auszuführen, wie das Aktivieren der Kamera der Brille und das Anzeigen der Songs auf Spotify. Es ist eher nützlich als unterhaltsam.
Am meisten Spaß machte es mir, mit Handgesten durch das Display zu navigieren und Apps zu öffnen. Indem ich meine Faust ballte und mit dem Daumen über die Oberfläche meines Zeigefingers strich, konnte ich durch die Apps scrollen, als würde ich ein Touchpad verwenden.
Ich brauchte zunächst mehrere Versuche, um die Kamera-App durch Zusammenziehen von Zeigefinger und Daumen zu öffnen. Als die App nicht aktiviert wurde, musste ich zweimal zusammenziehen, um den Doppelklick einer Computermaus nachzuahmen. Obwohl die Verwendung einer Maus für mich selbstverständlich ist, stellte ich fest, dass meine Fingerfertigkeiten beim Zusammenziehen nicht optimal sind und mir die richtige Kadenz und das richtige Timing fehlen, um die App zuverlässig zu öffnen.
Es war etwas seltsam und amüsant, Leute vor mir zu sehen, während ich ständig meine Finger kneifte, um mit dem Bildschirm zu interagieren. Ich fühlte mich, als würde ich eine berüchtigte Comedy-Szene aus der Fernsehserie „The Kids in The Hall“ nachspielen, in der ein Menschenfeind die Leute aus der Ferne beobachtet, während er seine Finger kneift und sagt: „Ich zerquetsche dir den Kopf, ich zerquetsche dir den Kopf!“
Als die Kamera-App endlich geöffnet war, zeigte das Display, was ich vor mir sah, und gab mir eine Vorschau auf meine Fotos und Videos. Es war, als hätte ich meine persönliche Bild-in-Bild-Funktion, wie man sie von einem Fernseher kennt.
Ich hatte zeitweise eine gewisse kognitive Dissonanz, da meine Augen ständig versuchten, sich zu konzentrieren, da das Display immer knapp außerhalb der Mitte meines Sichtfelds lag. Wenn Sie schon einmal einen Sehtest gemacht haben, bei dem Sie feststellen müssen, wann in Ihrer Peripherie Schlangenlinien erscheinen, können Sie sich vorstellen, wie es mir ging.
Neben dem Pinching kann die Meta Ray-Ban Display-Brille auch über den Sprachassistenten Meta AI gesteuert werden, genau wie die Vorgängermodelle.
Als ich ein Foto von einigen Gemälden machte, die die Gänge des Demoraums schmückten, wurde ich vom Support-Personal gebeten, Meta AI zu bitten, mir zu erklären, was ich mir da ansah. Vermutlich hätte Meta AI mir gesagt, dass ich verschiedene Gemälde der Bauhaus-Kunstbewegung betrachtete, aber der digitale Assistent wurde nie richtig aktiviert, bevor ich zu einem anderen Teil der Demo geleitet wurde. Ich konnte mir vorstellen, dass die Live-Untertitelfunktion des Meta Ray-Ban Displays in lauten Situationen hilfreich war, da sie die Stimme des Tourguides der Demo erfolgreich aufnahm, während im Hintergrund Tanzmusik vom Connect-Event dröhnte. Als er sagte: „Lasst uns alle in den nächsten Raum gehen“, sah ich seine Worte auf dem Display erscheinen wie Untertitel in einer Fernsehsendung.
Doch am meisten hat mich das Armband letztendlich überzeugt, insbesondere wenn ich mit der Brille Musik über Spotify hörte. Durch Drehen von Daumen und Zeigefinger, als würde ich einen unsichtbaren Stereo-Regler drehen, konnte ich die Lautstärke regeln – ein erwartungsgemäß angenehmes Erlebnis.
Dieses neuronale Armband hat mir erst richtig bewusst gemacht, wie viel Spitzentechnologie in der neuen Meta Ray-Ban Display-Brille steckt. Und obwohl der hohe Preis des Geräts Verbraucher abschrecken könnte, ist die Brille neuartig genug, um Entwickler anzulocken, die nach weiteren Computerplattformen für die Entwicklung von Apps suchen.
SEHEN SIE : Die nächste wichtige tragbare Technologie werden Brillen sein, sagt der Chief Product Officer von Meta .
CNBC