Google hat es auf die Ray-Ban Smart Glasses von Meta abgesehen

Smart Glasses liegen voll im Trend, und Google will die Stimmung noch weiter anheizen. In einem kurzen Teaser am Freitag gab Sameer Samat, Googles Präsident des Android-Ökosystems, einen kleinen Einblick in die Zukunft des Unternehmens im Bereich Smart Glasses . Am Ende der I/O-Ausgabe der Android Show-Reihe holt Samat verschämt eine Brille hervor, setzt sie sich aufs Gesicht und verkündet, Google werde für die Zuschauer, die nächste Woche bei der I/O einschalten, „noch ein paar richtig coole Android-Demos“ bereithalten.
Wenn wir zwischen den offensichtlichen, plakatgroßen Zeilen lesen, bedeutet das, dass Google bald Smart Glasses präsentieren wird. Ich persönlich finde das sehr aufregend, aber mir fällt ein Unternehmen ein, das Googles Teaser vielleicht nicht so gut aufnehmen würde. Ein kleiner Hinweis: Google besitzt eine kleine Social-Media-Plattform namens Facebook. So jung Smart Glasses als Gerätekategorie auch noch sein mögen, haben sie bereits ein klares Aushängeschild: Mark Zuckerbergs Meta. Als Besitzer der Ray-Ban Smart Glasses von Meta kann ich mit Sicherheit sagen, dass die Smartbrille trotz der wenigen Konkurrenten den Spitzenreitertitel verdient hat.
Metas Ray-Ban-Brillen sind stylisch, machen überraschend gute Bilder und verfügen über einen Sprachassistenten, der besser ist als die meisten anderen (ähm, Siri). Sie liefern außerdem einen erstaunlich guten Klang für Telefongespräche und Musikwiedergabe, was sie zum perfekten Gadget macht, wenn man etwas hören möchte, sich aber nicht mit ANC-Ohrhörern oder Over-Ear-Kopfhörern abschotten möchte. Meiner Meinung nach sind sie das einzige Gerät, von dem man denkt , dass man es nicht braucht, aber sobald man ein Paar ausprobiert hat, wird man sie wahrscheinlich wollen .
So optimistisch ich auch hinsichtlich der Ray-Ban-Brille von Meta bin, bin ich mir auch völlig bewusst, dass das Feld für Smart Glasses noch völlig offen ist. Meta hat, wie ich bereits erwähnte, den Vorteil, ein großer Fisch in einem relativ kleinen Teich zu sein. Doch diese Konstellation wird zu einer Umwälzung führen, und diese Umstrukturierung könnte von mehreren Unternehmen ausgehen – darunter auch Google.
Obwohl wir zum jetzigen Zeitpunkt noch nicht viel darüber wissen, wird die Hardware von Google bei ihrer Veröffentlichung möglicherweise nicht die klassische Ray-Ban-Silhouette haben, aber sie hätte eines, was Meta nicht hat: das Google-Ökosystem. In Verbindung mit einem Pixel-Gerät könnten Googles Smart Glasses beispielsweise Bereiche erreichen, von denen Meta nur geträumt hat. Stellen Sie sich eine nahtlose Integration mit dem Messaging auf Ihrem Telefon, Telefonanrufen, Audioaufzeichnungs-Apps oder der Kamera-App vor. Das sind oberflächlich betrachtet Kleinigkeiten, aber wenn Fotos oder Videos, die mit Ihren Smart Glasses aufgenommen wurden, direkt in der Foto-App Ihres Telefons erscheinen, verbessert sich die Lebensqualität erheblich und könnte für viele Menschen ausschlaggebend sein. So toll Metas Ray-Ban-Brillen auch sind, sie werden nie eine vollständige, native Integration, beispielsweise mit einem iPhone, haben. Google hingegen? Tja, die Möglichkeit ist grenzenlos.

Erschwerend kommt hinzu, dass Google auch bei der KI einen Vorsprung hat. Wenn es etwas gibt, das ich an Metas Ray-Ban-Brillen nicht mag, dann ist es Meta AI. Zwar eignet sich Meta AI gut für einfache Sprachassistentenbefehle wie „Video aufnehmen“, aber bei anspruchsvolleren, komplexeren Aufgaben empfinde ich es als unzuverlässiger. Bei einem kürzlichen Strandausflug in Florida beispielsweise teilte mir Meta AI mit großer Sicherheit mit, dass fast jede Muschel, die ich in der Hand hielt, ein Haifischzahn sei oder dass das Auto, das ich mir ansah, ein „In-fin-ee-tee“ statt eines Infiniti sei.
Es ist schwer zu sagen, ob Googles Gemini diese Aufgaben besser bewältigen würde. Es ist jedoch erwähnenswert, dass es im Bereich der generativen KI schon etwas länger aktiv ist und viele verschiedene Modelle für Smart Glasses bietet. Durch die enge Integration von Smartphone und Brille könnte Gemini (insbesondere ein agentenbasiertes Gemini) noch mehr Funktionalität herausholen und Googles Smart Glasses einen Vorteil gegenüber Metas Ray-Bans verschaffen.
Google hat bereits letztes Jahr auf der I/O 2024 einen kleinen Vorgeschmack darauf gegeben, was seine Smart Glasses mit KI leisten könnten. Project Astra, wie Google es nennt , ist eine Smart Glasses-Benutzeroberfläche, die auf Computer Vision basiert und verschiedene Funktionen ermöglicht. In einer kontrollierten Demo zeigte Google, wie Astra Computercodezeilen vom Bildschirm lesen und Ratschläge geben oder sich sogar Objekte in der Umgebung merken kann, falls man sie verliert. Es ist eine überzeugende, wenn auch möglicherweise noch ferne Vision dessen, was eine von Google entwickelte Smart Glasses leisten könnte, und eine, die wir nächste Woche vielleicht genauer sehen werden.
Egal, was in ein paar Tagen auf der I/O passiert, für Google und Meta ist die Zeit entscheidend. Zwar haben weder Samsung noch Apple ihre eigenen Smart Glasses offiziell angekündigt, aber beide entwickeln höchstwahrscheinlich eigene Geräte , die alle Vorteile eines Google-Geräts (enge Integration und KI-Kompetenz) sowie ein noch größeres Ökosystem an ergänzenden Produkten – Telefone, Fernseher, Lautsprecher usw. – bieten.
Man muss Meta allerdings zugutehalten, dass das Unternehmen möglicherweise noch nicht von Google, Samsung oder Apple in den Schatten gestellt wird, wenn es seinen Orion-Prototyp tatsächlich realisieren kann. Orion – für Uneingeweihte – ist eine echte AR-Brille, die digitale Objekte (Texte, Bilder, Videos, Spiele) in das Sichtfeld projizieren kann. Metas Ziel ist es, sie auf die Größe einer normalen Brille zu verkleinern. Laut Meta könnte Orion bis 2027 marktreif sein, aber ein Produkt, das so viel kann wie Meta vorgeschlagen hat, wäre geradezu bahnbrechend.
Was Google betrifft, ist derzeit fast alles nur Spekulation, aber die Möglichkeiten für eine von Google entwickelte Smart Glasses sind definitiv enorm, und hoffentlich werden wir bald einen besseren Einblick in das Potenzial bekommen. Hoffentlich läuft es deutlich reibungsloser als bei Google Glass .
gizmodo