2025 ist das Jahr, in dem jeder versucht, uns zum Tragen einer Brille zu zwingen. Aber keine Sonnenbrille: smart, mit Bildschirm, mit Assistenten, mit KI im Inneren. Da ist Meta mit seinen Ray-Bans im Halbservice. Da ist Xreal (ehemals Nreal), das sich mit Google zusammengetan hat, um AR-Erlebnisse auf Android XR zu entwickeln. Und dann ist da noch der Geist von Samsung, der Gerüchten zufolge jeden Moment bereit ist, das Feld zu betreten. Inmitten all dieser Aufregung Schnappen verkündete (mit Nachdruck und sehr wenigen Details), dass sein nächster AR-Spezifikationen, „leicht“ und „immersiv“, wird im Jahr 2026 erscheinen. Die Ankündigung erfolgte während derAWE 2025, die internationale Handelsmesse, auf der alles, von Abzeichen bis hin zu Klimaanlagen, „Augmented Reality“ zu bedeuten scheint.
Laut Snap wird es eine Revolution in der Art und Weise sein, wie wir Technologie erleben. Ein neuer Typ Personalcomputer, der nicht auf den Schreibtisch oder in die Tasche passt, sondern auf die Nase.
Federgewichte, große Versprechen
Laut dem CEO Evan SpiegelDie neuen Specs werden den Wendepunkt darstellen. Es ist noch nicht bekannt, wie viel sie wiegen, welche Form sie haben, ob sie eher wie eine Brille oder ein Escape-Room-Visier aussehen, aber eines ist sicher: Für Snap repräsentieren sie die Zukunft des Human ComputingDünn. Tragbar. Vernetzt. Und hoffentlich eleganter als die aktuelle Version, die eher für Halloween als für eine Happy Hour im Park gemacht zu sein scheint.
Sie werden nicht nur leicht, sondern auch intelligent sein. Die Integration mit Gemini (Googles KI) und ChatGPT OpenAI verspricht „multimodale Erlebnisse“. Kurz gesagt: Man sieht sich etwas an, beschreibt es und die KI reagiert. Hoffentlich richtig.

Klack, eine sprechende Brille. Jetzt müssen wir sehen, ob sie auch zuhört.
Snap ist kein Unbekannter in Sachen Ehrgeiz. Spiegel sagte 2019, Smart Glasses seien „noch ein Jahrzehnt vom Mainstream entfernt“. Heute, im Jahr 2025, hat sich einiges geändert. Aber nicht genug.
Der Wettbewerb ist bereits in vollem Gange. Meta arbeitet an einer neuen Generation von Ray-Ban-Brillen mit integriertem Display, das Benachrichtigungen, Anweisungen und Nachrichten in Echtzeit anzeigt. Parallel dazu arbeitet Meta an Projekt Orion, ein Projekt auf halbem Weg zwischen Visier und Brille, das die Leistung von VR-Geräten mit der Tragbarkeit einer Sonnenbrille kombiniert.
Auch Google bewegt sich: Die Partnerschaft mit Xreal könnte auf den Markt bringen Android XR-Brille in den nächsten zwei Jahren. Prototypen befinden sich in der Testphase, aber der Markt bereitet sich vor.
„Was ist das?“ – „Das ist KI“
Snap OS, das Betriebssystem der neuen Specs, wird mit Kameras und generativer KI ausgestattet sein. Die Idee ist, das zu replizieren (und vielleicht sogar zu übertreffen), was Meta bereits versucht: eine Augmented Reality, die auf das Gesehene reagieren kann. Ein Paar Schuhe anzuschauen und zu fragen: „Von welcher Marke sind das?“, ist eines der banalsten Beispiele, aber auch eines der am häufigsten nachgefragten.
Das Versprechen ist ein visueller Assistent, der die Umgebung interpretiert, reagiert, Vorschläge macht und manchmal übersetzt. Und vielleicht, wenn Zeit ist, sogar sagt, wo man eine Toilette findet. Das Problem ist, dass diese Erfahrungen bisher zwischen brillant und frustrierend schwankten. Wenn Snap die Balance findet, könnte es einen großen Marktanteil erobern.
Snap, die Zukunft ist leicht. Aber sie muss das Gewicht der Realität tragen.
Snap glaubt daran. Spiegel behauptet es seit Jahren. Nutzer, zumindest die technikaffineren, hoffen es. Doch bisher bleiben echte AR-Brillen (dünn, bequem, alltagstauglich) ein Mythos. Prototypen, selbst die fortschrittlichsten, scheinen immer kurz vor ihrer Veröffentlichung zu stehen. Und dann sind sie endlich da … auf halbem Weg.
2026 könnte es soweit sein. Doch Snap muss beweisen, dass seine Specs nicht nur leere Worte sind. Denn der Markt ist in Bewegung. Und wer zu spät mit seiner Brille kommt, riskiert, die Zukunft schon am Tisch sitzen zu sehen.