Et si vos prochaines lunettes AR remplaçaient plusieurs écrans, tout en comprenant ce que vous regardez et avec qui vous êtes ?
Snap accélère avant 2026, date à laquelle l’entreprise prévoit de lancer ses premières lunettes de réalité augmentée grand public. En attendant, elle déploie Snap OS 2.0 sur les Spectacles actuelles, pour préparer l’écosystème.
La sixième génération, désormais appelée “Specs”, doit être plus légère et plus compacte que les lunettes de 2024. Mais Snap reste discret sur le prix, la date exacte et même les caractéristiques techniques de ce modèle grand public.
Ce que l’on sait, en revanche, c’est que Snap OS 2.0 dessine une vision claire : une AR pensée pour le quotidien, avec navigateur, interface repensée, contenus “Lenses” et fonctions IA au cœur de l’usage.
Snap OS 2.0 : un OS XR pensé pour l’AR du quotidien
Snap OS 2.0 est le système XR qui fait tourner les Spectacles de 5e génération et les futures Specs. Un OS XR orchestre affichage, capteurs, interaction et apps immersives.
L’objectif affiché est d’amener l’AR hors des démos, vers des moments ordinaires : restaurant, plage, transports. Snap cherche à rendre l’expérience “naturelle”, sans sortir le téléphone.
Cette stratégie se lit dans des ajouts très concrets, conçus pour des micro-usages fréquents, plutôt que pour des sessions longues en intérieur.
Navigateur revu : performance, sobriété… et un pont vers le Web immersif
Snap annonce une refonte du navigateur Spectacles, avec un design minimaliste. Le but est double : le rendre plus rapide et améliorer l’efficacité énergétique, critique sur un wearable.
Un navigateur optimisé compte autant que les apps. Il conditionne l’accès fluide à des contenus, des pages et des expériences sans multiplier les installations.
Dans l’ancien article, l’intégration WebXR était mise en avant comme un tournant. WebXR est un standard web pour afficher des contenus immersifs (3D, interactions) dans le navigateur.
Pour les professionnels, cela ouvre une question clé : comment publier des expériences accessibles “comme une page web”, plutôt que via un store et une app dédiée ?
- WebXR : standard web pour expériences AR/VR dans un navigateur
- Enjeu : distribution simplifiée, mise à jour instantanée, accès par lien/QR code
- Point d’attention : performances et autonomie restent déterminantes
Une interface AR plus intuitive : l’ergonomie comme facteur d’adoption
Snap met en avant une interface plus intuitive pour consulter du contenu en AR. En réalité augmentée, l’utilisateur bouge, regarde autour de lui et doit rester attentif au réel.
Cela impose des UI (interfaces) lisibles “au coin de l’œil”, non intrusives et compréhensibles immédiatement. C’est l’un des défis majeurs des lunettes AR face au smartphone.
La promesse de Snap OS 2.0 est donc autant logicielle que culturelle : faire accepter une couche numérique dans des contextes sociaux, sans casser les codes.
- UI AR : doit éviter la surcharge et préserver la perception du monde réel
- Contexte d’usage : extérieur, mobilité, interactions sociales
- Critère clé : accéder vite à l’info, puis la faire disparaître
Spotlight et Gallery : des “Lenses” utilitaires pour consommer du contenu
Snap détaille deux Lenses dédiées. Spotlight vise une expérience “phone-free”, qui superpose spatialement vos contenus préférés dans le monde réel, en grand format.
Gallery, elle, sert à parcourir les vidéos capturées avec Spectacles. L’interface promet un carrousel, du zoom, de l’organisation de favoris et un partage simple vers des amis ou Snapchat.
Ces briques paraissent simples, mais elles structurent l’usage : consulter, trier, partager. Sur des lunettes, ce sont des gestes quotidiens qui valident l’intérêt du format.
- Spotlight Lens : affichage spatial de contenus, sans téléphone
- Gallery Lens : consultation et gestion des captures Spectacles
- Partage : envoi à des contacts ou publication via Snapchat
IA intégrée : traduction et “Spatial Tips” pour comprendre ce que l’on voit
Snap avait déjà ajouté des fonctions IA avant Snap OS 2.0 : traduction de texte en temps réel (panneaux, menus) et traduction de la parole, annoncée pour 40 langues.
S’ajoute “Spatial Tips”, une fonction qui permet de poser des questions à l’IA sur le monde autour de soi. L’idée : relier la caméra au raisonnement, pour obtenir une réponse contextualisée.
Ces usages illustrent une AR “assistive”, centrée sur l’utilité immédiate. Et ils préfigurent des lunettes capables d’accumuler du contexte, voire une mémoire, comme l’évoque Evan Spiegel.
- Traduction texte : lecture de signes et menus dans sa langue
- Traduction parole : compréhension d’annonces et conversations
- Spatial Tips : questions-réponses basées sur ce que la caméra voit
Imaginez un technicien sur site qui regarde une étiquette, un pictogramme, ou une consigne. Les lunettes traduisent, puis l’IA reformule la procédure, sans sortir un mobile ni interrompre la tâche.
Imaginez un guide en tourisme qui superpose des repères et des explications, pendant que le visiteur lit instantanément un cartel ou une signalétique dans sa langue, en gardant les mains libres.
Synth Riders sur Spectacles : un test grandeur nature de l’interaction
Snap annonce aussi le portage de Synth Riders (2018), jeu de rythme XR. L’intérêt dépasse le jeu : c’est un stress test pour l’interaction et la réactivité.
Ce type d’expérience met en jeu le suivi des mains (hand tracking) et la latence. Le hand tracking désigne la capacité à suivre les mains pour interagir sans contrôleurs.
Même si Snap ne détaille pas ici la technique, le message est clair : les lunettes ne se limitent pas à l’info. Elles doivent aussi soutenir des expériences interactives exigeantes.
- Latence : délai entre mouvement réel et affichage, critique en XR
- Enjeu : prouver la robustesse de la plateforme au-delà des démos
Écosystème développeurs : Lenses, Lens Studio et connecteurs IA
Côté création, Snap rappelle que les développeurs peuvent intégrer Google Gemini ou OpenAI ChatGPT dans leurs Lenses depuis juin 2025. Un signal fort sur la place de l’IA dans l’écosystème.
Snap indique aussi qu’il est possible de porter des Lenses Snapchat mobiles vers Specs via l’API de Lens Studio. Cela réduit la friction pour réutiliser des contenus existants.
Pour le marché, c’est un point clé : un device AR grand public a besoin d’un catalogue. Snap mise sur la continuité avec Snapchat et sur des outils de création déjà adoptés.
- Lens Studio : environnement de création de Lenses
- API : pont pour adapter des Lenses smartphone aux lunettes
- IA : ajout de capacités conversationnelles et contextuelles
Pourquoi Snap peut “prendre de vitesse” Meta, Google, Apple, Samsung
Road to VR souligne que Snap dispose d’un avantage de “first mover” avec ses lunettes AR standalone de 2024, même si elles sont jugées volumineuses.
En face, plusieurs acteurs avancent par étapes, en commençant par des smart glasses. Le papier cite Ray-Ban Meta et les futures lunettes Android XR de Google.
Samsung et Apple seraient aussi, selon rumeurs, en exploration côté smart glasses, en parallèle de travaux AR. La bataille se joue donc sur le bon compromis : capacités, design, usages.
- Lunettes AR : affichage et ancrage spatial d’éléments numériques
- Smart glasses : souvent centrées sur caméra, audio, notifications
- Trajectoires : itérative (smart glasses) vs “full AR” plus tôt
Ce que cela change pour les usages pro (formation, industrie, tourisme, événementiel) :
Snap décrit des lunettes pensées pour “everyday life”. Pour les professionnels, cela signifie des scénarios terrain, mobiles et socialement acceptables, au-delà des salles dédiées.
En formation, l’AR peut afficher des consignes au bon moment, sur le bon objet. En industrie, elle peut soutenir des checklists visuelles et des repères contextuels.
En tourisme et culture, la traduction et l’information contextualisée peuvent fluidifier la visite. En événementiel, des couches AR peuvent enrichir l’expérience sans imposer une app lourde.
- Formation : micro-apprentissages contextualisés, mains libres
- Industrie : assistance visuelle, réduction des erreurs d’interprétation
- Tourisme : médiation augmentée et accessibilité linguistique
- Événementiel : contenus superposés, interactions rapides, partage
Ce que la tendance implique pour explorations360 : diffusion web, no-code et parcours adaptatifs :
Pour explorations360, l’évolution vers des lunettes connectées au web renforce une logique : rendre les contenus immersifs accessibles facilement, sans dépendre d’un store.
Les expériences créées avec easystory360 sont publiables en iframe et partageables via QR codes. Cette approche s’aligne naturellement avec une consommation via navigateur sur des lunettes.
Le no-code permet aussi d’industrialiser la production de contenus et d’itérer vite. La logique conditionnelle aide à construire des parcours adaptatifs selon les choix de l’utilisateur.
Selon les contextes, ces contenus peuvent être déployés sur easykiosk360 pour des bornes, sur easybox360 pour des kits terrain, ou intégrés à un LMS pour le suivi pédagogique.
Pour la formation et l’évaluation, un quiz VR peut compléter un module immersif, avec des embranchements et des validations. Et pour les cas santé, easycare360 s’inscrit dans la logique d’assistance.
- easystory360 : création et publication web de parcours immersifs
- no-code : production rapide, standardisation, mise à jour continue
- LMS : intégration formation, suivi, traçabilité
- easykiosk360, easybox360, easycare360 : déclinaisons selon les contextes
#SnapSpecs #RéalitéAugmentée #LunettesAR #WebXR #XR #IA #FormationImmersive #explorations360
Cet article fait partie de notre veille technologique Veille360, une sélection d'actualités sur les technologies immersives.

