Et si la bataille des lunettes connectées se jouait moins sur l’effet “waouh” que sur une seule question : à quoi servent-elles vraiment, toute la journée ?
Evan Spiegel, cofondateur et PDG de Snap (Snapchat), a jeté un pavé dans la mare en jugeant les lunettes Meta Ray-Ban « pas très utiles ». En filigrane, une idée simple : sans utilité quotidienne, le format ne décollera pas.
Une critique frontale des Ray-Ban Meta
Spiegel dit avoir essayé les Meta Ray-Ban Display et ne pas avoir été impressionné. Il pointe des fonctionnalités « très limitées » et une utilité trop faible pour justifier le port au quotidien.
Les Ray-Ban Meta misent sur un usage “capture” et audio. Prendre des photos, filmer et écouter, oui. Mais sans affichage riche, l’expérience reste proche d’un accessoire, plus que d’une plateforme.
Dans l’article source, la critique vise surtout l’écart entre gadget et outil. Le marché ne récompensera pas uniquement l’intégration de capteurs, mais la capacité à créer de nouveaux usages.
- Verdict de Spiegel : « Elles ne sont pas très utiles »
- Problème sous-jacent : des fonctions amusantes, mais peu transformatrices
- Enjeu clé : porter un objet sur le visage exige une valeur d’usage élevée
Snap promet un “ordinateur dans des lunettes” en 2026
Snap prévoit de sortir en 2026 des lunettes Spectacles (Specs) intégrant un ordinateur. Spiegel parle d’un format qui garde « la tête haute et les mains libres », au lieu d’enfermer l’utilisateur derrière un écran.
La MR combine réel et virtuel avec ancrage spatial. Elle s’appuie souvent sur des caméras de passthrough, c’est-à-dire le flux vidéo du réel affiché dans un dispositif.
Dans l’article source, Snap vise une AR “plus humaine”. L’objectif n’est pas de “tuer” le smartphone, mais d’inventer de nouvelles expériences informatiques, plus naturelles et moins isolantes.
- Promesse : un ordinateur porté, mains libres
- Cible initiale : early adopters et visionnaires
- Positionnement : nouvelles expériences, pas simple remplacement du téléphone
Ce qui change : des écrans binoculaires et une vision 3D
Spiegel annonce des « écrans binoculaires », donc un affichage devant chaque œil. Cela permet une perception en 3D, jugée essentielle pour une “vraie” AR dans un format proche de lunettes normales.
L’affichage binoculaire facilite la profondeur, la stabilité des éléments et l’illusion d’objets numériques “posés” dans l’espace. C’est un point différenciant face à des approches à affichage plus limité.
Dans la source, Meta est décrite avec des Meta Ray-Ban Display à écran 2D sur l’œil droit. En parallèle, Meta a aussi un prototype Orion, annoncé comme plus avancé, avec 3D et deux écrans.
- Écrans binoculaires : affichage sur les deux yeux
- Vision 3D : meilleure perception spatiale des contenus
- Ambition : un format proche de lunettes “normales”
Interaction “plus naturelle” : voix et mains plutôt que bracelet
Snap mise sur un contrôle à la voix et avec les mains. Le hand tracking, c’est la capacité à détecter et interpréter les gestes des mains pour interagir sans contrôleur.
Spiegel explique ne pas investir dans un bracelet d’interface, contrairement à Meta qui explore un bracelet neuronal. Snap veut une interaction alignée sur les comportements du monde réel.
Cette approche vise à réduire la friction. Si l’utilisateur doit ajouter des accessoires ou apprendre des gestes complexes, l’adoption grand public devient plus difficile.
- Contrôle vocal : commandes et requêtes par la voix
- Philosophie : rendre l’informatique “plus humaine”
“Dix fois meilleur qu’un smartphone” : la barre est très haute
Spiegel reconnaît un point majeur : en 2016, les premières lunettes-caméra de Snap n’étaient pas « dix fois meilleures qu’un smartphone ». Pour qu’un nouveau format s’impose, il doit être radicalement supérieur.
Cette notion de “10x” n’est pas qu’un slogan. Elle traduit une exigence d’usage : gain de productivité, confort, accessibilité, ou capacités impossibles sur téléphone.
Spiegel évoque aussi un futur où les lunettes permettront de “superviser” des intelligences artificielles agissant à notre place et où le temps d’écran global diminuerait.
- Objectif : dépasser l’usage du smartphone, pas l’imiter
- IA : déléguer des actions, orchestrer des tâches
- Effet attendu : moins d’isolement, moins de temps d’écran
Snap OS 2.0 et WebXR : la stratégie plateforme
Le pari de Snap ne se limite pas au hardware. L’entreprise a présenté Snap OS 2.0, un système d’exploitation pensé pour les lunettes connectées, avec un point clé : la compatibilité WebXR.
WebXR est un ensemble d’API web permettant d’exécuter des expériences VR/AR dans un navigateur. L’intérêt est immédiat : réduire la dépendance aux app stores et accélérer la disponibilité de contenus.
Spiegel veut rassurer les développeurs : « Tout ce qui fonctionne dans un navigateur fonctionnera sur les Specs. » Cela vise à abaisser les coûts de portage et à densifier vite le catalogue.
- Snap OS 2.0 : OS orienté lunettes
- WebXR : expériences immersives via navigateur
- Enjeu : attirer les développeurs face à visionOS, Android XR et Meta
Cas d’usage : productivité, travail et expériences partagées
Spiegel insiste sur la productivité : disposer d’un “très grand écran partout” pour monter, regarder ou travailler. L’idée est de transporter son espace de travail, sans sortir d’ordinateur.
Il évoque aussi le jeu vidéo : moins isolant, plus social, avec des expériences partagées dehors. L’intérêt de l’AR est de réunir plusieurs personnes dans le même environnement réel.
Imaginez une équipe terrain qui consulte des documents, check-lists et schémas en gardant les mains sur l’intervention. La donnée vient à l’utilisateur, au lieu d’interrompre l’action.
Imaginez une formation en situation, où l’apprenant voit des repères et consignes contextuelles pendant qu’il effectue le geste, puis valide par la voix ou un geste simple.
- Productivité : écran “partout”, contexte immédiat
- Social : expériences partagées dans le monde réel
- Apprentissage : guidance contextualisée, mains libres
Implications pour les professionnels : préparer les contenus dès maintenant
Même si ces lunettes visent d’abord les early adopters, elles annoncent un basculement : des contenus pensés pour le navigateur, l’AR et des interfaces mains/voix.
Pour les organisations, l’enjeu est d’anticiper la forme des contenus. Des modules courts, contextuels, consultables en mobilité, compatibles web et intégrables aux parcours existants.
Côté formation, l’articulation avec un LMS (Learning Management System) reste centrale. Les expériences immersives doivent se suivre, se mesurer et s’industrialiser, pas rester des démos.
- Contenus web-first : pensés pour WebXR et la mobilité
- Micro-apprentissages : séquences courtes, actionnables
- Industrialisation : suivi, diffusion, compatibilité multi-supports
Comment explorations360 s’inscrit dans cette trajectoire
Dans ce contexte, l’approche no-code devient un accélérateur. Avec easystory360, des équipes formation ou communication peuvent créer des expériences immersives sans développement, depuis un navigateur.
Les contenus peuvent être publiés sur le web, via QR code ou iframe, ce qui colle à l’idée défendue par Snap : si le navigateur devient un socle, la compatibilité gagne en pérennité.
Pour déployer sur site, easykiosk360 aide à scénariser des parcours en point de vente, musée ou événement. Et easybox360 facilite la diffusion et l’exploitation de contenus 360° en contexte.
Dans les environnements sensibles, easycare360 permet d’envisager des usages orientés accompagnement et pédagogie, avec une logique d’accessibilité et de mise en situation.
On peut aussi renforcer l’engagement avec un quiz VR, utile pour valider des acquis après une expérience immersive. L’objectif reste le même : passer du “gadget” à l’utile, mesurable, réplicable.
- easystory360 : création no-code d’expériences immersives web
- easykiosk360 : diffusion sur bornes et parcours guidés
- easybox360 : distribution et exploitation de contenus 360°
- easycare360 : scénarios orientés soin et accompagnement
- quiz VR + LMS : évaluation et suivi dans les parcours
Une course contre Meta, Apple et Google, mais surtout contre l’inutilité
Snap veut faire des Specs une nouvelle plateforme informatique. Mais l’article source rappelle l’ampleur du défi : Meta, Apple et Google avancent vite et disposent d’écosystèmes puissants.
Dans ce paysage, la phrase « pas très utiles » sonne comme un avertissement à toute l’industrie. Les lunettes connectées ne gagneront pas par addition de fonctions, mais par évidence d’usage.
Si Snap réussit son pari en 2026, l’AR pourrait devenir un outil quotidien. Sinon, elle restera un marché d’initiés, en attente d’un moment “10x” qui justifie enfin le changement de format.
#RéalitéAugmentée #LunettesConnectées #XR #WebXR #SnapSpectacles #SnapOS #FormationImmersive #NoCode #explorations360
Cet article fait partie de notre veille technologique Veille360, une sélection d'actualités sur les technologies immersives.

