Et si l’optique des lunettes AR était enfin en train de rattraper les usages métiers qu’on attend d’elles depuis des années ?

Depuis longtemps, l’un des freins majeurs des lunettes AR reste le champ de vision (FoV, field of view) trop étroit, qui réduit l’immersion et limite l’intérêt en situation réelle. Au CES 2026, Lumus a présenté ZOE, un nouveau guide d’ondes en verre qui revendique un champ de vision de 70°, un seuil symbolique dans l’industrie XR.

Pourquoi le champ de vision change tout

Le champ de vision, c’est la “fenêtre” dans laquelle l’image numérique apparaît devant vos yeux. Trop petit, l’affichage ressemble à un petit cadre flottant, difficile à exploiter en production, en formation ou sur le terrain.

Aujourd’hui, beaucoup de lunettes AR se situent plutôt entre 25° et 50° de FoV. Résultat : l’utilisateur doit bouger la tête, “chercher” l’information et l’effet de superposition au monde réel perd en naturel.

Avec 70°, l’interface peut occuper une portion bien plus significative de la vision. On se rapproche d’un affichage panoramique transparent, plus crédible pour guider l’action et contextualiser des données.

  • FoV étroit : info visible mais contrainte, impression de hublot
  • FoV large : UI plus confortable, lecture plus rapide, gestes plus fluides
  • En contexte métier : moins de ruptures d’attention, plus de continuité

Waveguide (guide d’ondes) : l’élément clé des lunettes AR

Un waveguide (guide d’ondes optique) est une fine lame de verre qui capte l’image d’un micro-écran et la redirige vers l’œil. Il laisse passer la lumière du monde réel, pour “mélanger” réel et numérique sans masquer l’environnement.

C’est ce composant qui rend possible l’AR en lunettes : afficher des instructions, des pictos, des repères, tout en gardant une vision directe de la scène. Plus le waveguide est performant, plus l’expérience peut être large, lumineuse et exploitable.

Mais l’optique est un compromis permanent. Augmenter le FoV peut impacter :
- la luminosité perçue
- la densité de pixels (PPD) et la finesse de lecture
- l’apparition d’artefacts visuels (reflets, aberrations, etc.)

Road to VR le rappelle : sans voir l’optique ZOE en conditions réelles, difficile de juger si le gain de FoV se fait au prix d’autres concessions.

ZOE de Lumus au CES 2026 : un 70° en verre, pas en matériau “exotique”

Lumus n’arrive pas de nulle part : l’entreprise a développé le waveguide utilisé dans les lunettes Meta Ray-Ban Display. Au CES 2026, elle annonce ZOE, qu’elle décrit comme le premier waveguide géométrique à dépasser 70° de champ de vision.

Ce 70° “tombe” au même niveau que celui atteint par Orion, le prototype de lunettes AR de Meta dévoilé en 2024. Orion avait marqué les esprits en combinant un format compact et un FoV très large.

La différence mise en avant par l’article source tient surtout au matériau. Meta avait obtenu 70° avec des waveguides en carbure de silicium, un matériau au fort indice de réfraction, mais difficile à fabriquer à grande échelle à coût maîtrisé.

Meta a d’ailleurs reconnu en 2025 que la fabrication industrielle de ces waveguides restait un chantier. L’entreprise disait voir des signes de réduction de coûts, tout en admettant qu’il restait beaucoup de travail.

Lumus, de son côté, affirme atteindre 70° avec des waveguides en verre, via le même process que ses autres optiques. Et c’est là que l’enjeu devient très concret : le verre est déjà associé à des procédés industrialisables, validés par une production à échelle via Ray-Ban Display.

  • Orion : 70° via carbure de silicium, fabrication complexe
  • ZOE : 70° revendiqué via waveguide en verre, process “déjà connu”
  • Implication : une voie potentielle vers des lunettes AR large FoV plus industrialisables

Un prototype d’optique n’est pas un produit fini

Point important souligné par Road to VR : les prototypes Lumus montrés incluent les optiques, mais pas forcément une batterie embarquée, ni la puissance de calcul, ni les éléments de tracking. Or ces composants ajoutent du volume, du poids et des contraintes thermiques.

Autrement dit, ZOE est d’abord une démonstration optique. Transformer cette brique en lunettes portables au quotidien implique un travail d’intégration produit, souvent plus long que prévu.

Dans la XR, le résultat final dépend de l’équilibre entre :
- optique (FoV, luminosité, artefacts)
- ergonomie (poids, confort, style)
- autonomie et dissipation thermique
- tracking (tête, mains, environnement) et stabilité
- logiciel : OS, apps, contenus réellement utiles

Vers des lunettes AR “avant 2030” : pourquoi Lumus compte pour Meta

Road to VR estime que ZOE place Lumus “sur la shortlist” des candidats crédibles pour équiper les premières lunettes AR à large champ de vision de Meta. Meta a indiqué viser une commercialisation avant 2030.

L’article suggère aussi une lecture “industrie” : viser précisément 70° n’est peut-être pas un hasard, car c’est le benchmark rendu public par Orion. Il est plausible que l’objectif soit de prouver qu’un 70° est atteignable sans carbure de silicium.

Cette convergence est stratégique : si le 70° devient atteignable via des process verre industrialisables, cela peut accélérer la course au produit, ou au minimum réduire certains risques de fabrication.

Imaginez… des procédures qui restent dans votre champ, sans “chercher l’info”

Imaginez un technicien en maintenance industrielle : au lieu de consulter une tablette, il voit les étapes de contrôle et les repères de sécurité superposés directement sur la machine, dans un champ assez large pour garder le contexte.

Avec un FoV trop étroit, l’opérateur perd du temps à recadrer l’affichage. Avec un FoV plus large, l’interface peut rester lisible tout en laissant une vision claire de la zone de travail.

  • Maintenance : repères, couples de serrage, checklists visibles en continu
  • Logistique : indications de picking sans détourner l’attention
  • Santé : données utiles affichées sans casser la perception du geste

Dans les casques récents, on parle aussi de passthrough : des caméras filment le monde réel et l’affichent dans le casque, permettant une “AR vidéo”. Sur lunettes AR, l’objectif est plutôt une transparence optique directe via waveguides.

Et côté interaction, deux notions reviennent souvent :
- hand tracking : suivi des mains, pour interagir sans contrôleurs
- tracking : suivi de la tête et de l’espace, clé pour stabiliser l’affichage

Imaginez… la visite culturelle augmentée, enfin crédible en lunettes

Imaginez un musée où le visiteur porte des lunettes AR légères. Les cartels, reconstitutions et animations se posent sur les œuvres, dans un champ assez large pour ne pas “casser” la contemplation.

Le FoV compte ici autant que la qualité du contenu : si l’information apparaît dans une petite fenêtre, l’expérience ressemble à un gadget. Si elle s’étend confortablement, elle devient un vrai médium.

Ce que cela implique pour les contenus immersifs côté explorations360

Même si ZOE reste une brique optique, la trajectoire est claire : à mesure que le FoV s’élargit et que les lunettes se miniaturisent, les contenus devront être prêts à s’afficher partout, du web au terrain.

Chez explorations360, cette logique “multi-support” est déjà au cœur des déploiements. Avec easystory360, plateforme SaaS no-code, les équipes peuvent produire des expériences 360 interactives et les publier facilement pour diffusion large.

La publication web (iframe, QR codes, réseaux sociaux) facilite l’accès immédiat sur les supports actuels, tout en préparant la compatibilité avec les terminaux XR à venir, sans redéveloppement systématique.

Selon les projets, ces contenus peuvent s’inscrire dans des parcours plus larges :
- easykiosk360 pour des dispositifs sur site, en point d’accueil ou showroom
- easybox360 pour industrialiser la diffusion et la mise à disposition
- easycare360 pour des logiques d’accompagnement et de support
- quiz VR pour valider des acquis en formation
- intégration LMS pour tracer et structurer des parcours pédagogiques

Le message de fond reste le même : l’optique progresse, mais la valeur se jouera aussi sur les usages, la simplicité de production et la capacité à déployer vite, à grande échelle, avec des outils no-code.

#InnovationOptique #RealiteAugmentee #CasquesXR #Waveguide #CES2026 #TechnologieXR #explorations360

Cet article fait partie de notre veille technologique Veille360, une sélection d'actualités sur les technologies immersives.