Et si la prochaine révolution XR ne se portait plus sur la tête… mais sur le nez, avec un simple affichage discret dans votre champ de vision ?
À la veille de Meta Connect (17-18 septembre 2025), Meta a laissé fuiter une vidéo YouTube non répertoriée, rapidement supprimée mais déjà rediffusée. Elle révèle une nouvelle génération de lunettes connectées, dont une version Ray-Ban avec affichage intégré, longtemps évoquée sous le nom de code « Hypernova ».
Ce que montre la fuite : une nouvelle gamme de lunettes Meta
La vidéo relayée par l’analyste XR Brad Lynch et initialement repérée par UploadVR, ne se limite pas à un seul produit. Elle présente plusieurs modèles que Meta devrait évoquer pendant Connect, avec une logique de gamme plutôt que de prototype isolé.
- Oakley Meta HSTN (récemment lancées)
- Un modèle évoqué comme Oakley Meta Sphaera
- Une nouvelle génération de Ray-Ban Meta
- Une variante « Display » avec affichage tête haute et bracelet EMG
Cette diversité suggère une stratégie claire : multiplier les formats et les usages, tout en capitalisant sur des marques de montures déjà installées.
Du “smart audio/caméra” à l’affichage : le vrai saut d’usage
Jusqu’ici, les lunettes connectées grand public se concentraient sur la capture (photo/vidéo), l’audio et l’assistant vocal. L’ajout d’un affichage change la nature de l’interaction : l’information devient visible, contextualisée et immédiate.
Un affichage tête haute (HUD) désigne une surimpression d’informations dans le champ de vision, sans sortir un smartphone. On parle ici d’AR quand des éléments numériques s’ajoutent au monde réel perçu.
À ce stade, Meta ne présente pas des lunettes de MR au sens “3D ancrée” comme sur un casque. On est plutôt sur une AR légère, orientée notifications, guidage et assistance.
Fonctions démontrées dans la vidéo : IA, navigation, traduction
Meta illustre plusieurs cas d’usage concrets, centrés sur l’efficacité et la micro-interaction. L’objectif : réduire les frictions du quotidien en affichant juste ce qu’il faut, au bon moment.
- Saisie de message en “tapotant” sur le dos d’un ordinateur portable
- Navigation avec guidage pas-à-pas (turn-by-turn)
- Identification d’objets via IA
- Traduction de texte en temps réel
La traduction en temps réel repose sur la capture (caméra) puis l’interprétation (IA) avant restitution visuelle. C’est typiquement un usage où l’écran, même minimal, devient déterminant.
Imaginez un technicien itinérant face à une étiquette de machine en langue étrangère : il lève simplement les yeux et obtient une traduction exploitable sans interrompre son intervention.
Le bracelet EMG : l’entrée discrète qui change tout
L’autre pièce maîtresse est le bracelet EMG (électromyographie). L’EMG mesure l’activité électrique des muscles pour détecter des intentions de mouvement, ici au poignet et aux doigts, sans dépendre d’une caméra.
Ce point est crucial en XR : l’input (la façon de contrôler) est souvent le frein principal. Un bracelet EMG permet de piloter une interface sans “ligne de vue”, contrairement au hand tracking (suivi des mains par caméras) qui exige que les mains soient visibles.
Meta avait déjà montré ce type d’entrée avec son prototype de lunettes AR Orion. L’idée est de retrouver une précision d’interaction, même quand les mains sont sous une table ou hors champ.
- Contrôle par micro-gestes, sans lever les bras
- Interaction possible en mobilité, en environnement chargé
- Potentiel de saisie discrète, sans clavier ni écran tactile
Cette technologie est directement liée à l’acquisition de CTRL-labs par Meta (2019), mentionnée depuis des années comme un pari stratégique sur l’interface homme-machine.
Imaginez un formateur qui pilote un quiz VR depuis un bracelet, sans télécommande à distribuer : il lance une question, valide une étape et garde l’attention du groupe sur l’expérience.
Branding et partenariat : Ray-Ban “Display” plutôt que Meta seule
Un point intéressant ressort de l’Article
Or, la vidéo semble montrer l’inverse : Meta “recyclerait” un design proche d’une Ray-Ban Wayfarer un peu plus large et ajouterait le nom « Display ». Cela indique une volonté de rester dans des codes esthétiques familiers et de s’appuyer sur un réseau de distribution existant.
Pour les entreprises, ce détail compte : une monture “portable” au quotidien augmente les chances d’adoption, donc le ROI des contenus et des workflows XR.
Prix évoqué et calendrier : ce que l’on sait (et ce qui reste flou)
Aucun prix n’est confirmé dans la fuite. Mais Road to VR rappelle un précédent rapport de Bloomberg (Mark Gurman) évoquant un tarif “autour de 800 $” pour le pack lunettes avec affichage + bracelet EMG.
- Prix non confirmé officiellement
- Estimation : environ 800 $ (lunettes Display + bracelet)
- Annonce attendue pendant Meta Connect (17-18 septembre 2025)
Le positionnement est stratégique : assez haut pour signifier une rupture technologique, mais potentiellement accessible pour des pilotes en entreprise, des flottes terrain, ou des usages B2B ciblés.
Dans les discussions, les acronymes se mélangent vite. Ici, il est utile de poser des définitions simples, orientées usage.
Les lunettes “Display” se situent plutôt côté AR légère : un HUD et des fonctions d’assistance, plus proches d’un compagnon du smartphone que d’un casque de production 3D.
Impacts métiers : vers une interface continue, mains libres
La promesse est simple : rendre l’information “présente” sans imposer un écran. Pour les secteurs où l’attention, la mobilité et la sécurité comptent, le potentiel est immédiat.
- Industrie/maintenance : procédures, checklists, repérage d’objets, traduction d’étiquettes
- Santé : accès contextuel à des informations, mains libres en consultation (selon cadre réglementaire)
- Commerce : aide à la vente, comparaison produit, informations stock/prix, sans sortir un terminal
- Tourisme/culture : médiation contextualisée, traduction, guidage urbain
- Événementiel : orientation, messages, scripts, interactions visiteurs
Le point clé n’est pas “l’effet waouh”, mais la continuité : moins d’allers-retours entre monde réel et écran, donc moins de perte d’attention.
Se préparer côté contenus : un avantage concurrentiel dès maintenant
Même si les détails finaux (prix, disponibilité, ergonomie) restent à confirmer, la tendance est claire : les formats d’expériences doivent devenir plus modulaires, plus contextuels et plus faciles à déployer.
C’est là que des approches no-code prennent tout leur sens. Avec explorations360, la production et la diffusion d’expériences s’adaptent à des parcs hétérogènes : web, mobile, casque VR et demain lunettes AR.
- easystory360 pour créer des parcours immersifs en no-code, 100 % cloud
- Diffusion web simple : QR code, iframe, partage direct
- Intégration possible dans un LMS pour la formation et le suivi
- Déploiement terrain avec easykiosk360 pour des points d’accès en autonomie
- Kits et captations avec easybox360 pour industrialiser la production 360
- Scénarios santé/formation avec easycare360 selon les contextes
- Quiz VR pour renforcer l’engagement et l’évaluation, sans complexifier l’outillage
L’enjeu n’est pas de “tout convertir” aux lunettes dès demain, mais de concevoir des contenus et des interfaces capables de migrer : du casque VR à l’AR portable, en gardant une logique de parcours.
Une fuite qui ressemble à une rampe de lancement
Road to VR souligne enfin l’évidence : Meta Connect démarre le 17 septembre et cette fuite met déjà la pression médiatique au bon moment. Accident ou teasing, le résultat est identique : l’attention se focalise sur l’AR portable et ses nouveaux modes d’interaction.
Si Meta confirme ces lunettes “Display” et leur bracelet EMG, c’est une étape de plus vers une XR du quotidien : plus légère, plus sociale et surtout plus compatible avec les contraintes du terrain professionnel.
#LunettesConnectées #Meta #RéalitéAugmentée #XR #InterfacesGestuelles #FormationImmersive #explorations360
Cet article fait partie de notre veille technologique Veille360, une sélection d'actualités sur les technologies immersives.

