Et si vos notifications, votre navigation et vos sous-titres apparaissaient enfin dans de “vraies” lunettes de ville, sans sortir le smartphone ?

Meta a profité de sa conférence Connect pour officialiser ses nouvelles lunettes connectées conçues avec EssilorLuxottica, dont un modèle très attendu avec écran intégré. Les Meta Ray-Ban Display Glasses seront lancées le 30 septembre 2025 aux États-Unis au prix de 799 dollars, avec une ambition claire : faire basculer l’AR du gadget vers un usage quotidien.

L’idée n’est pas de remplacer un casque VR, mais d’ajouter une couche d’information utile au monde réel. Grâce à un affichage tête haute (heads-up display) monoculaire et à un bracelet d’entrée “neurale” basé sur l’EMG, Meta cherche à rendre l’interaction plus discrète, plus rapide et plus “portable”.

Ce que Meta annonce exactement : écran, caméra, audio, IA

Les Meta Ray-Ban Display Glasses reprennent les fondamentaux des générations précédentes : capture photo/vidéo, contrôle vocal et composants pensés pour un usage en mobilité. Meta confirme aussi un chipset unique sur la gamme, le Qualcomm Snapdragon AR1 Gen 1.

On retrouve notamment :
- Une caméra 12 MP
- Cinq microphones
- Deux haut-parleurs “off-ear” (audio sans boucher l’oreille)
- Une LED de capture pour signaler l’enregistrement
- Des fonctions d’assistant IA embarqué, au-delà des simples échanges audio

Le point de rupture, c’est l’ajout d’un écran couleur dans l’œil droit. On passe d’une paire de lunettes “audio + caméra” à un dispositif capable d’afficher des informations visibles, contextualisées et actionnables.

Un écran monoculaire : ce que signifient les specs sur le terrain

Meta annonce un affichage 600 × 600 pixels, avec un champ de vision (FOV) de 20 degrés et une densité de 42 pixels par degré (PPD). Le rafraîchissement est à 90 Hz, avec des contenus rafraîchis à 30 Hz.

Ces chiffres ne visent pas l’immersion d’un casque XR, mais la lisibilité d’éléments courts :
- Notifications et messages
- Réponses d’assistant IA
- Cartes et indications de navigation piétonne
- Sous-titres en temps réel et traduction

La luminosité annoncée va de 30 à 5 000 nits, avec détection UV pour ajuster automatiquement l’affichage. L’enjeu est simple : rester lisible dehors, là où beaucoup d’écrans “portés” échouent.

Meta insiste aussi sur la confidentialité : moins de 2% de fuite lumineuse, ce qui signifie que les personnes en face ne devraient presque rien voir de ce qui s’affiche.

Traduction, sous-titres, messages : l’AR utile plutôt que spectaculaire

L’une des promesses les plus concrètes est l’affichage de sous-titres en direct (live captions) et la traduction de langues étrangères. Ici, l’AR se rapproche d’un “sous-titrage du réel”, utile en réunion, sur site, ou en visite.

Les lunettes permettent aussi de voir et répondre à des messages de :
- WhatsApp
- Messenger
- Instagram
- La messagerie native iOS et Android

Meta évoque également les appels vidéo en direct, avec la possibilité de voir l’autre personne, pendant qu’elle reçoit un flux de votre point de vue.

Imaginez un chef d’équipe terrain : il garde les mains libres, voit une consigne courte dans son verre et répond par une interaction minimale, sans interrompre son geste ni sortir un terminal.

Navigation piétonne : une carte dans le verre, en bêta

Meta annonce des indications “turn-by-turn” (pas-à-pas) avec une carte affichée dans le verre. La fonctionnalité sera disponible en bêta dans certaines villes, avec un déploiement progressif.

Ce type de guidage est un cas d’usage clé de l’AR : l’information apparaît au bon moment, dans l’axe de vision, sans imposer de baisser la tête vers un écran.

Pour des métiers mobiles, l’intérêt est immédiat :
- Réduire les micro-interruptions
- Garder l’attention sur l’environnement
- Limiter les manipulations d’appareils en déplacement

Caméra : viseur, zoom, capture et partage depuis les lunettes

L’écran sert aussi de viseur pour la caméra 12 MP, avec un zoom numérique 3×. L’utilisateur peut prévisualiser, capturer, revoir et partager directement depuis les lunettes.

Meta précise :
- Photos par défaut en 3 024 × 4 032 pixels
- Vidéo en 1080p à 30 fps (1 440 × 1 920 pixels)

On voit ici une logique “capture-first” : documenter une situation, un lieu, un chantier, un moment client, sans tenir un téléphone à bout de bras.

Imaginez un formateur en atelier : il enregistre une procédure courte en POV (vue à la première personne), puis la réutilise en micro-module, sans installation lourde.

Meta Neural Band : l’EMG pour piloter sans hand tracking optique

La nouveauté la plus structurante est le Meta Neural Band, inclus, basé sur la sEMG (surface electromyography). L’EMG mesure les signaux électriques générés par les muscles de l’avant-bras lors des mouvements des doigts et de la main.

Important : la sEMG ne “lit pas les pensées”. Elle détecte l’intention motrice via l’activité musculaire, ce qui implique un mouvement, même subtil.

Meta met en avant ce que l’EMG permet, au-delà du hand tracking optique (suivi des mains par caméras) :
- Des gestes discrets, même hors champ des capteurs
- Un retour haptique (feedback tactile)
- Une interaction plus privée, moins visible socialement

Exemples donnés par Meta :
- Balayer avec le pouce pour naviguer dans la musique
- Pincer et tourner le poignet pour régler le volume
- Un travail en cours sur l’écriture manuscrite via EMG

Le bracelet est annoncé avec :
- Jusqu’à 18 heures d’autonomie
- Une certification IPX7 (résistance à l’eau)
- Trois tailles, car l’ajustement est requis

Autonomie, verres, correction : des choix orientés “produit grand public”

Meta indique que les lunettes seront livrées avec des verres transitions (photochromiques) par défaut. L’autonomie annoncée est de six heures en usage mixte et jusqu’à 30 heures via l’étui de charge portable, pliable.

La charge atteindrait 50% en 20 minutes dans l’étui. Meta évoque aussi la compatibilité avec des corrections de -4.00 à +4.00, sans détailler encore le dispositif exact.

Ces éléments comptent pour l’adoption en entreprise : une solution “portable” doit tenir une journée, se ranger vite et se partager dans des conditions maîtrisées.

Disponibilité : lancement en magasin, puis Europe début 2026

Les lunettes et le bracelet nécessitant un ajustement, Meta annonce un lancement initial en points de vente physiques aux États-Unis à partir du 30 septembre 2025.

Les enseignes citées :
- Best Buy
- LensCrafters
- Sunglass Hut
- Boutiques Ray-Ban

Meta indique aussi que certains magasins Verizon suivront. L’expansion internationale viserait le Canada, la France, l’Italie et le Royaume-Uni début 2026, avec davantage d’options d’achat au fil du temps.

Deux coloris sont annoncés :
- Shiny Black
- Shiny Sand

Et deux tailles de monture :
- Standard
- Large

Ce que ça change pour les usages pro : mains libres, contexte, discrétion

Ces lunettes ne sont pas un casque MR : pas de grande scène 3D, pas de large FOV immersif. En revanche, elles ciblent l’efficacité terrain, avec un affichage “juste assez” et un contrôle discret.

Dans les environnements professionnels, cela ouvre des scénarios immédiats :
- Logistique : check-list et picking en affichage tête haute
- Maintenance : étapes courtes et rappels sécurité sans tablette
- Commerce : infos produit et stock sans casser la relation client
- Tourisme : médiation et traduction sans téléphone
- Santé : accès rapide à des informations, en gardant l’attention sur le patient

Le fil conducteur est la réduction de la friction : moins d’écrans à manipuler, moins d’allers-retours, plus de continuité dans l’action.

Ce que nous retenons chez explorations360 : contenus partout, sur tous les supports

Chez explorations360, cette annonce confirme une tendance nette : le contenu doit être pensé “multi-écrans”, du navigateur web au casque VR et demain aux lunettes avec affichage. Les expériences ne peuvent plus dépendre d’un seul device.

C’est aussi l’esprit de nos approches no-code, lorsque la rapidité de production et de déploiement prime. Avec easystory360, une expérience 360° peut être publiée facilement, intégrée en iframe et partagée via QR codes pour un accès immédiat.

Dans une logique terrain, on peut combiner :
- Des modules 360° conçus avec easystory360
- Des parcours sur borne via easykiosk360
- Des kits de déploiement événementiel avec easybox360
- Des scénarios orientés santé et accompagnement avec easycare360
- Des quiz VR pour valider des acquis et mesurer la progression
- Une intégration à un LMS quand la traçabilité formation est requise

L’enjeu devient la continuité : consulter une info courte dans des lunettes, puis basculer sur une ressource 360° plus détaillée sur mobile, tablette ou casque, sans casser le parcours.

Vers une “disparition de l’interface” : affichage privé + micro-gestes

Meta combine deux briques : un affichage discret et privé et une interaction via EMG qui évite de lever les mains devant soi. Cette convergence pousse une idée forte : l’interface devient de moins en moins visible.

On ne parle pas seulement de technologie, mais de comportement :
- Moins d’interactions publiques avec un écran
- Moins de dépendance au geste “téléphone en main”
- Plus de micro-actions, contextualisées, dans le flux de travail

Si la promesse tient en conditions réelles, ces lunettes pourraient installer une nouvelle norme : l’information utile, au bon moment, sans appareil apparent.

#Meta #RayBan #LunettesConnectées #RéalitéAugmentée #XR #Wearables #sEMG #FormationImmersive #explorations360

Cet article fait partie de notre veille technologique Veille360, une sélection d'actualités sur les technologies immersives.