Et si une simple paire de lunettes devenait votre caméra, votre micro… et votre assistant IA en temps réel ?
Meta Connect 2025 marque une nouvelle étape dans la stratégie “post-smartphone” de Meta, avec trois annonces autour des lunettes connectées : Ray-Ban Meta (Gen 2), Oakley Meta Vanguard et les Ray-Ban Display, mises en avant comme la vedette.
Trois modèles, trois usages : vers une interface “mains libres”
Meta segmente clairement son offre. Ray-Ban vise le quotidien et la création rapide. Oakley cible l’effort. Ray-Ban Display ouvre la porte à l’affichage d’informations, plus proche de l’AR.
- Ray-Ban Meta (Gen 2) : à partir de 379 dollars, disponibles
- Oakley Meta Vanguard : 499 dollars, lancement annoncé au 21 octobre
- Ray-Ban Display : 800 dollars, présentées comme le produit phare
Cette trilogie illustre une bascule : l’audio, la caméra et l’IA deviennent une interface. Et l’écran, même unique, prépare des usages où l’information se consulte sans sortir un téléphone.
Ray-Ban Meta (Gen 2) : la capture du quotidien monte en puissance
Meta parle de “Gen 2”, tout en rappelant que c’est techniquement la troisième itération si l’on compte Ray-Ban Facebook Stories (2021) puis Ray-Ban Meta (2023). L’objectif reste grand public et simple.
La capture progresse avec un capteur ultra grand-angle de 12 MP. Les photos montent jusqu’à 3 024 × 4 032 pixels. Côté vidéo, Meta annonce plusieurs formats, limités à trois minutes par clip.
- 1200p à 60 fps
- 1440p à 30 fps
- 3K à 30 fps
L’autonomie vise un usage “journée” pour un wearable. Meta annonce jusqu’à huit heures d’usage continu, plus 48 heures via l’étui. La charge rapide promet 50% en 20 minutes dans l’étui.
- Bluetooth 5.3 et Wi‑Fi 6
- 32 Go de stockage
- Résistance à l’eau IPX4 (pluie légère, éclaboussures)
Le design reste un argument clé, avec 27 combinaisons de montures et verres sur Wayfarer et Skyler. Meta mentionne aussi des options adaptées à différents ponts de nez.
- Verres standard (à partir de 379 dollars)
- Verres polarisés (409 dollars)
- Verres Transitions (459 dollars)
- Verres correcteurs (prix variable)
Meta AI : l’assistant qui “voit” ce que vous voyez
Le cœur de l’expérience n’est plus seulement la caméra, mais l’IA. Meta met en avant Meta AI, déclenchable à la voix (“Hey Meta!”), pour obtenir des actions et informations liées à l’environnement immédiat.
L’idée est de réduire la friction entre intention, information et action. On reste sur des lunettes sans affichage pour ces modèles, mais l’usage se rapproche d’une AR fonctionnelle, portée par l’audio et le contexte.
- Requêtes vocales et aide contextuelle
- Lecture de QR codes
- Suggestions (ex. recettes)
- Prise et sauvegarde de notes
- Traduction en temps réel et appels mains libres (fonctionnalités citées)
Pour clarifier : la VR plonge l’utilisateur dans un monde 3D fermé. L’AR ajoute des infos au réel. La XR regroupe VR, AR et MR.
La MR va plus loin, en ancrant des éléments numériques dans l’espace réel. Ici, Meta avance par étapes, d’abord via IA et audio, puis via affichage avec Ray-Ban Display.
Oakley Meta Vanguard : la version “haute intensité” pensée sport
Avec Oakley, Meta vise des usages où ça bouge, ça transpire et ça doit rester stable. Oakley Meta Vanguard adopte des montures “blade-like” et cible le cyclisme, le snowboard et la course.
La robustesse est un marqueur majeur : certification IP67 (poussière et eau). On est sur un niveau plus exigeant qu’une simple résistance aux éclaboussures, cohérent avec l’outdoor et l’effort.
- Certification IP67
- Optimisation annoncée pour casques de vélo et casquettes
- Système Oakley Three-Point Fit avec trois plaquettes de nez interchangeables
La capture est taillée pour l’action : capteur 12 MP, champ de vision annoncé à 122°, vidéo jusqu’en 3K. Meta cite des modes utiles quand la stabilité et le rythme priment.
- Slow Motion
- Hyperlapse
- Stabilisation d’image ajustable
L’audio est pensé pour l’extérieur. Les lunettes intègrent des haut-parleurs open-ear (oreilles libres) et un ensemble de cinq microphones optimisés pour le vent, afin de garder une voix exploitable en mouvement.
- Haut-parleurs annoncés 6 dB plus forts que les Oakley Meta HSTN
- Réseau de 5 micros “wind-optimized”
- Appels, commandes vocales et musique pendant l’entraînement
Meta annonce des intégrations sport avec Garmin, Strava, Apple Health et Android Health Connect. Les statistiques peuvent être obtenues via Meta AI, avec des bilans post-entraînement et des infos en temps réel.
- Résumés d’entraînement
- Statistiques en temps réel via commandes vocales
- Consultation mains libres (rythme cardiaque, progression, etc. selon appareils)
Côté autonomie, Meta annonce jusqu’à neuf heures en usage mixte (ou six heures de musique). L’étui ajouterait 36 heures, avec charge rapide à 50% en 20 minutes. Le poids annoncé est de 66 g.
- 32 Go de stockage (ordre de grandeur : plus de 1 000 photos ou 100 courtes vidéos)
- Quatre combinaisons monture/verres
- Verres remplaçables à partir de 85 dollars, logique “mix & match”
Ray-Ban Display : l’étape vers une AR “visible”
Le produit mis en avant comme tête d’affiche est le modèle Ray-Ban Display à 800 dollars. Meta l’intègre dans une monture Wayfarer-like, avec un seul écran, pour afficher de l’information dans le champ de vision.
C’est un pivot important : l’information n’est plus seulement entendue, elle est vue. On se rapproche davantage de l’AR, où le monde réel reste visible, enrichi par une couche d’affichage.
Imaginez un technicien en intervention, sans tablette ni papier. Il lance une procédure à la voix, garde les mains libres et consulte une étape critique au bon moment, sans quitter la zone de travail des yeux.
Imaginez un guide tourisme qui capte une séquence courte en POV (vue à la première personne), puis déclenche une traduction en temps réel. Le contenu devient réutilisable pour la communication et la formation interne.
Disponibilité : un signal fort pour les déploiements en Europe
Meta positionne ces lunettes comme des produits globaux. Oakley Meta Vanguard est annoncée en précommande via Meta ou Oakley, avec une disponibilité listée sur de nombreux marchés, dont la France.
- États-Unis, Canada, Royaume-Uni, Irlande
- France, Italie, Espagne, Autriche, Belgique
- Allemagne, Suède, Norvège, Finlande, Danemark, Suisse, Pays-Bas
- Australie (et plus tard : Mexique, Inde, Brésil, Émirats arabes unis)
Pour les entreprises françaises, cette extension réduit des freins classiques : achat, support, renouvellement et homogénéité de flotte. Elle accélère les projets terrain autour de la capture et de l’assistance.
Impacts métiers : de la capture “POV” à l’assistance opérationnelle
Ces lunettes généralisent la capture embarquée et l’interaction mains libres. Cela ouvre des scénarios concrets : preuve d’intervention, démonstration produit, formation terrain, ou contenu marque plus authentique.
- Industrie : capture de gestes, partage d’incidents, assistance audio
- Santé : checklists vocales, notes rapides, retours d’expérience (selon politiques internes)
- Commerce : démonstration produit sans rompre la relation client
- Événementiel : coulisses, contenus embarqués, point de vue participant
- Tourisme : capsules courtes, visites commentées, traduction au besoin
Un terme revient souvent dans ces scénarios : “mains libres”. Il ne s’agit pas d’un gadget, mais d’un gain de fluidité quand les mains sont occupées, que l’attention est critique, ou que le smartphone est inadapté.
Ce que cela change pour les projets immersifs chez explorations360
Pour explorations360, l’enjeu est la continuité entre captation, narration et diffusion. Une fois un contenu produit, il doit rester accessible sans friction, sur un maximum de supports, y compris des lunettes connectées.
Avec easystory360, les expériences 360° sont publiables sur le web et partageables via QR codes. Cette approche “web-first” s’inscrit dans des usages “scan & go” que Meta AI met aussi en avant.
Pour des démonstrations en point de vente, showroom ou accueil, easykiosk360 apporte un mode borne en libre-service. Les lunettes peuvent capter et guider, la borne peut diffuser et faire découvrir au public.
Selon les contextes, easybox360 peut aider à industrialiser la captation et le déploiement de contenus. Et pour la formation, l’approche no-code, les quiz VR et l’intégration LMS soutiennent des parcours mesurables.
- Diffusion web via easystory360 et QR codes
- Démonstration terrain via easykiosk360
- Déploiement et captation via easybox360
- Formation : no-code, quiz VR, intégration LMS
- Cas santé/assistance : easycare360 selon les besoins de parcours et de conformité
#LunettesIntelligentes #RéalitéAugmentée #XR #MetaConnect #WearablesPro #RayBanMeta #OakleyMetaVanguard #explorations360
Cet article fait partie de notre veille technologique Veille360, une sélection d'actualités sur les technologies immersives.

