Au CES 2026 à Las Vegas, un changement discret mais important est apparu dans l’univers des wearables. Pendant des années, quand on parlait de lunettes connectées, on pensait surtout aux AR glasses, ces lunettes capables d’ajouter des images au monde réel. Cette année, un autre type d’objet a retenu l’attention : les AI glasses, des lunettes pensées d’abord comme une interface pratique pour utiliser l’IA au quotidien.
La nuance est importante. D’un côté, l’AR cherche surtout à enrichir ce que l’on voit. De l’autre, les lunettes IA cherchent à rendre un service utile, au bon moment, avec le minimum de friction. Autrement dit, on passe progressivement d’une logique de démonstration visuelle à une logique d’usage concret. C’est un peu la différence entre un grand écran spectaculaire et un post-it très bien placé : le second peut parfois être plus utile que le premier.
Pour les entreprises, les formateurs, les équipes innovation ou les acteurs de la médiation, ce glissement mérite d’être suivi de près. Il dit quelque chose de simple : le marché mûrit. Les dispositifs ne cherchent plus seulement à impressionner, ils cherchent à s’intégrer naturellement dans la vie réelle.
Ce que le CES 2026 a vraiment montré
L’enseignement principal du salon est clair : il ne suffit plus qu’une paire de lunettes embarque un écran pour être assimilée à de l’AR. Le vrai critère devient l’expérience proposée. Est-ce un outil pour voir des contenus immersifs, ou un outil pour recevoir une information utile, dialoguer, entendre mieux, traduire, piloter un assistant ?
Cette distinction entre AR glasses et AI glasses commence à se clarifier. Les premières restent orientées vers l’affichage visuel riche, la projection d’informations dans l’espace ou des expériences plus immersives. Les secondes utilisent parfois un écran, mais un écran sobre, souvent centré sur du texte, des notifications ou des indications simples.
On voit aussi une réévaluation du format même de la lunette. Plutôt que de vouloir inventer un objet futuriste, plusieurs acteurs reprennent une forme déjà acceptée socialement, légère et familière. Le message est simple : si la technologie veut entrer dans le quotidien, elle doit d’abord ressembler à un outil que l’on a envie de porter.
Des produits qui illustrent un virage très concret
Plusieurs dispositifs repérés à Las Vegas montrent bien cette évolution.
Nuance Audio est sans doute l’exemple le plus parlant d’une lunette connectée qui n’est pas une lunette AR. Le produit n’intègre aucun écran. Son intérêt est ailleurs : grâce à une technologie de beamforming, il aide l’utilisateur à mieux entendre la voix de la personne située en face de lui. Ici, on n’ajoute rien à la vision. On soutient une fonction humaine, l’audition, de façon discrète. C’est une autre manière d’augmenter l’expérience humaine, plus sobre et souvent plus facile à adopter.
Even Realities G2 représente un autre cas très révélateur. Oui, il y a un affichage. Mais il ne sert pas à regarder des vidéos. Son écran monochrome vert affiche de l’information textuelle simple, comme des notifications issues de l’IA ou un script de prise de parole. L’idée n’est pas d’immerger l’utilisateur, mais de placer une information utile au bord du champ de vision. Le produit se rapproche davantage d’un pense-bête intelligent que d’un casque visuel miniature.
Le modèle Even G2 a été lancé au Japon en novembre dernier, avec une zone d’affichage élargie. Il propose aussi une navigation vocale par IA et des fonctions de traduction multilingue. Autre détail intéressant, il peut fonctionner avec la bague connectée Even R1 pour permettre une commande à une main. Son prix annoncé démarre à 659 dollars. Là encore, le signal est clair : l’enjeu n’est plus seulement l’affichage, mais la qualité de l’usage.
LLVision Leion Hey pousse cette logique encore plus loin dans le domaine de la communication. Ces lunettes affichent en temps réel des sous-titres sur les verres à partir de la parole de l’interlocuteur. Elles peuvent aussi traduire plusieurs langues grâce à l’IA. Ce n’est pas un gadget de visualisation. C’est un outil pour comprendre, converser et réduire une barrière. L’intérêt est évident pour les échanges internationaux, mais aussi pour l’accessibilité, notamment dans la communication avec des personnes malentendantes.
Le vrai défi n’est pas seulement l’écran, c’est l’interaction
Si les AI glasses progressent, elles se heurtent vite à des questions très concrètes : comment les contrôler sans gestes gênants ? Comment parler à un assistant sans exposer sa vie privée en public ? Comment capter un contexte d’usage sans demander en permanence un effort à l’utilisateur ?
C’est là que les accessoires vus au CES 2026 deviennent intéressants.
Wearphone adopte une forme proche d’un masque. L’objet reste volumineux, mais son idée est simple : couvrir la bouche pour permettre des appels ou de la saisie vocale sans que les personnes autour entendent. Dans un espace public, beaucoup d’utilisateurs hésitent encore à parler à une IA à voix haute. Ce type d’accessoire répond directement à ce frein d’acceptation.
AIVELA Ring Pro, de son côté, prend la forme d’une bague multifonction. En plus de mesures liées au bien-être, elle propose du contrôle par toucher et par gestes. Pour piloter des lunettes sans toucher les branches et sans commande vocale, ce format a du sens. On peut imaginer une interaction plus fluide et plus discrète dans des contextes professionnels.
Mudra Band se place sur l’Apple Watch et intègre un capteur SNC, pour Surface Nerve Conductance. En pratique, il détecte les signaux nerveux du poignet et permet de contrôler des appareils Apple par micro-mouvements des doigts. Pour des lunettes IA, cela ouvre une piste intéressante : manipuler une interface sans écran tactile visible et sans geste spectaculaire.
Enfin, OVOMIND travaille sur une autre couche, celle de l’état émotionnel. Son bracelet analyse en temps réel des signaux biologiques pour identifier des états comme la tension ou l’excitation. Relié à des lunettes IA, un tel dispositif pourrait permettre des réponses plus contextuelles. Le potentiel existe, mais il appelle aussi de la prudence. Dès que des données biométriques ou émotionnelles entrent en jeu, la gouvernance, le consentement et l’utilité réelle doivent être clairement définis.
Des usages métier plus crédibles que spectaculaire
Cette évolution intéresse plusieurs secteurs, justement parce qu’elle est moins démonstrative et plus opérationnelle.
Formation et prise de parole
Avec un dispositif proche de l’Even Realities G2, un formateur, un conférencier ou un manager pourrait afficher un plan, quelques points-clés ou des rappels de timing dans son champ de vision. C’est l’équivalent d’une fiche mémo discrète, mais toujours accessible. Pour la formation, cela peut aider à fluidifier l’animation sans casser le lien visuel avec le public.
Tourisme, accueil et médiation multilingue
Avec un produit comme LLVision Leion Hey, un agent d’accueil dans un site touristique, un musée ou un aéroport pourrait voir s’afficher des sous-titres ou une traduction pendant l’échange. Pour des équipes en contact avec des publics internationaux, le gain potentiel est simple à comprendre : moins de friction dans la conversation, donc une meilleure qualité de service. Pour mesurer cet impact, il faudrait suivre des indicateurs concrets, par exemple le temps moyen d’échange, le taux de résolution au premier contact ou la satisfaction des visiteurs.
Santé et accessibilité
Nuance Audio montre aussi une voie intéressante. Dans un environnement médical, social ou d’accueil du public, une assistance auditive discrète peut améliorer la compréhension des échanges sans imposer un dispositif lourd. De même, des lunettes affichant des sous-titres peuvent soutenir la communication avec des personnes ayant des troubles auditifs. Ici, la technologie immersive n’est pas là pour impressionner, mais pour réduire une difficulté très concrète.
Ce que cela change pour les projets immersifs
Le signal envoyé par le CES 2026 est utile pour tous les acteurs du numérique immersif. Il rappelle qu’une bonne expérience ne dépend pas toujours d’un affichage spectaculaire. Parfois, la bonne réponse est une information bien placée, une interaction simple, un contenu contextualisé et un format accepté naturellement.
C’est aussi ce qui rend les approches de contenu immersif plus pertinentes quand elles sont pensées pour un objectif précis. Chez explorations360, cette logique se retrouve dans des outils qui cherchent l’utilité avant l’effet. On peut citer easystory360, utilisé par le Département des Alpes-Maritimes dans un contexte où les interfaces immersives évoluent vers des usages plus naturels et mieux intégrés au quotidien. Ce déploiement illustre l’intérêt d’outils numériques concrets pour la médiation culturelle et éducative. Comme le résume le témoignage associé : « L'outil est particulièrement intéressant. »
Autrement dit, qu’il s’agisse de lunettes IA ou de contenus immersifs, la question devient la même : comment proposer une expérience facile à comprendre, utile et bien intégrée au contexte d’usage ?
Ce qu’il faut retenir pour la suite
Les lunettes connectées ne convergent pas toutes vers un seul modèle. C’est même l’inverse. Le CES 2026 montre une diversification des usages. D’un côté, l’AR continue son chemin autour de l’image et de l’immersion. De l’autre, les AI glasses se définissent comme des outils d’assistance, de communication et d’accès à l’information. Cette séparation est plutôt une bonne nouvelle, car elle aide les organisations à choisir en fonction de leurs besoins réels, et non d’un effet de mode.
#InnovationCentrale, #LunettesIntelligentes, #AIAssistance, #TechnologiePortable, #CES2026
Cet article fait partie de notre veille technologique Veille360, une sélection d'actualités sur les technologies immersives.

