Et si la survie de Snap ne se jouait plus dans une app, mais sur une paire de lunettes de réalité augmentée ?
Dans une lettre ouverte, Evan Spiegel, PDG et cofondateur de Snap Inc., affirme que 2026 sera l’année la plus déterminante des 14 ans de l’entreprise. Au centre du pari : Spectacles, les lunettes AR attendues en version grand public l’an prochain et un virage « AI-first » assumé.
Le message intervient sur fond de ralentissement publicitaire. Spiegel reconnaît un faux pas au T2, avec une croissance du revenu pub limitée à 4% sur un an. Pour une plateforme encore très dépendante de la publicité, l’urgence est stratégique, pas seulement produit.
Pourquoi 2026 devient un moment charnière
Snap a annoncé en juin travailler sur la prochaine itération des Spectacles, aussi appelées « Specs ». La société n’a pas encore dévoilé le produit final, mais promet une évolution nette du format et des capacités.
Les éléments cités dans la lettre et l’annonce : des lunettes plus petites et plus légères. Elles intégreraient des optiques AR transparentes (see-through), pour superposer du numérique au monde réel, sans l’occulter.
Snap évoque aussi un assistant IA intégré. Ici, l’IA (intelligence artificielle) ne sert pas seulement à répondre à des commandes, mais à soutenir une expérience plus contextuelle, plus continue et plus personnelle.
- « Specs » : lunettes AR de Snap
- Optiques see-through : affichage transparent dans le champ de vision
- Assistant IA : aide embarquée, orientée interaction et contexte
Publicité en ralentissement : le déclencheur du repositionnement
Spiegel admet un ralentissement au deuxième trimestre, après un début d’année dynamique. La croissance pub à 4% agit comme un signal : le moteur historique de Snap n’est plus suffisant pour garantir l’élan futur.
Dans ce cadre, Spectacles ne sont pas présentées comme un gadget, mais comme un levier de croissance et de diversification. L’enjeu dépasse la « nouveauté » et touche à la capacité de Snap à exister dans la prochaine vague de l’informatique personnelle.
La lettre relie explicitement la performance des Specs à plusieurs axes : IA, publicité et revenus directs. Autrement dit, Snap cherche un équilibre entre monétisation classique et nouvelles sources de valeur.
- Dépendance pub : fragilité en cas de ralentissement
- Revenus directs : nécessité d’élargir les flux
- Matériel + logiciel : changement de catégorie concurrentielle
Du smartphone aux lunettes AR : une rupture de paradigme
Spiegel insiste : il ne s’agit pas de « mettre les apps du téléphone dans des lunettes ». Il présente au contraire un basculement hors du paradigme applicatif, vers une expérience « AI-first » : personnalisée, contextuelle et partagée.
Le paradigme applicatif, c’est ouvrir une application pour réaliser une tâche. Le modèle « AI-first » vise plutôt à exprimer une intention et à laisser un agent (ou assistant) orchestrer l’accès aux contenus et actions.
La lettre ancre cette transition dans des constats d’usage : nous passons des heures devant des écrans. Et l’IA transforme le travail, en nous faisant passer de la micro-gestion de fichiers et d’apps à la supervision d’agents.
Des « photons » plutôt que des objets : l’argument économique et industriel
Spiegel avance un autre point : le coût de fabrication des biens physiques augmente. Les lunettes AR ouvriraient la voie à substituer certains objets par des équivalents numériques, « faits de photons », réduisant potentiellement le gaspillage.
Cet angle projette l’AR comme une économie des biens numériques et pas seulement comme un canal média. L’idée : remplacer plusieurs écrans physiques par un affichage virtuel, modulable, privé et contextuel.
Cette promesse est aussi une promesse produit : une même paire de lunettes pourrait, en théorie, servir de support à de multiples usages, là où nous cumulons aujourd’hui téléphone, moniteur, TV, etc.
- Substitution : du matériel vers le numérique
- Écrans virtuels : affichage « privé » visible par l’utilisateur
- Économie digitale : nouveaux biens et services AR
Ce que Snap demande aux lunettes : mémoire, contexte, personnalisation
Spiegel décrit un OS (système d’exploitation) qui se personnalise grâce au contexte et à la mémoire. L’enjeu : plus l’appareil est utilisé, plus il devient utile et plus sa valeur « composée » augmente dans le temps.
Cette logique rappelle des plateformes où l’historique et les préférences améliorent l’expérience. Mais ici, elle est appliquée à un dispositif porté, en prise directe avec l’environnement et les activités quotidiennes.
Imaginez demander « retrouve le document de la semaine dernière » et l’obtenir immédiatement, sans naviguer dans des dossiers. L’interface devient conversationnelle et situationnelle, plutôt que hiérarchique.
- OS : couche logicielle centrale du device
- Contexte : lieu, activité, environnement, moment
- Mémoire : continuité d’usage et apprentissage
Imaginez… des usages AR concrets au travail, en formation, en conception
La lettre donne plusieurs exemples qui éclairent la direction produit. Streaming d’un film sur un « grand écran » transparent et privé, consultation de contenus à la demande, ou collaboration autour d’un prototype 3D à l’échelle.
Imaginez une revue de prototype 3D en taille réelle, à deux, dans un atelier ou une salle projet. Chacun voit le même objet augmenté, discute des ajustements et valide plus vite, sans maquette physique immédiate.
Imaginez des apprenants découvrant la biologie via un « cadavre virtuel ». On touche ici à la formation immersive : manipulation visuelle, sécurité, répétition et compréhension spatiale, sans contraintes matérielles lourdes.
- Collaboration : partage d’une scène AR
- 3D à l’échelle : compréhension volumétrique
- Formation : visualisation guidée, répétable
Concurrence XR : une course à l’ordinateur « après le smartphone »
Le texte rappelle que Snap n’est pas seul. Meta, Google, Samsung et Apple sont cités comme acteurs qui développent leurs propres appareils XR, des casques de réalité mixte aux lunettes connectées, jusqu’aux lunettes AR complètes.
XR recouvre plusieurs familles : casques MR (comme Meta Quest 3 ou Apple Vision Pro, cités dans l’article) et lunettes, des smart glasses aux dispositifs AR plus ambitieux, comme des prototypes.
Dans ce paysage, Snap veut se positionner sur une transition de fond : dépasser les limites du smartphone et sortir d’une compétition « océan rouge » où les usages et les modèles sont déjà saturés.
- Casques MR : mélange du réel et du virtuel via caméras/écrans
- Smart glasses : lunettes connectées, souvent centrées capture/IA
- Lunettes AR : superposition visuelle avancée dans le champ de vision
Organisation interne : « énergie startup » à l’échelle d’un géant
Pour réussir, Spiegel annonce aussi un changement de méthode. Snap veut créer une forme d’accélérateur interne, avec cinq à sept équipes, organisées en squads de 10 à 15 personnes.
Le fonctionnement décrit : des démos hebdomadaires, des cycles de mission de 90 jours et une culture de l’échec rapide. Objectif : garder de la vitesse d’exécution malgré la taille de l’entreprise.
Ce point est clé : les lunettes AR ne sont pas qu’un défi technique. Elles exigent itération produit, design d’interaction et création d’usages. Sans cadence, la promesse « AI-first » reste théorique.
- Squads : petites équipes autonomes
- Demo days : validation fréquente par le concret
- Cycles courts : apprentissage accéléré
Impacts pour les professionnels : contenus, procédures, engagement
Même si la lettre vise d’abord Snap, l’onde de choc concerne tout l’écosystème. Si des lunettes AR grand public s’installent, les organisations devront penser leurs contenus au-delà du mobile et du web.
La VR reste idéale pour l’immersion totale en formation. L’AR, elle, brille sur le terrain : information dans le champ de vision, assistance pas-à-pas, visualisation de données en situation.
Imaginez un technicien guidé par des instructions contextuelles superposées à une machine. Ou un parcours visiteur où des éléments augmentés apparaissent au bon endroit, au bon moment, sans sortir un téléphone.
- Industrie/QHSE : assistance contextualisée, réduction d’erreurs
- Formation : modules courts, visuels, mémorisables
- Événementiel/tourisme : expériences partagées et engageantes
Ce que cela change pour explorations360 : penser multi-supports dès maintenant :
Cette trajectoire renforce une idée simple : les supports se multiplient, mais la valeur vient des contenus et de leur capacité à circuler. Chez explorations360, l’enjeu est d’industrialiser des expériences prêtes pour aujourd’hui et adaptables à demain.
Avec easystory360, la création immersive no-code (sans développement) par glisser-déposer vise l’autonomie des équipes. Les expériences peuvent être diffusées sur le web et sur casques VR, avec une logique de publication pensée multi-plateforme.
Pour les déploiements terrain et événementiels, easykiosk360 et easybox360 structurent la diffusion sur site, en limitant la friction d’accès. Et pour la santé et l’accompagnement, easycare360 s’inscrit dans des parcours où l’immersion sert l’explication.
Enfin, l’intégration à un LMS (Learning Management System) et l’usage de quiz VR permettent de suivre l’apprentissage et d’ancrer l’évaluation, point souvent décisif en formation professionnelle.
- easystory360 : création no-code et diffusion web/VR
- easykiosk360, easybox360 : dispositifs de diffusion sur site
- easycare360 : usages orientés santé et accompagnement
- Quiz VR + LMS : suivi, traçabilité, mesure pédagogique
#SnapSpectacles #RéalitéAugmentée #XR #LunettesAR #IA #FormationImmersive #InnovationTech #TransformationNumérique
Cet article fait partie de notre veille technologique Veille360, une sélection d'actualités sur les technologies immersives.

