Créer une expérience immersive devrait parfois être aussi simple que partager un lien. C’est toute la promesse du WebXR : permettre à une scène en réalité virtuelle ou augmentée de fonctionner dans un navigateur, sur plusieurs appareils, sans installation lourde. Pour une entreprise, un musée, un service formation ou une équipe innovation, l’idée est séduisante : moins de friction, plus de diffusion, plus de tests rapides.

Mais dans la pratique, le WebXR reste souvent un terrain technique. Comme le rappelle Skarredghost dans son article publié le 23 avril 2026, développer pour le WebXR donne encore parfois l’impression de revenir aux années 90, à l’époque où il fallait créer des scènes 3D avec des briques très bas niveau, comme OpenGL. Aujourd’hui, beaucoup de projets reposent encore sur Three.js, une bibliothèque puissante, mais peu accessible pour un non-développeur.

C’est dans ce contexte que Meta attire l’attention avec un workflow agentique pour son Immersive Web SDK, aussi appelé IWSDK. Derrière ce terme un peu intimidant, il y a une idée simple : utiliser des agents IA capables non seulement d’écrire du code à partir de prompts, mais aussi de comprendre le projet, de manipuler une expérience WebXR dans un navigateur, de la tester et de corriger certains problèmes. Pour le marché immersif, ce n’est pas un gadget. C’est peut-être une étape importante vers une production plus rapide et plus accessible.

Pourquoi le WebXR reste un enjeu important

Le WebXR désigne les expériences immersives accessibles depuis le web. Au lieu de télécharger une application dédiée, l’utilisateur ouvre un lien. Selon l’appareil utilisé, l’expérience peut s’afficher sur ordinateur, mobile, casque VR ou appareil compatible AR. Pour expliquer simplement, le WebXR est à la réalité immersive ce que le site web est au logiciel classique : une porte d’entrée plus légère, plus facile à distribuer.

Pour les organisations, cette logique change beaucoup de choses. Une formation sécurité peut être envoyée à des collaborateurs distants. Une visite virtuelle peut être intégrée dans une campagne touristique. Un démonstrateur produit peut être partagé à un client avant un salon. Le lien devient un outil de diffusion, comme une vidéo ou une page web, mais avec une dimension interactive.

Le problème, c’est que les outils n’ont pas encore toujours suivi. Unity est très utilisé pour créer des expériences 3D et VR, car il offre une interface visuelle, des composants prêts à l’emploi et une logique de production bien connue. En WebXR, l’équivalent est moins évident. Skarredghost cite Wonderland Engine, qui cherche à proposer une sorte de “Unity pour WebXR”. Meta, de son côté, avance avec l’Immersive Web SDK, présenté lors du dernier Meta Connect.

L’IWSDK repose sur Three.js, mais il ajoute une couche plus simple à utiliser. Au lieu de tout construire à la main, les développeurs disposent de fonctions prêtes pour des actions courantes : attraper des objets, gérer la locomotion, ajouter de l’audio spatial ou organiser les interactions de base d’une expérience VR. Il s’appuie aussi sur un Entity Component System, une architecture qui permet de rendre les éléments plus modulaires. Pour prendre une analogie, c’est comme construire avec des briques Lego identifiables plutôt qu’avec du ciment et des pierres brutes.

Ce que Meta ajoute avec l’IA agentique

La nouveauté analysée par Skarredghost ne se limite pas à “demander du code à une IA”. Des outils comme GitHub Copilot, Claude Code ou Cursor savent déjà aider les développeurs à écrire du TypeScript, le langage utilisé par défaut avec l’IWSDK. L’enjeu est ailleurs : Meta a préparé un environnement dans lequel l’agent IA comprend mieux les règles spécifiques du projet WebXR.

Concrètement, lorsqu’un projet IWSDK est créé avec le modèle par défaut, il contient déjà des fichiers d’instructions pour les agents. Skarredghost cite par exemple un long fichier copilot-instructions.md, pensé pour GitHub Copilot. Ce fichier explique la structure du projet, la bonne façon de créer des composants, les erreurs fréquentes à éviter et les conventions propres à l’IWSDK.

C’est un détail très important. Une IA généraliste peut être brillante sur des technologies très documentées, mais moins fiable sur un SDK récent et de niche. Lui donner un mode d’emploi précis revient à briefer un nouveau collaborateur avant de lui confier une mission. Il peut toujours se tromper, mais il part avec le bon contexte.

Meta ajoute aussi des MCP tools. Pour un public non technique, on peut voir ces outils comme une trousse d’actions que l’IA peut utiliser quand elle en a besoin. L’agent n’a pas forcément besoin de connaître tous les détails internes de chaque outil. Il sait simplement que, pour faire une capture d’écran, déplacer la caméra, déplacer un contrôleur ou appuyer sur un bouton de contrôleur, un outil existe.

Ce point est déterminant, car l’IA ne se contente plus de produire du code “dans le vide”. Elle peut interagir avec une instance dédiée du navigateur qui exécute l’expérience WebXR. Grâce aux APIs Playwright et aux outils fournis par Meta, elle peut tester ce qu’elle vient de créer. Dans l’exemple donné par Skarredghost, on peut demander au système de placer des cubes pour former un smiley. L’agent crée la scène, lance l’expérience, prend une capture, vérifie le résultat et peut ajuster si le smiley n’est pas correct.

Pourquoi cela peut changer le prototypage immersif

Dans beaucoup d’entreprises, le frein n’est pas l’idée. Les équipes ont souvent des scénarios intéressants : simuler un geste métier, visiter un lieu inaccessible, présenter un produit complexe, raconter un patrimoine. Le frein, c’est le passage de l’idée au prototype. Il faut des compétences 3D, du développement, des tests sur appareils, des itérations. Chaque étape coûte du temps.

Un workflow agentique bien intégré peut réduire cette distance. Il ne transforme pas un prompt en application finale parfaitement validée, et il ne remplace pas la direction artistique, la pédagogie ou les tests utilisateurs. En revanche, il peut aider à créer plus vite une première version observable. Pour une équipe innovation, c’est précieux. On peut tester une intention avant d’investir dans une production complète.

L’autre intérêt vient du test automatisé. En développement immersif, vérifier une interaction est souvent plus complexe que dans une page web classique. Il faut bouger dans l’espace, saisir un objet, regarder autour de soi, déclencher des événements. Si un agent peut simuler une position, un mouvement de contrôleur ou une pression de bouton, il devient possible de repérer plus tôt certains problèmes.

Il faut tout de même rester lucide. Le “vibe-coding” de prototypes WebXR par prompt peut donner l’impression que la création devient magique. En réalité, la qualité dépendra toujours de plusieurs éléments :

  • La clarté du brief donné à l’IA.
  • La qualité des assets 3D importés.
  • Les limites du SDK utilisé.
  • Les tests sur les appareils réellement visés.
  • La capacité humaine à valider l’expérience métier.

La bonne question n’est donc pas : “L’IA va-t-elle remplacer les développeurs XR ?” Elle est plutôt : “Quels irritants peut-elle enlever pour permettre aux équipes de se concentrer sur l’usage ?”

Des cas d’usage très concrets

Formation industrielle

Imaginons une entreprise qui veut former des techniciens à identifier les zones de danger autour d’une machine. Avec une approche WebXR, elle peut créer un module accessible par lien, où l’apprenant explore un environnement 3D simplifié. Avec l’IWSDK, les interactions de base, comme attraper un objet ou se déplacer, sont déjà mieux encadrées. Avec l’agent IA, l’équipe peut prototyper rapidement une première scène : ajouter la machine, placer des repères rouges, demander à l’utilisateur de choisir le bon chemin, puis tester si les boutons et déplacements fonctionnent.

Le gain n’est pas seulement technique. Les formateurs peuvent voir plus tôt si le scénario pédagogique tient debout. Est-ce que l’apprenant comprend la consigne ? Est-ce que le parcours est trop long ? Est-ce que l’objet à manipuler est visible ? Ces questions se traitent mieux avec un prototype qu’avec un document PowerPoint.

Culture et tourisme

Prenons maintenant un musée ou un office de tourisme. L’objectif peut être de faire découvrir un lieu disparu, une exposition temporaire ou un récit patrimonial. Le WebXR a un avantage évident : il peut être partagé avant, pendant ou après la visite. Une personne reçoit un lien, entre dans une scène, observe des objets, déclenche un son spatialisé, suit un parcours.

Dans ce contexte, le Meta Spatial Editor joue un rôle intéressant. Skarredghost le décrit comme une sorte d’éditeur visuel, proche dans l’esprit de Unity pour le WebXR. On peut importer des assets 3D et les déplacer dans la scène avec des poignées visuelles. Pour des équipes créatives, cette approche est plus parlante que du code pur. L’IA agentique peut ensuite accélérer les ajustements : “place ces panneaux autour de l’objet”, “ajoute une zone d’interaction”, “vérifie que l’utilisateur peut avancer jusqu’au point suivant”.

Ce que cela dit de l’avenir des contenus immersifs

L’annonce de Meta s’inscrit dans une tendance plus large : les outils immersifs deviennent progressivement plus accessibles. Ce n’est pas encore aussi simple que créer une présentation, mais les briques se rapprochent des usages métiers. L’IWSDK apporte des fonctions XR prêtes à l’emploi. Le Meta Spatial Editor apporte une couche visuelle. Les agents IA, aidés par des instructions précises, des MCP tools, un navigateur dédié et Playwright, ajoutent une capacité de production et de test plus itérative.

Chez explorations360, cette évolution résonne fortement avec un enjeu déjà très concret : rendre les expériences immersives simples à déployer et faciles à utiliser pour des publics non spécialistes. Avec easybox360, explorations360 déploie des expériences immersives pour des acteurs culturels afin de faciliter la médiation et la découverte de contenus en réalité virtuelle. Le Musée de Bretagne illustre ce contexte de déploiement : ce type d’installation permet aux visiteurs d’explorer des environnements ou récits immersifs dans un cadre accessible. Le retour utilisateur résume bien l’enjeu : « Me passer de cet outil aujourd'hui, ce n'est plus possible. »

C’est précisément là que les avancées comme celles de Meta prennent du sens. Plus la création WebXR devient fluide, plus les organisations peuvent imaginer des contenus adaptés à leurs publics, puis les diffuser via des dispositifs simples, encadrés et fiables. La technologie devient moins visible, l’expérience prend plus de place.

Demain, les meilleurs projets immersifs ne seront pas forcément ceux qui utilisent le plus d’IA ou le plus de 3D. Ce seront ceux qui combinent un objectif clair, un récit utile, une interface accessible et une diffusion maîtrisée. Le workflow agentique de Meta pour le WebXR va dans cette direction : enlever une partie de la complexité pour laisser plus d’espace à l’usage.

#InnovationAgentique, #WebXR, #MetaAI, #DéveloppementXR, #IntelligenceArtificielle

Cet article fait partie de notre veille technologique Veille360, une sélection d'actualités sur les technologies immersives.