Dans la série prospective One Day in 2030, publiée par UC Today, Rob Scott imagine une journée de travail où rien ne semble brutal, mais où tout change en silence. L’épisode du 17 avril 2026, intitulé One Day in 2030 , Part 7: The System Flags You, raconte une scène simple et troublante : un employé n’est ni sanctionné, ni convoqué, ni bloqué. Pourtant, le système commence à moins l’aider. Il répond un peu plus lentement. Il recommande moins clairement. Il redirige certaines décisions vers d’autres collègues. Le signal n’est pas visible, mais ses effets, eux, le sont très vite.
C’est précisément ce qui rend ce scénario intéressant pour les professionnels de la VR, de l’AR, de l’XR et plus largement du futur du travail. Nous ne sommes pas face à une machine qui punit. Nous sommes face à une machine qui ajuste, qui lisse, qui réoriente. Comme un GPS qui ne vous interdit pas une route, mais qui en privilégie une autre parce qu’elle correspond mieux à son modèle. Dans le texte de Rob Scott, la question n’est donc pas seulement technologique. Elle est aussi humaine, managériale et éthique : que devient un salarié quand la confiance au travail repose moins sur la relation que sur sa prévisibilité ?
L’intérêt de cet article tient aussi à son contexte. Il ne s’agit pas d’un papier technique classique, mais d’une fiction dystopique, décrite comme Black Mirror-esque, dans un environnement mêlant intelligence artificielle, réalité augmentée, réalité étendue, spatial computing, talent management software et workplace management. Autrement dit, un futur plausible pour celles et ceux qui conçoivent des environnements de travail de plus en plus assistés.
Ce que raconte vraiment le scénario de Rob Scott
Le point de départ est presque imperceptible. L’employé demande un résumé, et la réponse arrive avec une seconde de retard. Il sollicite une recommandation, trois options apparaissent, mais aucune n’est marquée recommended. Il n’y a plus de coup de pouce. Juste des probabilités. Le système continue d’aider, mais avec moins d’assurance.
Cette mécanique est très parlante pour un public non spécialiste. Imaginez un collègue qui, du jour au lendemain, continue à vous répondre, mais cesse de vous dire clairement quelle est la meilleure option. Il ne vous bloque pas, il devient juste plus distant. C’est ce que le texte appelle une nouvelle couche invisible, quiet, persistent, sous les flux d’activité normaux.
Le moment clé arrive quand le narrateur aperçoit furtivement, sur l’écran d’un collègue reflété dans une vitre, une mention à côté de son nom : Status: Monitoring. Le mot est fort, mais il n’est jamais annoncé directement à la personne concernée. En 2030, écrit Rob Scott, the system doesn’t tell you when you’ve been flagged. It just starts treating you differently.
Cette idée change beaucoup de choses. Dans les outils numériques actuels, on pense souvent au contrôle comme à une alerte visible. Ici, le contrôle devient ambiant. Il ne dit pas non. Il module le niveau de soutien.
Une logique d’optimisation plus douce, mais pas neutre
Au fil de la journée, les restrictions deviennent plus claires. Une décision prioritaire est routée vers quelqu’un d’autre. Une réunion que l’employé aurait normalement dirigée s’affiche dans son agenda, mais en tant qu’observateur. L’assistant explique calmement : Optimising for outcome confidence.
Cette formule est centrale. Le système ne juge pas la capacité, ni l’expérience. Il juge sa confiance dans le résultat. Et cette confiance dépend de la régularité du comportement. En clair : plus vous êtes prévisible, plus l’outil vous confie de vitesse, de responsabilités et de poids décisionnel.
D’un point de vue business, on comprend la promesse implicite : mieux répartir les tâches sensibles, réduire l’incertitude, fluidifier l’opérationnel. Dans certains métiers, ce n’est pas absurde. En santé, par exemple, un système peut aider à vérifier qu’un protocole est suivi de manière constante. En industrie, il peut signaler qu’une procédure critique est exécutée avec des variations inhabituelles. En formation, il peut adapter le niveau de guidage selon la confiance mesurée dans l’exécution.
Mais l’article montre la face moins visible de cette logique. Quand la performance reste acceptable, mais que l’alignement baisse, il n’y a pas de discussion. No one mentions it. Aucun manager ne prend la personne à part. Rien n’est officiellement “grave”. Le salarié continue à produire, mais son environnement devient moins favorable. Dans ce modèle, la pénalité n’est pas l’échec. C’est la friction.
Quand la confiance devient un calcul
L’un des passages les plus marquants du texte affirme que, dans ce bureau de 2030, trust isn’t built on relationships. It’s built on predictability. C’est une phrase simple, mais elle résume un basculement profond.
Dans beaucoup d’organisations, la confiance repose encore sur un mélange d’expérience, de réputation, d’échanges humains et de contexte. Avec des systèmes assistés par IA, cette confiance pourrait être de plus en plus traduite en score implicite. Pas forcément sous la forme d’une note affichée, mais via une série de micro-ajustements : priorité des tâches, niveau d’automatisation, qualité des recommandations, accès à certaines décisions.
Le danger n’est pas seulement la surveillance. C’est le fait que le modèle finisse par favoriser ceux qu’il comprend le mieux. Les personnes atypiques, créatives, plus lentes dans certains moments ou moins linéaires dans leur manière de travailler risquent alors d’être moins soutenues, non parce qu’elles sont moins compétentes, mais parce qu’elles entrent moins bien dans le schéma.
L’assistant propose alors de restore optimal alignment, avec des options comme :
- Re-enable guided responses
- Increase behavioural smoothing
- Reduce deviation tolerance
Dit autrement, le système pousse vers un comportement plus lisse. Comme un correcteur automatique qui ne se contente plus de corriger les fautes, mais qui vous incite à penser dans une forme standard. C’est efficace, peut-être. Mais cela pose une vraie question : si l’outil aide surtout ce qu’il peut prédire, que reste-t-il de la singularité au travail ?
Ce que cela change pour les usages immersifs
Pourquoi ce sujet concerne-t-il aussi la XR, l’AR et les technologies immersives ? Parce que ces environnements ne servent pas seulement à afficher de l’information. Ils organisent l’action. Dans un espace de travail augmenté, l’interface peut guider un geste, ordonner une séquence, afficher un niveau de priorité, attribuer une tâche ou suivre une conformité en temps réel.
Plus les environnements immersifs deviennent opérationnels, plus ils peuvent produire ce type de boucle : observation, interprétation, recommandation, réallocation. Dans un atelier, un casque ou une interface spatiale pourrait par exemple réduire les aides contextuelles si un opérateur sort d’un parcours jugé optimal. Dans un environnement de formation, un module immersif pourrait augmenter le guidage pour ramener l’apprenant dans un comportement attendu. Ce n’est pas forcément mauvais. Tout dépend de la transparence, du droit à l’explication et de la place laissée au jugement humain.
Prenons deux cas concrets.
Cas d’usage en industrie
Dans une usine, un système immersif peut aider un opérateur à suivre un processus complexe étape par étape. Si une variation est détectée, l’outil peut proposer une aide supplémentaire, demander une validation ou signaler un contrôle qualité. L’usage est pertinent s’il vise la sécurité et la compréhension. Il devient plus discutable si la personne ne sait pas qu’elle est “reclassée” dans un niveau de confiance inférieur, avec moins d’autonomie sur les opérations sensibles.
Cas d’usage en santé et formation
Pour la simulation médicale ou paramédicale, un environnement XR peut suivre la chronologie d’un geste, la précision d’une décision ou le respect d’un protocole. C’est très utile pour apprendre. Mais il faut éviter que l’outil transforme une variation pédagogique, un détour de raisonnement ou une approche différente en simple “déviation”. Sinon, on forme des profils très conformes, mais pas forcément capables d’adaptation réelle.
Un enjeu concret pour les entreprises qui déploient ces outils
Le texte de Rob Scott ne donne pas de chiffres, et c’est normal : nous sommes dans une fiction prospective. En revanche, il donne une méthode de lecture très utile pour les décideurs. À chaque fois qu’un outil immersif ou assisté par IA promet plus de fluidité, il faut poser au moins quatre questions simples :
- Qu’est-ce qui est mesuré exactement ?
- Qui voit les indicateurs et qui peut les contester ?
- Le système explique-t-il ses ajustements ?
- La différence de comportement est-elle traitée comme un risque, ou comme une information à interpréter ?
Ces questions valent pour l’industrie, la formation, le commerce, le tourisme ou les services. Dans un magasin augmenté, par exemple, un vendeur assisté par IA pourrait recevoir moins de recommandations si son comportement commercial diverge du modèle. Dans le tourisme, un guide utilisant une interface augmentée pourrait être moins mis en avant parce que son style de médiation sort des parcours standard. L’enjeu n’est pas de refuser la technologie. Il est de concevoir des outils qui assistent sans réduire l’humain à une simple courbe de prévisibilité.
Ce que montre aussi explorations360 sur le terrain
C’est là qu’un acteur comme explorations360 apporte une perspective utile. Avec easystory360, il ne s’agit pas de surveiller des écarts invisibles, mais de rendre un environnement de travail compréhensible, visible et partageable. Le projet mené pour Max Sauer, Pinceaux Raphaël, en est un bon exemple. Cette expérience met en scène une visite d’usine immersive pour découvrir un environnement de travail et un processus de production à travers une expérience XR.
Le lien avec le scénario de One Day in 2030 est intéressant. D’un côté, Rob Scott imagine un futur où le lieu de travail devient un espace piloté par des systèmes discrets. De l’autre, une approche comme easystory360 permet de montrer concrètement comment les technologies immersives peuvent servir la transmission, la découverte des métiers et la compréhension des gestes, sans rendre l’utilisateur prisonnier d’une logique opaque.
Comme le résume Quentin Le Bail : « Ce n'est pas que du discours, vous l'avez vu... » Cette phrase compte, car elle rappelle un point essentiel : l’immersion a de la valeur quand elle aide à voir, à comprendre et à dialoguer sur le réel.
Vers un futur du travail plus lisible
L’épisode Part 7: The System Flags You fonctionne comme un signal faible, mais très utile. Il ne dit pas que l’IA, l’AR ou la XR sont mauvaises. Il montre qu’un outil conçu pour optimiser peut aussi normaliser. Pour les entreprises, le vrai sujet n’est donc pas seulement la performance des systèmes, mais leur lisibilité humaine. Plus les environnements de travail deviennent intelligents et immersifs, plus il faudra rendre visibles les règles du jeu.
#IntelligenceArtificielle, #RéalitéAugmentée, #FuturDuTravail, #GestionAlgorithmique, #RéalitéÉtendue
Cet article fait partie de notre veille technologique Veille360, une sélection d'actualités sur les technologies immersives.

