Dans le cadre du mouvement pour la 10ème Limite , nous parlons souvent de Responsabilité Cognitive des Entreprises. L’expression intrigue. Elle dérange parfois. Elle reste surtout mal comprise.
La plupart des organisations débattent aujourd’hui de leur politique IA sous l’angle de la conformité. Protection des données. RGPD. Hébergement souverain. Ces sujets sont légitimes. Mais ils passent à côté d’un enjeu plus profond, plus discret, et à terme plus coûteux.
Le scroll infini de nos applications, les notifications permanentes et les contenus façonnés par les algorithmes ont détourné notre système de récompense. Ils provoquent des brefs pics de dopamine, faciles, presque gratuits. À long terme, ils laissent derrière eux de la fatigue, une forme de désengagement diffus, et une difficulté croissante à soutenir l’effort.
L’attention se fragmente. La motivation devient instable. Les interactions sociales perdent en densité.
Dans ce contexte, l’IA générative n’arrive pas dans un désert cognitif. Elle s’inscrit dans un terrain déjà saturé.
Dans 2 posts publiés récemment, Amélie Raoul nous éclaire sur ces constats.
Le premier montre que l’IA ne réduit pas le travail. Elle l’intensifie. Les salariés produisent plus vite, donc on leur demande plus. Les cycles se raccourcissent. Les exigences montent. La charge mentale ne diminue pas, elle change de nature. On passe moins de temps à rédiger, plus de temps à vérifier, corriger, reformuler, arbitrer. Le rythme s’accélère, la pression ne se relâche pas (Source : « Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage » ; Anthropic, 2026).
Le second constat est plus subtil. L’IA ne nous remplace pas. Elle peut, en revanche, éroder notre capacité à décider. Autrement dit, elle entame notre empowerment (Source : Ranganathan & Ye, « Generative AI Is Making Work Harder, Not Easier », HBR, 2025).
L’empowerment tient à trois dimensions :
Lorsque nous demandons à une IA d’améliorer un texte, de structurer un rapport ou de produire une synthèse brillante, notre sentiment d’efficacité personnelle peut s’en trouver renforcé. Le résultat est là. Rapide. Propre. Impressionnant.
Mais l’agentivité, elle, se déplace. L’outil agit pour nous. Nous devenons superviseur d’un processus que nous ne maîtrisons qu’en surface. La décision finale nous appartient encore, mais une partie du raisonnement s’est externalisée.
Quant aux capabilités, elles se trouvent menacées par un autre phénomène. Les systèmes algorithmiques ont tendance à nous exposer à ce qui confirme nos préférences. Progressivement, l’espace des possibles se resserre. Les angles morts se multiplient. Le discernement s’appauvrit sans que nous en ayons conscience.
Le risque n’est pas la disparition du travail humain. C’est l’atrophie lente de certaines fonctions clés. L’attention soutenue. La délibération. La pensée critique. La capacité à relier des idées dans le temps.
À condition de l’utiliser autrement.
La Responsabilité Cognitive des Entreprises commence ici. Elle ne consiste pas à freiner l’innovation. Elle consiste à veiller à ce que l’innovation ne dégrade pas les ressources mentales de ceux qui la servent.
Former à l’IA ne suffit pas. Il faut former à l’usage exigeant de l’IA. Mettre en place des cadres qui protègent l’attention. Mesurer l’impact des outils sur la qualité du raisonnement. Reconnaître que la robustesse d’une entreprise—plus que la performance durable—repose d’abord sur des cerveaux capables de discernement.
Il n’y a pas de transition technologique neutre. Chaque choix d’outil façonne nos manières de penser.
La question n’est donc pas seulement ce que l’IA fait pour l’entreprise.
La question est ce qu’elle fait à celles et ceux qui la font vivre en l’utilisant.