forme verte forme orange forme bleue forme magenta

Humans matter

Responsabilité Cognitive des Entreprises : L’angle mort de la révolution IA

Facebook
Twitter
LinkedIn
Print

Dans le cadre du mouvement pour la 10ème Limite , nous parlons souvent de Responsabilité Cognitive des Entreprises. L’expression intrigue. Elle dérange parfois. Elle reste surtout mal comprise.

La plupart des organisations débattent aujourd’hui de leur politique IA sous l’angle de la conformité. Protection des données. RGPD. Hébergement souverain. Ces sujets sont légitimes. Mais ils passent à côté d’un enjeu plus profond, plus discret, et à terme plus coûteux.

Que devient le capital cognitif de celles et ceux qui travaillent pour elles ?

Le scroll infini de nos applications, les notifications permanentes et les contenus façonnés par les algorithmes ont détourné notre système de récompense. Ils provoquent des brefs pics de dopamine, faciles, presque gratuits. À long terme, ils laissent derrière eux de la fatigue, une forme de désengagement diffus, et une difficulté croissante à soutenir l’effort.

L’attention se fragmente. La motivation devient instable. Les interactions sociales perdent en densité.

Dans ce contexte, l’IA générative n’arrive pas dans un désert cognitif. Elle s’inscrit dans un terrain déjà saturé.

Deux constats récents méritent d’être regardés sans détour.

Dans 2 posts publiés récemment, Amélie Raoul nous éclaire sur ces constats.

Le premier montre que l’IA ne réduit pas le travail. Elle l’intensifie. Les salariés produisent plus vite, donc on leur demande plus. Les cycles se raccourcissent. Les exigences montent. La charge mentale ne diminue pas, elle change de nature. On passe moins de temps à rédiger, plus de temps à vérifier, corriger, reformuler, arbitrer. Le rythme s’accélère, la pression ne se relâche pas (Source : « Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage » ; Anthropic, 2026).

Le second constat est plus subtil. L’IA ne nous remplace pas. Elle peut, en revanche, éroder notre capacité à décider. Autrement dit, elle entame notre empowerment (Source : Ranganathan & Ye, « Generative AI Is Making Work Harder, Not Easier », HBR, 2025).

L’empowerment tient à trois dimensions :

  1. D’abord le sentiment d’efficacité personnelle. La conviction que nos actions produiront un effet réel.
  2. Ensuite l’agentivité. Notre capacité à orienter volontairement le cours de nos actes.
  3. Enfin les capabilités. Les marges de manœuvre que nous savons reconnaître et saisir dans notre environnement.

Lorsque nous demandons à une IA d’améliorer un texte, de structurer un rapport ou de produire une synthèse brillante, notre sentiment d’efficacité personnelle peut s’en trouver renforcé. Le résultat est là. Rapide. Propre. Impressionnant.

Mais l’agentivité, elle, se déplace. L’outil agit pour nous. Nous devenons superviseur d’un processus que nous ne maîtrisons qu’en surface. La décision finale nous appartient encore, mais une partie du raisonnement s’est externalisée.

Quant aux capabilités, elles se trouvent menacées par un autre phénomène. Les systèmes algorithmiques ont tendance à nous exposer à ce qui confirme nos préférences. Progressivement, l’espace des possibles se resserre. Les angles morts se multiplient. Le discernement s’appauvrit sans que nous en ayons conscience.

Le risque n’est pas la disparition du travail humain. C’est l’atrophie lente de certaines fonctions clés. L’attention soutenue. La délibération. La pensée critique. La capacité à relier des idées dans le temps.

Pourtant, l’IA pourrait devenir un véritable exosquelette cognitif.

À condition de l’utiliser autrement.

  • À condition qu’elle élargisse notre fenêtre attentionnelle au lieu de la réduire.
  • À condition qu’elle favorise l’engagement actif plutôt que la consommation passive de réponses séduisantes et lisses.
  • À condition qu’elle nous confronte à nos erreurs, qu’elle mette en lumière nos raisonnements fragiles au lieu de les valider avec une bienveillance de façade.
  • À condition enfin qu’elle nous aide à consolider nos acquis, en revenant sur nos productions passées, en établissant des liens, en créant de la continuité dans nos apprentissages.

La Responsabilité Cognitive des Entreprises commence ici. Elle ne consiste pas à freiner l’innovation. Elle consiste à veiller à ce que l’innovation ne dégrade pas les ressources mentales de ceux qui la servent.

Former à l’IA ne suffit pas. Il faut former à l’usage exigeant de l’IA. Mettre en place des cadres qui protègent l’attention. Mesurer l’impact des outils sur la qualité du raisonnement. Reconnaître que la robustesse d’une entreprise—plus que la performance durable—repose d’abord sur des cerveaux capables de discernement.

Il n’y a pas de transition technologique neutre. Chaque choix d’outil façonne nos manières de penser.

La question n’est donc pas seulement ce que l’IA fait pour l’entreprise.

La question est ce qu’elle fait à celles et ceux qui la font vivre en l’utilisant.