Managers et IA : quand la technologie sert à fuir les responsabilités

L’intelligence artificielle est aujourd’hui intégrée à de nombreuses décisions managériales, de l’évaluation des performances à la répartition des tâches. Officiellement, elle est là pour soutenir, objectiver, fluidifier. Mais dans certains contextes, elle devient un écran, une façade technologique derrière laquelle le manager se dissimule. Loin de renforcer la relation hiérarchique, l’IA peut alors servir à l’affaiblir, voire à l’effacer, en permettant à celui ou celle qui décide de ne plus assumer les choix, ni de porter le poids symbolique de l’autorité.
Un tiers technologique pour effacer la parole
Lorsque le manager s’appuie sur l’IA pour justifier ses décisions, il délègue non seulement une fonction technique, mais aussi une responsabilité psychique. Ce n’est plus lui qui tranche, mais l’outil qui “suggère” ou “recommande”. Ce glissement transforme la parole incarnée en verdict désaffectivé. La machine devient alors un tiers froid, sans visage, qui permet d’éviter la confrontation, la justification, ou même l’explication. Le lien hiérarchique se technicise, perd en humanité, mais aussi en clarté. Derrière l’efficience apparente, se cache une dissolution du lien d’autorité, et une fragilisation du rôle managérial lui-même.
L’exemple de Léa : ne plus porter le poids du conflit
Léa, 37 ans, est responsable d’équipe dans une grande entreprise de conseil. Depuis que son service utilise une IA pour répartir les missions et analyser les rendements, elle présente les résultats comme des données objectives sur lesquelles elle n’a plus à intervenir. “Ce n’est pas moi, c’est l’algorithme”, dit-elle à ses collaborateurs, lorsqu’ils contestent une répartition inégale ou une remarque automatisée sur leur performance. En supervision, elle reconnaît qu’elle redoute le conflit et se sent mal à l’aise lorsqu’elle doit assumer un choix impopulaire. L’IA devient pour elle un paravent, un moyen d’éviter l’engagement affectif dans la décision. Ce qu’elle délègue, ce n’est pas le calcul, mais le coût émotionnel d’un positionnement clair.
Éviter l’incarnation pour ne pas être mis en cause
Ce désengagement s’inscrit dans un mouvement plus large de déresponsabilisation symbolique. En utilisant l’IA comme référence neutre, le manager tente d’échapper à la projection, à la critique, à la plainte. Il devient un simple relais d’une décision désubjectivée. Mais cette posture, loin d’apaiser, crée souvent un sentiment d’injustice ou d’impersonnalité chez les équipes. La confiance repose sur la possibilité d’identifier une personne qui pense, choisit et répond. Se réfugier derrière l’outil, c’est aussi priver les équipes de cette référence structurante, et s’exposer à un retour de colère, de confusion ou de retrait silencieux.
Réhabiliter une autorité habitée
Assumer une position managériale, c’est accepter d’être vu, critiqué, parfois contesté. C’est aussi reconnaître que l’autorité ne se décrète pas, mais s’incarne. L’IA peut assister, éclairer, mais elle ne peut décider à notre place sans risque de dissociation. Ce qui fait autorité, ce n’est pas seulement la cohérence de la décision, mais sa prise en charge subjective. Revenir à une parole incarnée, même imparfaite, c’est restaurer la responsabilité comme lien. C’est sortir de la protection froide de la machine pour retrouver la complexité vivante du commandement : celle qui engage, qui expose, mais qui relie.