Psychologie

À l’heure où l’intelligence artificielle s’installe dans les pratiques professionnelles, les discours se polarisent. Si une partie des individus s’adapte, une autre réagit avec une hostilité marquée, parfois disproportionnée. Ce rejet passionnel ne s’explique pas uniquement par la peur du changement ou l’incompréhension technologique. Il active quelque chose de plus archaïque : la crainte de voir le sujet humain détrôné, non seulement dans ses fonctions, mais dans son statut symbolique de porteur du savoir, de la parole et de la décision.

Une atteinte à la figure humaine de l’autorité

L’IA ne menace pas directement les personnes, mais ce qu’elles incarnent : un certain rapport au savoir, à la transmission et à la reconnaissance. Là où l’humain était maître d’œuvre, garant de la cohérence, la machine devient outil décisionnel. Elle ne se contente plus d’assister, elle suggère, évalue, génère. Cela suffit à ébranler les fondations d’une autorité construite sur la maîtrise, l’expérience et l’énonciation. Le rejet devient alors une défense contre la dépossession symbolique. Ce n’est pas l’outil qu’on combat, mais la perte d’un rôle structurant. L’humain, décentré, n’est plus le lieu du sens. Et c’est ce déplacement du centre qui déclenche l’agressivité.

L’exemple de Marc : l’intolérable perte de légitimité

Marc, 55 ans, enseignant-chercheur, a toujours fondé sa légitimité sur sa capacité à synthétiser des savoirs complexes et à les transmettre. L’introduction d’outils d’IA générative dans son université a été vécue comme une attaque. Il refuse catégoriquement d’y recourir, les qualifie de “prothèses intellectuelles”, et se moque de ses collègues qui les utilisent. En supervision, il laisse apparaître une peur plus enfouie : “À quoi je sers si une machine peut répondre à mes étudiants ?” Derrière l’ironie et le rejet, il y a une détresse : celle d’un homme qui voit sa fonction symbolique mise à mal. Son autorité n’est plus garantie par son savoir, mais concurrencée par un outil impersonnel. Ce qu’il refuse, ce n’est pas la technique, mais ce qu’elle vient déstabiliser : la reconnaissance de soi comme figure de référence.

Reconnaître la fonction projective de l’hostilité

L’hostilité face à l’IA agit comme un retour de projection. Ce que la machine reflète, c’est la vulnérabilité du sujet à être remplacé, oublié, déchu. Plus qu’un outil, elle devient écran de nos insécurités identitaires. En la diabolisant, on tente de restaurer un pouvoir mis en péril. Ce mouvement est d’autant plus violent qu’il touche à la structuration narcissique. Là où l’ego s’était bâti sur la capacité à penser, transmettre ou décider, surgit un double sans chair qui peut tout faire sans affect. La haine de l’IA ne vise pas la technologie, mais l’humiliation d’une perte de centralité symbolique. Pour dépasser ce rejet, il faut non pas convaincre, mais entendre la blessure derrière la colère : celle d’un sujet qui perd sa place dans le récit collectif du savoir.

Trouver un psy