Avec 22 % des actifs en mauvaise santé mentale (Baromètre Qualisocial 2026), la question des risques psychosociaux devient très prégnante dans les organisations. Dans le même temps, on assiste à une montée en puissance de l’usage de l’IA. Selon l’enquête Great Insights 2026, 59 % des salariés (et 74 % des moins de 35 ans) utilisent l’IA générative, mais 43 % ne sont pas accompagnés par leur entreprise. Cette lacune managériale rend difficile la possibilité de se projeter, de faire confiance et de maîtriser les transformations technologiques.
Une note de l’APEC (2025) insiste sur les inquiétudes quant aux limites ou risques induits par ce développement rapide : menace pour certains emplois, perte de compétences et d’expertise, déshumanisation croissante des processus et des relations, risques d’exclusion et de conflits. Si l’IA promet d’alléger la charge de travail, elle pourrait paradoxalement devenir un accélérateur de burn-out.
Des risques multidimensionnels, identifiables
Les risques psychosociaux sont les risques liés à l’environnement professionnel qui portent atteinte à la santé physique et mentale des travailleurs. Ils sont à l’interface de l’individu et de sa situation de travail. Pour l’INRS, les RPS correspondent à des situations de travail où sont présents, combinés ou non : du stress (déséquilibre entre les contraintes perçues et les ressources disponibles), des violences internes (harcèlement moral ou sexuel, conflits exacerbés) et des violences externes commises par des personnes extérieures à l’entreprise.
Selon le collège d’expertise sur le suivi des RPS au travail (Gollac, 2011), les facteurs de risques psychosociaux se regroupent autour de six axes : l’intensité au travail et le temps de travail ; les exigences émotionnelles ; l’autonomie au travail ; les rapports sociaux au travail ; les conflits de valeurs ; et l’insécurité de la situation de travail.
Le modèle de Karasek : autonomie et contrôle sous pression
Le modèle de Karasek (1979) s’intéresse au rôle de l’autonomie sur la santé des salariés. Il définit deux dimensions pouvant déterminer une charge mentale ou un stress : de fortes exigences de travail (quantité, intensité, travail morcelé) combinées à un faible contrôle sur son travail (marges de manœuvre, participation aux décisions, utilisation des compétences). Une troisième dimension complète ce modèle : le faible soutien social de la part des collègues et de la hiérarchie.
L’usage de l’IA et son influence sur l’autonomie des collaborateurs pourrait produire une situation de travail tendue. L’IA multiplie les sollicitations (notifications, analyses en temps réel, attentes de réactivité immédiate), créant un sentiment d’urgence permanent. Les décisions algorithmiques, souvent opaques, limitent l’autonomie des collaborateurs. En permettant d’exercer une surveillance constante, l’IA réduit l’autonomie, augmente la pression sur le rendement et la déshumanisation — surtout si les salariés ne participent pas à la conception et à la mise en place des outils.
Le modèle de Siegrist : quand les efforts ne sont pas récompensés
Le modèle de Siegrist (1996) souligne que le stress survient lorsque les efforts fournis ne sont pas récompensés à leur juste valeur. Avec l’IA, ce déséquilibre s’aggrave : efforts accrus d’apprentissage continu des outils, supervision par des algorithmes, peur de l’obsolescence des compétences — en retour, peu de reconnaissance, et un sentiment de dévalorisation face aux « collègues virtuels ».
Les collaborateurs ont alors une perception de qualité de travail « empêchée », concept développé par Yves Clot (2015) pour désigner le dilemme entre le souhait de « bien » faire son travail et l’impossibilité d’effectuer correctement ses missions. Ce sentiment peut produire stress et anxiété durables.
Prévenir les risques : ce que les entreprises doivent faire
Pour prévenir ces risques émergents liés à l’acculturation à l’IA, les entreprises doivent agir sur trois leviers essentiels : former et accompagner, en clarifiant les attentes et en garantissant la montée en compétences des managers comme des équipes ; impliquer et informer les salariés, en les associant à la transition technologique pour restaurer un sentiment de maîtrise ; et reconnaître les efforts, en valorisant les compétences humaines complémentaires à l’IA — créativité, éthique, relation client, regard analytique.
Le déploiement de l’IA doit donc être pensé comme un système sociotechnique, où la technologie complète l’humain sans le remplacer. Ce qui fait écho à la pensée du philosophe Bernard Stiegler : « Toute technologie est porteuse du pire autant que du meilleur. »