Le déploiement de l’IA dans les entreprises prend une nouvelle dimension. IBM déclare l’utiliser actuellement dans le but de transformer tous les processus de l’organisation. Dans le même temps, la Société Générale, Capgemini et des structures de la Tech, comme la start-up de solutions de paiements Block, ont annoncé des licenciements liés à l’IA. Les syndicats SFDT et Ugict-CGT tirent aujourd’hui la sonnette d’alarme, car le développement de l’IA n’est que très rarement intégré au dialogue social.
Or, l’ensemble des recherches sur les sentiments de justice et d’injustice au sein des organisations démontre depuis une soixantaine d’années que l’engagement des salariés dépend de leur capacité à participer ou à exercer une influence sur les décisions ayant un impact sur leur travail. L’IA ne se contente pas d’être un nouvel outil technologique supplémentaire. Mais transforme la nature même de la prise de décision. S’assurer qu’elle est ressentie comme « juste » représente un nouvel enjeu managérial.
Du « manager juste » au « système juste«
Quatre paradoxes sont ainsi amplifiés par l’IA et ont un impact négatif sur la justice des décisions prises. D’abord, elle est présentée comme pouvant aider à prendre des décisions personnalisées – en matière de parcours RH des collaborateurs par exemple (recommandations de mobilité internes). Cependant, celles-ci peuvent comporter des biais, car elles sont fondées uniquement sur des trajectoires passées. Un recruteur, lui, est également en mesure de percevoir la personnalité et le potentiel d’un profil.
Ensuite, l’IA peut entraîner un contrôle accru des équipes. Dans de nombreux cas, et même à distance, on peut calculer en temps réel l’activité exacte et la performance précise de chaque salarié, ce qui a tendance à ôter tout pouvoir d’agir et à déresponsabiliser les personnes. Par ailleurs, l’optimisation de la performance peut entraîner une démotivation, une surcharge, une anxiété et un effet négatif sur leur santé psychologique. Enfin, des décisions prises par des IA posent la question de leur contestabilité.
Les salariés ont pris conscience de ces changements. Leur sentiment de justice/d’injustice est donc moins attaché à leur manager, mais au système décisionnel global dans lequel l’IA joue un rôle grandissant. Dans ce contexte, l’enjeu est de ne pas utiliser l’IA seulement pour automatiser la prise de décision, mais pour l’augmenter. Cela consiste à permettre un dialogue transparent et constant entre la machine et l’humain afin d’améliorer la contribution de celui-ci. Par exemple, lorsqu’on automatise le premier tri des CV reçus pour un poste, la sélection finale doit rester du ressort d’un comité de recrutement.
Boucler le système décisionnel par l’intervention humaine
Cette augmentation requiert trois évolutions cruciales. Premièrement, les personnels (en particulier les managers et les experts RH) doivent être formés à la culture algorithmique et à l’usage critique des IA. Deuxièmement, l’architecture de l’organisation et de la prise de décision doit précisément délimiter la place de l’automatisation et de l’augmentation. Enfin, une gouvernance doit être mise en place, par exemple un comité transversal, qui analysera et supervisera les interactions IA-organisation-humain. Son activité pourra se traduire par des audits de biais, l’assurance d’une traçabilité et l’organisation de recours.
Pour conclure, l’IA n’a pas la capacité de prendre des décisions justes à ce jour. Elle ne sait pas rendre compte de façon claire des dynamiques complexes dans les organisations, ni des sentiments de justice et d’injustice des équipes ou de leurs managers. Surtout, l’IA n’a aucune capacité d’empathie et d’adaptation à la réalité concrète de situations personnelles ou professionnelles. L’enjeu est d’adapter l’organisation et le management de façon à ce que le système décisionnel reste bouclé par l’intervention humaine.