Pour la troisième année consécutive, l’IA reste au cœur des préoccupations des entreprises. Son évolution rapide entraîne des enjeux d’acculturation à de nouveaux outils et à de nouvelles pratiques, ainsi qu’à des modifications de métiers. La nécessité de se former pour acquérir de nouvelles connaissances et compétences se renforce : « L’accompagnement des collaborateurs sur ce sujet est indispensable. Il doit être profond et progressif », affirme Elsa Thabart, DRH de Niji, spécialisée dans la transformation numérique.
Parmi les connaissances à développer : celles autour de la confidentialité. « Lorsque nous nous sommes aperçus que ChatGPT (le chatbot d’Open IA, ndlr) avait évolué et qu’il était désormais capable de répondre à toutes sortes d’interrogations, la question de la transmission des données vers l’extérieur s’est immédiatement posée », se remémore Patrice Poirier, président de Sigma-RH. De surcroît, depuis juillet 2024, date à laquelle a été déployée une fonctionnalité vocale, permettant de dialoguer avec l’outil. « Échanger virtuellement avec un chatbot peut créer une grande confusion. La conversation devient tellement naturelle que nous oublions que nous sommes en train de communiquer des données, parfois sensibles, sur nous, sur notre entreprise », complète Nicolas Sebbah, directeur de la donnée et de l’IA chez Niji.
Opter pour une option payante
L’entreprise franco-canadienne, spécialisée dans l’IA générative, Sigma-RH, s’est alors penchée sur les limites et les risques potentiels liés à la diffusion de ces données. « Pour le moment, nous ne savons pas exactement quels pourrait être l’ampleur des dégâts perpétrés« , admet son dirigeant. En 2023, le monde en a tout de même eu un premier aperçu avec la fuite de données chez Samsung, mais aussi concernant des journalistes du New York Times. Ces incidents sont survenus malgré les mesures de sécurité d’OpenAI.
C’est pourquoi, dès les premières utilisations, la société franco-canadienne recommande d’opter pour une version payante de ChatGPT afin que son usage soit privé, exclusivement réservé aux collaborateurs. « L’application est hébergée sur le portail de l’entreprise », poursuit-il. Quant aux informations, « elles sont mentorées par les services informatiques et conservées en interne. » Les RH peuvent ainsi interroger leur chatbot sur des notions juridiques, des questions à poser aux candidats aux compétences spécifiques, des plans de développement de carrière pour les collaborateurs, mesurer le niveau d’absentéisme, etc.
Les informations personnelles doivent le rester
À ce stade, il serait légitime de penser : « Nous pouvons désormais tout dire à ChatGPT ! » Oui, en théorie ! Mais, dans la pratique, à l’image d’Internet, des recherches en ligne, des réseaux sociaux, et du reste des outils digitaux déployés en entreprise, des règles strictes déterminées par l’entreprise sont à respecter. À commencer par l’interdiction de poser des questions de nature violente ou sexuelle, mais également de nature privée. « Elles doivent porter uniquement sur le travail », rappelle la DRH de Niji. Exit, donc, les questions (pas si anodines) telles que : « Quelle est la date de naissance de mon dirigeant ? Quel est le salaire de mon collègue ? » Les entreprises peuvent également appliquer des filtres empêchant les équipes d’effectuer certaines demandes. Le réseau social Facebook, avant de servir de canal de communication pour les entreprises, est un exemple de site rendu inaccessible au moment de son apparition en 2004.
À noter que toutes les entreprises des États membres ont dû se conformer à l’IA Act (la loi européenne sur l’intelligence artificielle) dès août 2024. Avant elle, le règlement général de l’UE sur la protection des données (RGPD), en application depuis mai 2018, encadrait déjà la question des données personnelles.