L’usage de l’IA pour la gestion des ressources humaines de l’entreprise
L’IA dans la gestion RH, terrain d’application du respect des droits et libertés individuelles
Mais c’est plus généralement l’usage de l’IA pour la gestion des ressources humaines de l’entreprise, les décisions concernant les salariés collectivement ou individuellement qui font l’objet d’un cadre juridique appelant d’observer des précautions.
Le respect des droits et libertés individuelles et ses règles générales trouve ici un terrain d’application.
L’article L. 1121-1 du code du travail, selon lequel « Nul ne peut apporter aux droits des personnes et aux libertés individuelles et collectives de restrictions qui ne seraient pas justifiées par la nature de la tâche à accomplir ni proportionnées au but recherché », pose les principes de base. Les garanties en matière de droit à la décision humaine mentionnées en matière de recrutement (voir plus haut) sont également à observer pour les décisions qui concernent les salariés.
Quel responsable des ressources humaines ne rêve pas :
-de pouvoir rapidement recruter les bonnes personnes, en évitant les biais cognitifs et les pertes de temps, sources de frustrations à la fois au niveau des candidats et de l’entreprise ? ;
-de s’assurer en temps réel que les salariés sont à même de remplir leurs objectifs et bénéficient des moyens, conseils et formations adaptés à leurs besoins spécifiques afin de favoriser une montée en compétences rapide et éviter les échecs professionnels ? ;
-ou encore de suivre au quotidien le bien-être des équipes afin d’identifier et gérer les éventuelles disparités de traitement, les situations de malaise ou surmenage, les comportements inappropriés voire malhonnêtes ?
Et quel salarié hésiterait à s’engager à 110 % pour une entreprise qui lui accorde autant d’attention ?
Or, malheureusement, comme le veut l’adage « l’enfer est pavé de bonnes intentions ». En effet, ces nouveaux outils de « management algorithmique » à vocation analytique, voire prédictive, sont, pour le moment, à utiliser avec précaution. Ils peuvent en effet, comme l’indique également le rapport établi par la commission sur l'intelligence artificielle du 13 mars 2024, entraîner « la perte d’autonomie au travail, une subordination déshumanisante à la machine, une surveillance excessive des travailleurs, un isolement des travailleurs et une perte du sens du collectif ». En effet, ces outils ont jusqu'à présent montré leurs limites, n’étant souvent pas plus performants que l’humain, voire pire en amplifiant les discriminations par exemple.
Sensibilisation des responsables RH aux garde-fous juridiques existants
Pour cette raison, les responsables des ressources humaines doivent être sensibilisés et respecter les garde-fous juridiques qui existent.
La nécessaire consultation du CSE avant l’utilisation de tels outils en application des articles L. 2312-38 (gestion du personnel et recrutement) et L. 2312-37 du code du travail (moyen de contrôle de l’activité des salariés) devrait permettre d’identifier et gérer les points d’inquiétudes des salariés, directement concernés par ces outils.
Avant d’avoir recours à ces outils, les responsables des ressources humaines devront également s’assurer de consulter leur délégué à la protection des données, lequel doit être désigné en application du RGPD avec, entre autres missions, celle d’informer et conseiller les employés qui procèdent au traitement de données personnelles sur leurs obligations (règlt UE 2016/679 du 27 avril 2016, art. 37 et 39). En effet, la réglementation en matière de données à caractère personnel au titre du RGPD aura systématiquement vocation à s’appliquer. Or, la CNIL prend à cœur son rôle concernant les salariés confrontés à l’IA, comme le démontre l’amende de 32 millions d’euros infligée en décembre 2023 à Amazon pour avoir mis en place un système de surveillance de l’activité et des performances des salariés considéré comme excessivement intrusif.
En particulier, la prohibition des discriminations (c. trav. art. L. 1132-1) dans différentes décisions concernant la vie professionnelle du salarié peut concerner l’usage de l’IA. En effet, l’usage d’algorithmes intégrant certaines données peut induire un biais dans la décision générateur de discrimination.
Si les données entrées le sont sur la base de pratiques réelles elles-mêmes marquées (consciemment ou non) par des biais, leur prise en compte par l’IA peut reproduire, voire exacerber ces biais.
Or, il faut rappeler qu’en cas de contentieux, le salarié qui se prétend victime de discrimination doit simplement présenter « des éléments de fait laissant supposer l'existence d'une discrimination directe ou indirecte », charge au défendeur « de prouver que sa décision est justifiée par des éléments objectifs étrangers à toute discrimination » (c. trav. art. L. 1134-1). Le fait que la décision contestée ait été prise sur la base de l’IA ne suffira pas à démontrer l’absence de discrimination et l’employeur restera obligé de démontrer que celle-ci repose sur des éléments non discriminants.
S’inspirer de l’encadrement prévu pour les travailleurs indépendants des plateformes numériques ?
C’est une véritable organisation d’un management qui peut être algorithmique, et qui n’est aujourd’hui réglementé que dans le cas des plateformes de travailleurs indépendants :
-certains de ces derniers bénéficient « du droit d'accès à l'ensemble des données concernant leurs activités propres au sein de la plateforme et permettant de les identifier » (c. trav. art. L. 7342-7) ;
-une négociation est obligatoirement engagée sur les « conditions d'exercice de l'activité professionnelle des travailleurs, et notamment l'encadrement de leur temps d'activité ainsi que les effets des algorithmes et des changements les affectant sur les modalités d'accomplissement des prestations » (c. trav. art. L. 7343-36) ;
-une telle négociation « peut également être engagée » sur les « modalités de contrôle par la plateforme de l'activité du travailleur indépendant et de la réalisation de la prestation lui incombant, les circonstances pouvant conduire à une rupture des relations commerciales entre la plateforme et le travailleur indépendant » (c. trav. art. L. 7343-37).
Le projet de directive européenne relative à l’amélioration des conditions de travail dans le cadre du travail via une plateforme numérique vise d’ailleurs à exiger des plateformes qu’elles informent les personnes exécutant un travail par leur intermédiaire au sujet des systèmes de surveillance ou de prise de décision automatisés. Une surveillance humaine de ces systèmes automatisés doit être garantie par les États via des évaluations de l’incidence des décisions individuelles prises ou appuyées par les systèmes de prises de décision automatisés. Une évaluation humaine de toute décision importante est garantie avec le droit d’obtenir une explication écrite de toute décision prise ou appuyée par les systèmes de prises de décision automatisés.
Nul doute que ce qui concerne pour l’heure uniquement les plateformes de travailleur indépendant pourrait inspirer plus largement les entreprises en matière de management algorithmique et son encadrement.