1 - Intelligence artificielle et gestion des ressources humaines : un cadre juridique en évolution

Natacha Lesellier
Avocat associé
Flichy Grangé Avocats

Franck Morel
Avocat associé
Flichy Grangé Avocats
Le déploiement de systèmes d’intelligence artificielle (IA) n’a pas fini de générer des mutations de notre économie, de produire des changements notables dans l’organisation des entreprises et dans la vie des salariés de manière au moins aussi importante que ce fût le cas avec l’arrivée d’internet, ou plus récemment avec l’explosion du recours au télétravail.
Il en résulte de nombreuses questions et face à un cadre juridique en évolution, à l’occasion de la rentrée 2024, il est utile de faire un état des lieux sur les défis et opportunités que présente cette révolution technologique pour les équipes en charge de la gestion des ressources humaines.
Car il apparaît que l’IA est rapidement devenue un sujet clef pour les équipes en charge de la gestion des ressources humaines qui sont de plus en plus sollicitées au sein de leurs organisations afin de gérer cette révolution technologique et également en raison des opportunités, mais aussi des risques que l’IA présente pour les métiers de la gestion des ressources humaines.
Du côté des définitions juridiques
Il n’existe pas à ce jour en droit français de définition juridique de l’IA. On peut considérer qu’il s’agit de « technologies intelligentes » qui visent à « imiter l'intelligence humaine » ou à « reproduire les fonctions cognitives » de l'homme (G. Loiseau, « Intelligence artificielle et conditions de travail des salariés : un impact à prendre au sérieux », Dalloz IP/IT 2018. 437).
En revanche, depuis quelques mois, il existe une définition officielle au plan européen, applicable dès le 2 février 2025, par l’AI Act, règlement européen 2024-1689 du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle. L’IA est définie comme un système automatisé qui (règlt UE 2024/1689 du 13 juin 2024, art. 3) :
-est conçu pour fonctionner à différents niveaux d’autonomie ;
-peut faire preuve d’une capacité d’adaptation après son déploiement ;
-et, pour des objectifs explicites ou implicites, déduit à partir des entrées qu’il reçoit la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels.
Il faut d’abord appréhender la prise en considération de l’impact de l’usage de l’IA dans les entreprises (voir §§ 1-2 à 1-9). Le rôle des responsables de ressources humaines face au déploiement de l'IA au sein de leurs organisations consistera à impulser une prise en considération dans le temps – c’est-à-dire le cas échéant de manière anticipée – de l’ensemble des conséquences de ce déploiement.
Le déploiement de l’IA au sein des entreprises implique une approche globale d’appréhension de ses conséquences
Nécessaire accompagnement des équipes RH
Comme de nombreux processus de changement occasionnant un impact sur les conditions d’emploi des salariés, l’introduction de l’utilisation de l’IA au sein de l’entreprise nécessitera l’accompagnement des équipes en charge des Ressources humaines à plusieurs niveaux.
Les modifications du contenu des emplois induites par l’IA
Les entreprises doivent accompagner le changement
L’une des questions inhérentes au développement de l’IA est l’incidence sur l’emploi et dans quelles proportions.
Alors qu’une note de France Stratégie de 2016 prévoyait que 15 % des emplois seraient exposés à un risque d’automatisation (Nicolas Le Ru, 2016, « L’effet de l’automatisation sur l’emploi : ce qu’on sait et ce qu’on ignore », La Note d’analyse, n° 49, France Stratégie, juillet), d’autres études plus récentes se montrent plus alarmistes sur le pourcentage d’emplois pouvant être menacés. Une étude de Roland Berger estime pour sa part que « 1/3 de l'activité professionnelle en France est exposé à l'IA générative. » En réalité, le risque ne porte pas sur les « emplois » au sens large, mais plus sur l’automatisation de certaines « taches » des différents emplois (https://www.rolandberger.com, « En France, 1/3 de l’activité professionnelle est exposée à l’IA générative », 22 novembre 2023).
D’un côté, il existe des métiers où « l’automatisation » (substituant l’IA à la personne employée) va différer de « l’augmentation » (qui libère du temps pour les tâches à plus forte valeur ajoutée). Ainsi, cette dichotomie va varier en fonction de la nature des postes :
-une « automatisation » touchera principalement les catégories de métiers administratifs et de réception ;
-et une « augmentation » sera plus significative pour les métiers « intellectuels et scientifiques ».
En conséquence, les entreprises doivent donc se montrer proactives pour accompagner ce changement et notamment au titre de l’obligation d’adaptation qui pèse sur l’employeur (c. trav. art. L. 6321-1). La responsabilité de l’entreprise est en jeu en fonction de l’impact en matière d’emploi de ces nouvelles technologies.
Le levier de la formation et l’obligation des « déployeurs »
La formation est un levier et doit être mobilisée. Outre le recrutement de ces nouveaux profils, l’organisation devra s’assurer de la formation des salariés qui pourraient être appelés à utiliser l’IA dans le cadre de leurs fonctions.
L’identification des salariés à former et le déploiement de ces formations nécessiteront l’aide des équipes en charge de la gestion des Ressources humaines, qui devront par ailleurs s’assurer que ces formations ont bien été abordées dans le cadre des consultations obligatoires du CSE sur le plan de développement des compétences comme prévu par le code du travail (c. trav. art. L. 2312-24 et L. 2312-26). Il faut rappeler que l’employeur est tenu d’assurer l’adaptation des salariés à l'évolution de leurs emplois. Il doit veiller au maintien de leur capacité à occuper un emploi au regard notamment de l’évolution des emplois, des technologies et des organisations pendant toute la durée de leur contrat de travail (c. trav. art. L. 6321-1). Il s’agit donc tout à la fois de l’évolution de l’emploi occupé par le salarié, de son poste de travail comme de celle des emplois en général qu’il pourrait être amené à occuper.
Il faut aussi rappeler que le règlement européen 2024/1689 du 13 juin 2024 établissant des règles harmonisées concernant l’IA prévoit, avec une application obligatoire à compter du 2 août 2025, que les « déployeurs » – définis notamment comme toute personne physique ou morale utilisant sous sa propre autorité un système d’IA dans le cadre professionnel – « prennent des mesures pour garantir, dans toute la mesure du possible, un niveau suffisant de maîtrise de l’IA pour leur personnel » en prenant notamment « en considération leurs connaissances techniques, leur expérience, leur éducation et leur formation » (règlt UE 2024/1689 du 13 juin 2024, art. 4).
Ces obligations relèvent de l'initiative de l'employeur et il importe peu pour le juge que le salarié n'ait émis aucune demande de formation au cours de l'exécution de son contrat de travail (cass. soc. 18 juin 2014, n° 13-14916, BC V n° 148). Nul doute qu’en cas de contentieux lié au fait que le salarié n’aurait pas pris en considération dans l’exercice de ses activités l’usage de l’IA de manière adéquate, l’existence ou non d’une formation à l’initiative de l’employeur pèsera dans l’appréciation des faits.
La négociation obligatoire sur la GEPP
La négociation triennale obligatoire sur la gestion des emplois et des parcours professionnels (GEPP) qui doit être menée dans les entreprises et groupes d’entreprises employant au moins 300 salariés (c. trav. art. L. 2242-20) devra aussi prendre en compte le déploiement de l’IA dans l’entreprise.
Pour mémoire, à défaut d’accord collectif fixant les thèmes de négociations périodiques obligatoires et leur périodicité au moins quadriennale (c. trav. art. L. 2242-11), celle-ci porte notamment sur (c. trav. art. L. 2242-20, 1° et 3°) :
-les grandes orientations à trois ans de la formation professionnelle dans l’entreprise et les objectifs du plan de développement des compétences ;
-la gestion prévisionnelle des emplois et des compétences ainsi que les mesures d'accompagnement susceptibles de lui être associées, en particulier en matière de formation, d'abondement du compte personnel de formation, de validation des acquis de l'expérience, de bilan de compétences ainsi que d'accompagnement de la mobilité professionnelle et géographique des salariés.
L’impact de l’IA sur l’organisation du travail et l’ « IA anxiété »
C’est aussi dans l’organisation du travail au quotidien que l’usage de l’IA devra être appréhendé.
Grâce aux progrès faits en matière d’atteinte à l’intégrité physique des salariés, l’obligation de sécurité de l’employeur porte de façon croissante sur la santé mentale des salariés.
Or, l’IA peut être perçue comme un sujet inquiétant.
Après « l’éco-anxiété », le sujet de « l’IA-anxiété » fera sans doute son entrée dans le vocabulaire des risques psychosociaux. Son inclusion dans le document unique d'évaluation des risques professionnels et à l’occasion de la négociation obligatoire sur la qualité de vie et les conditions de travail, à défaut d’accord collectif fixant les thèmes de négociations périodiques obligatoires et leur périodicité au moins quadriennale (c. trav. art. L. 2242-11 et L. 2242-17), est à envisager.
Remise en cause de l’existence de certains emplois
Mais outre l’incidence de l’IA sur la qualité des emplois, la quantité de ceux-ci pourra également être impactée et donc leur existence même lorsqu’il ne sera pas possible de les maintenir. On peut aisément imaginer que les salariés n’étant pas invités à suivre des formations pourraient craindre pour la pérennité de leur poste ou de leur employabilité à long terme.
En tout état de cause, les responsables des ressources humaines devront, à l’occasion de l’introduction de cette nouvelle technologie, s’assurer de la consultation du CSE sur son impact sur les conditions de santé et de sécurité ou les conditions de travail (c. trav. art. L. 2323-29).
S’il existe à ce jour peu de jurisprudence concernant l’IA, on peut noter avec intérêt une récente position du tribunal judiciaire de Pontoise (TJ Pontoise, 15 avril 2022, n° 22/00134) ayant jugé que l’introduction d’un logiciel basé sur l’intelligence artificielle constituait une innovation technologique justifiant le recours à une expertise par le CSE, peu important son éventuel impact sur l’emploi.
Il est à noter cependant que nonobstant cette obligation légale, le rapport établi par la commission sur l'intelligence artificielle du 13 mars 2024 (rapport du Président de la République, rapporteur général : Arno Amabile) regrette que le droit à l'information et l'avis éclairé des représentants des salariés soient peu mobilisés par les entreprises. Pourtant, les organisations ayant au moins 300 salariés pourront difficilement éviter d’aborder ce sujet lors de la négociation obligatoire sur la gestion des emplois et parcours professionnels (voir § 1-5).
Sur le plan des licenciements économiques, il n’est pas évident qu’une organisation pourrait justifier un projet de licenciement collectif en raison de l’impact du déploiement de l’IA. S’il est vrai que le code du travail prévoit qu’une mutation technologique peut justifier des licenciements collectifs (c. trav. art. L. 1233-3) et ceci même en l’absence de difficulté économique ou de nécessité pour l’entreprise de sauvegarder sa compétitivité, ce fondement est rarement utilisé. Si le Ministère du travail s’est récemment prononcé en ce sens à l’occasion du projet de licenciement envisagé par la société Onclusive France de 68 % de ses effectifs en raison de l’introduction de l’IA (rép. Simonnet n° 12062, JO 19 décembre 2023, AN quest. p. 11604), il n’existe aucune décision à ce jour. D’une manière générale, les moyens consacrés par l’organisation en matière de formation et gestion de l’emploi feront nécessairement l’objet d’un examen approfondi par le juge, le licenciement pour motif économique d’un salarié ne pouvant, en application du code du travail (c. trav. art. L. 1233-4), intervenir que lorsque tous les efforts de formation et d’adaptation ont été réalisés et que le reclassement s’avère impossible.
Le parcours professionnel des jeunes et la question de l’acquisition de l’expérience
Au-delà de la suppression de postes liés à l’IA ou des difficultés liées à la montée en compétences des salariés devant à l’avenir maîtriser l’IA dans le cadre de leurs fonctions, un sujet pour l’instant rarement abordé concerne l’impact de l’IA sur les parcours professionnels des jeunes.
La méthode classique d’acquisition de l’expérience au moyen de la réalisation de tâches administratives peu valorisantes, mais permettant de comprendre les processus et appréhender les risques de dysfonctionnement devra nécessairement être revue.
Il conviendra de construire un autre modèle d’apprentissage, tout en s'assurant que les salariés seront à même d'assurer le « contrôle humain » tel que requis par le récent AI Act européen (règlt UE 2024/1689 du 13 juin 2024), sur des taches gérées par l'IA alors qu’ils n’auront jamais eu l’opportunité de les réaliser eux-mêmes.
L’usage même de l’IA par les salariés est encadré et appelle les responsables des ressources humaines à observer des précautions
Distinguer l’usage de l’IA pour des acteurs extérieurs et pour les salariés de l’entreprise
Si l’introduction de l’usage de l’IA appelle en réalité des précautions de même nature que d’autres processus de gestion du changement dans l’entreprise, il en va différemment de l’usage même de l’IA.
RH et acteurs externes : l’exemple du recrutement
En matière de gestion des ressources humaines, c’est tout d’abord les relations avec des acteurs externes qui vont devoir générer un usage maîtrisé de l’IA.
Le recrutement en constitue la première illustration.
La compétence dans l’usage de l’IA comme critère de recrutement
Pour qu’une organisation réussisse l’intégration de l’IA dans ses activités et son fonctionnement, il lui faudra recruter des personnes ayant les compétences requises.
Cela pourrait rendre nécessaire de systématiquement préciser dans les offres d’emploi si l’utilisation de l’IA sera requise et, le cas échéant, rajouter des évaluations spécifiques permettant de vérifier le niveau de compétence des candidats, comme cela peut être le cas par exemple sur le niveau de maîtrise d’une langue étrangère.
L’usage de l’IA dans le processus de recrutement
Le cas échéant, les responsables de la gestion des ressources humaines devront s’assurer que le CSE est préalablement informé de cette nouvelle technique de recrutement (c. trav. art. L. 2312-38).
Par ailleurs, l’information de l’usage de l’IA dans le processus ne doit pas être délivrée qu’aux représentants du personnel, mais aussi au candidat au recrutement, préalablement à la mise en œuvre de la technique utilisée à son égard. Aucune information concernant personnellement un candidat ne peut être collectée par un dispositif qui n'a pas été porté préalablement à sa connaissance (c. trav. art. L. 1221-9). Cette obligation d'information préalable du candidat incombe aux employeurs, aux organismes de formation ou de bilan de compétence ainsi qu'aux conseils de recrutement sans que son formalisme n’en soit défini. Il est bien évidemment recommandé de veiller à une traçabilité de la délivrance de cette information.
Enfin, l’usage de l’IA dans le processus de recrutement ne pourra être effectué que dans le respect de plusieurs principes.
Les techniques d’aide au recrutement doivent être pertinentes au regard de la finalité poursuivie, transparentes et confidentielles (c. trav. art. L. 1221-8).
La CNIL a rappelé qu'un employeur doit respecter le principe de minimisation de la collecte des données personnelles, c'est-à-dire ne récolter que les données présentant un lien direct et nécessaire avec l'emploi proposé et avec l'évaluation des aptitudes professionnelles (CNIL, Communiqué de presse du 25 avril 2024 ; Guide du recrutement, janvier 2023).
La sélection des candidats tiendra compte des seules compétences requises pour le poste à pourvoir, les techniques utilisées ayant cet objet (circ. DRT 93/10 du 15 mars 1993). En effet, on peut imaginer que l’employeur soit tenté de « nourrir » l’IA avec une abondance de données dans l’espoir d’une qualité de traitement par celle-ci augmentée.
La part de l’IA dans la décision et le processus de recrutement
Mais par-delà l’usage en lui-même de l’IA dans le processus de recrutement, c’est la part que prend cet usage qui fait l’objet d’un encadrement.
Ainsi, le recours exclusif à un système informatique pour sélectionner un candidat est-il licite ? Tout candidat a le droit d'être informé des raisonnements utilisés dans les traitements automatisés d'aide à la sélection des candidatures.
Doit-on considérer qu’il s’agit d’un véritable droit à la décision humaine ? C’est en tout cas une faculté ouverte à celui qui est l’objet de la décision de réclamer cette intervention humaine de manière plus ou moins importante.
En effet, l’article 22 du règlement européen 2016/679 du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (« RGPD ») dispose que la personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire, mais prévoit une exemption dans le cas notamment de la conclusion d’un contrat. En revanche, cette exception n’exonère pas l’employeur de mettre en œuvre « des mesures appropriées pour la sauvegarde des droits et libertés et des intérêts légitimes de la personne concernée, au moins du droit de la personne concernée d'obtenir une intervention humaine de la part du responsable du traitement, d'exprimer son point de vue et de contester la décision. »
RH et acteurs internes de l’entreprise
La responsabilité des salariés dans l’utilisation de l’IA
L’impact externe à l’entreprise de l’usage de l’IA porte aussi sur l’utilisation de l’IA par les salariés et la responsabilité qui en résulte.
Il peut s’avérer utile pour une organisation d’encadrer l’utilisation de l’IA par ses salariés afin d’éviter que sa responsabilité puisse se trouver engagée. En effet, la mauvaise utilisation de l’IA peut donner lieu à des fuites de données et de violation des droits en matière de propriété intellectuelle.
En l’absence de mise en place de règles claires, il pourrait être difficile pour un employeur de sanctionner un salarié qui aurait utilisé l’IA dans le cadre de ses fonctions à son insu.
Les responsables de Ressources humaines seraient donc avisés de traiter désormais ce sujet dans le cadre du règlement intérieur et de la charte informatique de l’organisation.
Il peut également être utile de s’assurer que les fiches de poste indiquent clairement si et comment l’utilisation de l’IA est obligatoire, autorisée ou interdite, tout en faisant attention à éviter de créer des disparités entre des salariés se trouvant dans des situations comparables. On ne peut pas exclure qu’un salarié puisse être tenté de contester d’éventuels reproches de la part de son employeur concernant son niveau de performance ou invoque une surcharge de travail si, contrairement à ses collègues, il n’a pas la possibilité d’avoir recours à l’IA.
Le tiers qui est victime d’un dommage dans une situation causée par l’usage de l’IA de la part d’un salarié pourrait alors engager la responsabilité de l’employeur sur le fondement de l’article 1242 du code civil dans la mesure où ce dernier peut être qualifié de « gardien » du système d’IA.
Les obligations de l’entreprise en tant que « déployeur » de systèmes d’IA dits « à haut risque »
Mais le règlement européen applicable le 2 août 2025 sur ces aspects renforce également la déclinaison des obligations pesant sur l’entreprise, « déployeur » d’un système d’IA à haut risque (art. 26), dont font partie les systèmes d’IA destinés à être utilisés pour le recrutement ou des décisions en matière de relations professionnelles, de promotion ou de licenciement (règlt UE 2024/1689 du 13 juin 2024, art. 26).
Ainsi le « déployeur » doit confier le contrôle humain – c’est-à-dire un contrôle effectif pendant la période d’utilisation – à des personnes physiques qui disposent des compétences, de la formation et de l’autorité nécessaire ainsi que du soutien nécessaire (règlt UE 2024/1689 du 13 juin 2024, art. 14).
Ce même « déployeur » veille à ce que les données d’entrée soient pertinentes et suffisamment représentatives au regard de la destination du système d’IA (règlt UE 2024/1689 du 13 juin 2024, art. 26, 4).
Plus largement, c’est à une analyse de même type que l’évaluation des risques professionnels à laquelle le « déployeur » doit se livrer : l’analyse d’impact des systèmes d’IA à haut risque sur les droits fondamentaux (règlt UE 2024/1689 du 13 juin 2024, art. 27). Cette analyse préalable au déploiement de l’IA comprendra une description du processus d’usage de l’IA, de sa période et fréquence, des catégories concernées, des risques de préjudice qu’elles peuvent subir et des mesures pour y faire face, de la mise en œuvre du contrôle humain.
La Commission européenne s’est par ailleurs récemment interrogée sur l’opportunité de créer un régime de responsabilité spécifique applicable à l’intelligence artificielle et a publié le 28 septembre 2022 une proposition de directive « relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle » qui a donc vocation à compléter l’IA Act.
La Commission européenne a ainsi souhaité, par ce projet, garantir les victimes en leur fournissant les mêmes normes de protection lorsqu’elles sont lésées par un système d’IA que lorsqu’elles sont lésées dans d’autres circonstances. La première mesure consisterait à instaurer une présomption réfragable d’un lien de causalité en cas de faute, grâce à laquelle les victimes n’auraient pas à démontrer le dysfonctionnement de l’intelligence artificielle, qui peut s’avérer fastidieux. La seconde mesure consisterait à simplifier l’accès aux éléments de preuve détenus par les personnes dont la responsabilité est envisagée. Il serait ainsi possible aux victimes de demander à une juridiction d’ordonner la divulgation d’informations relatives aux systèmes d’IA jugés « à haut risque » et soupçonnés d’avoir causé un dommage. Cette procédure a en effet pour objectif de permettre aux victimes d’IA d’identifier plus rapidement la personne responsable du dommage et la cause du problème.
L’usage de l’IA pour la gestion des ressources humaines de l’entreprise
L’IA dans la gestion RH, terrain d’application du respect des droits et libertés individuelles
Mais c’est plus généralement l’usage de l’IA pour la gestion des ressources humaines de l’entreprise, les décisions concernant les salariés collectivement ou individuellement qui font l’objet d’un cadre juridique appelant d’observer des précautions.
Le respect des droits et libertés individuelles et ses règles générales trouve ici un terrain d’application.
L’article L. 1121-1 du code du travail, selon lequel « Nul ne peut apporter aux droits des personnes et aux libertés individuelles et collectives de restrictions qui ne seraient pas justifiées par la nature de la tâche à accomplir ni proportionnées au but recherché », pose les principes de base. Les garanties en matière de droit à la décision humaine mentionnées en matière de recrutement (voir plus haut) sont également à observer pour les décisions qui concernent les salariés.
Quel responsable des ressources humaines ne rêve pas :
-de pouvoir rapidement recruter les bonnes personnes, en évitant les biais cognitifs et les pertes de temps, sources de frustrations à la fois au niveau des candidats et de l’entreprise ? ;
-de s’assurer en temps réel que les salariés sont à même de remplir leurs objectifs et bénéficient des moyens, conseils et formations adaptés à leurs besoins spécifiques afin de favoriser une montée en compétences rapide et éviter les échecs professionnels ? ;
-ou encore de suivre au quotidien le bien-être des équipes afin d’identifier et gérer les éventuelles disparités de traitement, les situations de malaise ou surmenage, les comportements inappropriés voire malhonnêtes ?
Et quel salarié hésiterait à s’engager à 110 % pour une entreprise qui lui accorde autant d’attention ?
Or, malheureusement, comme le veut l’adage « l’enfer est pavé de bonnes intentions ». En effet, ces nouveaux outils de « management algorithmique » à vocation analytique, voire prédictive, sont, pour le moment, à utiliser avec précaution. Ils peuvent en effet, comme l’indique également le rapport établi par la commission sur l'intelligence artificielle du 13 mars 2024, entraîner « la perte d’autonomie au travail, une subordination déshumanisante à la machine, une surveillance excessive des travailleurs, un isolement des travailleurs et une perte du sens du collectif ». En effet, ces outils ont jusqu'à présent montré leurs limites, n’étant souvent pas plus performants que l’humain, voire pire en amplifiant les discriminations par exemple.
Sensibilisation des responsables RH aux garde-fous juridiques existants
Pour cette raison, les responsables des ressources humaines doivent être sensibilisés et respecter les garde-fous juridiques qui existent.
La nécessaire consultation du CSE avant l’utilisation de tels outils en application des articles L. 2312-38 (gestion du personnel et recrutement) et L. 2312-37 du code du travail (moyen de contrôle de l’activité des salariés) devrait permettre d’identifier et gérer les points d’inquiétudes des salariés, directement concernés par ces outils.
Avant d’avoir recours à ces outils, les responsables des ressources humaines devront également s’assurer de consulter leur délégué à la protection des données, lequel doit être désigné en application du RGPD avec, entre autres missions, celle d’informer et conseiller les employés qui procèdent au traitement de données personnelles sur leurs obligations (règlt UE 2016/679 du 27 avril 2016, art. 37 et 39). En effet, la réglementation en matière de données à caractère personnel au titre du RGPD aura systématiquement vocation à s’appliquer. Or, la CNIL prend à cœur son rôle concernant les salariés confrontés à l’IA, comme le démontre l’amende de 32 millions d’euros infligée en décembre 2023 à Amazon pour avoir mis en place un système de surveillance de l’activité et des performances des salariés considéré comme excessivement intrusif.
En particulier, la prohibition des discriminations (c. trav. art. L. 1132-1) dans différentes décisions concernant la vie professionnelle du salarié peut concerner l’usage de l’IA. En effet, l’usage d’algorithmes intégrant certaines données peut induire un biais dans la décision générateur de discrimination.
Si les données entrées le sont sur la base de pratiques réelles elles-mêmes marquées (consciemment ou non) par des biais, leur prise en compte par l’IA peut reproduire, voire exacerber ces biais.
Or, il faut rappeler qu’en cas de contentieux, le salarié qui se prétend victime de discrimination doit simplement présenter « des éléments de fait laissant supposer l'existence d'une discrimination directe ou indirecte », charge au défendeur « de prouver que sa décision est justifiée par des éléments objectifs étrangers à toute discrimination » (c. trav. art. L. 1134-1). Le fait que la décision contestée ait été prise sur la base de l’IA ne suffira pas à démontrer l’absence de discrimination et l’employeur restera obligé de démontrer que celle-ci repose sur des éléments non discriminants.
S’inspirer de l’encadrement prévu pour les travailleurs indépendants des plateformes numériques ?
C’est une véritable organisation d’un management qui peut être algorithmique, et qui n’est aujourd’hui réglementé que dans le cas des plateformes de travailleurs indépendants :
-certains de ces derniers bénéficient « du droit d'accès à l'ensemble des données concernant leurs activités propres au sein de la plateforme et permettant de les identifier » (c. trav. art. L. 7342-7) ;
-une négociation est obligatoirement engagée sur les « conditions d'exercice de l'activité professionnelle des travailleurs, et notamment l'encadrement de leur temps d'activité ainsi que les effets des algorithmes et des changements les affectant sur les modalités d'accomplissement des prestations » (c. trav. art. L. 7343-36) ;
-une telle négociation « peut également être engagée » sur les « modalités de contrôle par la plateforme de l'activité du travailleur indépendant et de la réalisation de la prestation lui incombant, les circonstances pouvant conduire à une rupture des relations commerciales entre la plateforme et le travailleur indépendant » (c. trav. art. L. 7343-37).
Le projet de directive européenne relative à l’amélioration des conditions de travail dans le cadre du travail via une plateforme numérique vise d’ailleurs à exiger des plateformes qu’elles informent les personnes exécutant un travail par leur intermédiaire au sujet des systèmes de surveillance ou de prise de décision automatisés. Une surveillance humaine de ces systèmes automatisés doit être garantie par les États via des évaluations de l’incidence des décisions individuelles prises ou appuyées par les systèmes de prises de décision automatisés. Une évaluation humaine de toute décision importante est garantie avec le droit d’obtenir une explication écrite de toute décision prise ou appuyée par les systèmes de prises de décision automatisés.
Nul doute que ce qui concerne pour l’heure uniquement les plateformes de travailleur indépendant pourrait inspirer plus largement les entreprises en matière de management algorithmique et son encadrement.
Les positions et opinions émises dans cette rubrique n'engagent que leur auteur.











