Dans le cadre du séminaire sur les politiques de l’emploi, organisé par les ministères de l’économie et du travail mardi 21 mai 2024, juristes et économistes se sont penchés sur l’impact du développement de l’intelligence artificielle sur l’emploi. Parmi les questions abordées, celle de savoir s’il est nécessaire de modifier le code du travail afin de prendre en compte les nouvelles problématiques soulevées par l’IA. Grégoire Loiseau, professeur de droit à l’université Paris 1 Panthéon-Sorbonne, plaide plutôt pour une adaptation des outils existants.
En matière de protection de l’emploi – afin de prévenir et pallier les suppressions de postes qu’il est pour l’heure difficile de quantifier – il convient « d’adapter les emplois à l’évolution des tâches » et de « permettre l’évolution des travailleurs dans leur emploi via une appropriation des outils numériques », insiste Grégoire Loiseau. Le droit du travail comporte déjà les outils adéquats. Le professeur de droit cite par exemple la modification du contrat de travail pour adapter les tâches et le cas échéant les fonctions, ou bien encore, la GEPP (ex GPEC). Aux employeurs qui attendraient que les salariés mobilisent leurs droit à CPF pour se former à l’IA, Grégoire Loiseau tient à rappeler que « la formation des travailleurs est d’abord une obligation de l’employeur d’adapter les travailleurs à l’évolution de leurs tâches et des postes » et que « la formation professionnelle doit d’abord être internalisée comme une obligation des entreprises et non seulement externalisée [via le CPF] ».
S’agissant de la protection au travail, l’employeur doit appréhender différemment son obligation de sécurité. « Le prisme aujourd’hui c’est la santé mentale », prévient le professeur de droit. Là encore, les outils existent déjà dans le code du travail pour prévenir les risques professionnels. Il convient toutefois de « les actualiser pour ajouter les risques liés à l’économie numérique », indique Grégoire Loiseau, à commencer par le document unique d’évaluation des risques professionnels (DUERP), « un outil extrêmement précieux pour la santé des travailleurs ». Il y a aussi la négociation obligatoire sur la QVCT – qui existe depuis 2021 – « qui intègre la négociation sur les risques professionnels et dans laquelle on peut y mettre les risques liés à l’IA ».
Les marges de manoeuvre du législateur national sont de toutes façons assez contraintes par le droit européen. « Il existe beaucoup d’instruments européens et le droit national doit se glisser dans les interstices laissés par [ce dernier] », analyse Grégoire Loiseau. C’est notamment le cas du RGPD qui constitue l’un des remparts de la protection des travailleurs face à l’IA. « Le RGPD interdit par exemple des décisions fondées uniquemement sur un algorithme sauf si elles sont nécessaire à la conclusion ou à l’exécution d’un contrat. Ne peut-on pas, par la loi ou par un accord collectif, exiger une intervention humaine sur toutes les décisions algorithmiques qui ont un impact sur les salariés ? », s’interroge l’universitaire.
« La directive sur les travailleurs des plateformes en passe d’être adoptée contient aussi un volet sur la protection des données des travailleurs des plateformes, rappelle Grégoire Loiseau. Il y aura une place pour le droit national lorsque la directive sera transposée ».
En droit interne, c’est la Cnil qui pour l’heure joue ce rôle de garde-fou pour les travailleurs confrontés à l’intelligence artificielle. Grégoire Loiseau rappelle ainsi la décision par laquelle la commission a condamné Amazon à une amende de 32 millions d’euros, en décembre dernier, pour avoir mis en place un système de surveillance de l’activité et des performances des salariés excessivement intrusif.
Mais si le droit du travail n’a pas besoin de mutations profondes pour s’adapter à l’IA, Grégoire Loiseau insiste sur la nécessité d’isoler la présence de l’IA dans le monde du travail. « Il est utile de pouvoir identifier les problématiques IA dans une logique d’acculturation ».
Ainsi, par exemple, si « on peut déjà consulter les représentants du personnel [sur l’introduction de l’IA dans l’entreprise] », il serait utile de « bien identifier les systèmes liés au développement de l’IA et de prévoir une expertise prise en charge à 100 % par l’employeur. La BDESE mériterait d’avoir des rubriques consacrées aux systèmes d’IA comme elle a été enrichie de données environnementales en 2022. C’et un outil permettant aux élus de s’approprier ces problématiques ».
Ce travail peut permettre « d’avoir une réflexion associant les élus ou les représentants syndicaux », assure le professeur de droit.
Gilbert Cette, président du Conseil d’orientation des retraites et professeur d’économie à la Neoma Business School, s’oppose à la création de nouvelles obligations à la charge de l’entreprise et suggère plutôt « de se tourner d’abord vers la négociation interprofessionnelle, puis de branche et d’entreprise. Les partenaires sociaux doivent être la réponse plutôt que la loi qui alourdirait les obligations des entreprises ». Un point de consensus avec Grégoire Loiseau, « fervent convaincu de l’utilité de la négociation » qui plaide ainsi pour la négociation d’un accord national interprofessionnel (ANI) sur le numérique et l’IA ».
Pour l’heure, « en France, il n’y a pas d’accords collectifs sur ces sujets, ni de branche, ni d’entreprise », déplore pourtant Francesca Salis-Madinier, secrétaire nationale de la CFDT Cadres et membre de la commission gouvernementale de l’intelligence artificielle. La syndicaliste identifie des « freins et des peurs qui peuvent ralentir, voire bloquer, le processus [de négociation] ».
Elle cite notamment l’accord européen de 2020 sur les transitions numériques – avec un chapitre sur l’IA – qui « devrait être décliné dans les différents pays. En 2024, il n’y a toujours pas de déclinaison en France de cet accord ».
Pourtant, elle voit les choses « bouger » au sein des entreprises. « Lorsque la direction introduit un outil, les élus demandent à être informés-consultés et obtiennent une in fine une expertise ».
L’introduction de l’intelligence artificielle dans le monde du travail nécessite aussi une certaine « transparence » de la part des entreprises. « L’appel aux notions « d’exactitude et d’infaillibilité » lorsqu’on parle de l’IA contribue à renforcer le pouvoir de direction de l’employeur » et reste « une boite noire pour les salariés », explique Grégoire Loiseau. « Le droit du travail mérite d’aller plus loin et de consacrer des droits des travailleurs : en version basse, un droit à l’explicabilité, et en version haute, un droit à la contestabilité ».
C’est aussi la position de Francesca Salis-Madinier. « Un DRH qui utiliserait cet outil doit pouvoir être en mesure d’expliquer pourquoi il prend cette décision. Il faut trouver un système qui peut permettre l’explicabilité dès la conception. Or, ni la direction ni les syndicalistes ne sont préparés. Les représentants du personnel doivent être impliqués : pourquoi on utilise cet outil, dans quelle finalité et quels en sont les usages ? Comment on l’expérimente ? ». L’utilisation de l’IA « doit répondre aux besoins de l’activité des travailleurs et non être un placement commercial », met en garde la secrétaire national de la CFDT Cadres.
Commentaires récents