04 94 31 40 01 contact@artemis-paie.fr
Paroles de

Dans quelle mesure l’intelligence artificielle risque-t-elle d’entraîner une nouvelle forme de subordination, voire même de déshumanisation comme vous l’écrivez ?

Même s’il n’est pas question de nier ses apports au travail, que ce soit l’augmentation de la productivité, la diminution des tâches répétitives, la détection d’anomalies ou le remplacement de l’homme sur des tâches dangereuses, l’intelligence artificielle est porteuse d’une profonde transformation de l’exercice du pouvoir dans l’entreprise. Avec à la clé des sujétions accrues pour nombre de salariés ! Deux exemples l’illustrent très bien. La surveillance d’abord, qui trouve dans l’IA de nouvelles applications, toujours plus intrusives, telles que la reconnaissance faciale ou le traitement automatisé d’une quantité quasi-infinie de données, y compris de données personnelles. La simple captation du visage et de la posture du salarié permet aujourd’hui à une IA de déterminer des dizaines, voire des centaines de données comme la motivation, le stress, la satisfaction, l’agressivité … que les services RH pourront exploiter pour l’octroi d’une prime, l’obligation de suivre une formation, voire le prononcé d’une sanction. La définition des objectifs ensuite qui, grâce à l’alliage IA et algorithmes, va pouvoir être définie et ajustée pour être au maximum des capacités du salarié, même au-delà, le tout sous la pression de tableaux quotidiens affichant une couleur en fonction des résultats obtenus et, pour les travailleurs des entrepôts, sous celle d’un robot vocal qui dictera à la seconde près les déplacements à effectuer dans les allées et les rayonnages.

Le risque de déshumanisation est manifeste. L’IA va permettre d’écarter en tout ou partie la décision humaine et la part de subjectivité qui l’accompagne. La décision devient aussitôt moins coûteuse ; il est plus rentable de faire examiner deux cents candidatures par un algorithme plutôt que par un salarié qui y consacrera plusieurs jours de travail. Elle gagne aussi, en apparence au moins, en objectivité. Du facteur humain, qui fait que l’on peut accorder une pause plus longue à un salarié dont l’épouse est gravement malade, que l’on peut ajuster les objectifs de la semaine alors qu’un plan de licenciement vient d’être annoncé dans le groupe, avec l’angoisse qui l’accompagne, l’algorithme n’a que faire ! Une objectivité d’ailleurs seulement apparente car l’algorithme incorpore possiblement – cela est désormais acté, jusque devant les tribunaux – des biais discriminatoires !

Vous craignez l’essor de « licenciements algorithmiques ». Sur quelles bases pourraient-ils être fondés ?

Le recours aux algorithmes constitue d’ores et déjà une pratique bien ancrée en matière de recrutement. L’étape suivante, qui commence à arriver en France, est celle des licenciements algorithmiques. Derrière cette appellation, se cachent deux réalités tout aussi préoccupantes l’une que l’autre. Stricto sensu, il s’agit du licenciement de salariés sélectionnés par une IA alimentée par un algorithme. Ce qui est aujourd’hui admis aux Etats-Unis, sous réserve que l’algorithme n’abrite pas une discrimination, ne l’est pas en France du fait de l’exigence de cause réelle et sérieuse. Devant le CPH, l’employeur ne pourra s’abriter derrière le fait que la décision est celle d’une IA, outre le fait qu’au-delà même de la relation de travail, les décisions entièrement automatisées sont, pour nombre d’entre elles, interdites par le RGPD.

Derrière le licenciement algorithmique, il y a une autre réalité : le remplacement de l’humain par l’IA. La question peut être posée simplement même si la réponse est complexe : le remplacement de l’homme par une intelligence artificielle constitue-t-il un motif légitime de licenciement ? Je propose dans le livre de modifier les textes à court ou moyen terme, faute de quoi le droit du licenciement pourrait devenir le bras armé de la théorie du remplacement de l’homme par la machine et légitimer une disparition massive des emplois au nom du progrès technologique.

Même si le verrou de l’obligation d’adaptation freine actuellement le recours par les entreprises au motif de « mutations  technologiques », qui fait partie des raisons économiques de licenciement admises par le code du travail, il va très probablement sauter au fur et à mesure que des métiers vont disparaitre purement et simplement ou être tellement transformés que les compétences requises seront inaccessibles au titulaire du poste supprimé. On ne passe pas de traducteur, journaliste ou comptable à ingénieur en big data, en robotique ou en traitement du langage naturel, développeur IA ou data scientist avec une formation de quelques semaines voire quelques mois.

Même si on pourrait envisager de compléter l’article L.1233-3 par des indicateurs de mutations technologiques, comme cela a été fait pour les difficultés économiques en 2016, la voie la plus probante consisterait à renoncer à faire des mutations technologiques un motif autonome de licenciement, ce qui obligera l’employeur qui entend remplacer l’homme par la machine à justifier de difficultés économiques ou, plus vraisemblablement, de la menace qui pèse sur la compétitivité de l’entreprise. C’était d’ailleurs la voie choisie par la société Pages jaunes lorsqu’au début des années 2000, elle a supprimé des emplois et modifié les contrats des salariés affectés à l’annuaire papier et au minitel en raison du passage à l’informatique.

Peut-on craindre également une déperdition de compétences, avec le risque de perte de salaire comme pour certaines professions comme les traducteurs ?

Absolument ! On peut toujours s’abriter derrière la théorie de la destruction créatrice, avec l’espoir que les emplois supprimés du fait de l’IA seront remplacés par d’autres emplois, non seulement en nombre équivalent mais, de surcroit, plus qualifiés et mieux rémunérés. Je crains que cela ne fonctionne que très partiellement. Si l’on prend l’exemple de la première entreprise française à justifier un plan massif de licenciements par le recours à l’IA, Onclusive, celle-ci annonçait en 2023 remplacer les salariés affectés à la réalisation des revues de presse par des logiciels d’IA avec à la clé, en France, 217 suppressions d’emplois et – seulement – 23 créations. Cela veut tout dire ! Sans oublier le spectre de voir les tâches nouvellement créées échapper au salariat, dans des secteurs d’activité particulièrement sujets au free-lancing !

Développons un instant le cas particulièrement parlant du métier de traducteur. On a tous fait l’expérience de l’efficacité actuelle de Deepl, Google traduction ou ChatGPT ! Quel impact pour les traducteurs ? Certains vont voir leur métier se résumer à vérifier la traduction effectuée par le logiciel. D’autres vont devenir traducteurs de « niche », sur des traductions – par définition en nombre limité – qui impliquent une prise en compte du contexte historique, culturel, juridique que l’IA n’est actuellement pas capable d’intégrer de façon satisfaisante. Il est facile de comprendre que cela ne concernera pas autant d’emplois. Et à ceux qui prétendent que vont être créés à la place des postes de spécialiste de l’IA appliqué à la traduction, destinés au développement de moteurs de traduction, force est de leur opposer qu’on est en présence d’une tout autre qualification. Quant à celles et ceux qui conserveront leur métier classique de traducteur, sur des traductions « basiques » que les logiciels sont en capacité de réaliser, ils subiront une pression à la baisse sur leur salaire, leur employeur n’étant plus en capacité de facturer au client la prestation au niveau d’avant IA !

Vous préconisez de remettre le droit au centre pour encadrer ces nouvelles pratiques. C’est-à-dire ?

C’est pour moi un point fondamental. Nous devons cesser de prendre l’économie et la technologie pour des sciences sur lesquelles nous n’aurions pas de prise, derrière lesquelles nous serions condamnés à courir sans jamais pouvoir les devancer.

Pour ce faire, le droit a un rôle capital à jouer. Non pas un droit qui se met au service du marché et de l’innovation technologique mais un droit qui trace le chemin en définissant un modèle de société respectueux des droit fondamentaux.

La référence aux droits fondamentaux n’est pas et ne peut pas être un simple slogan … à la condition de s’assurer de leur effectivité !

Cela veut dire, d’abord, développer des dispositifs de concrétisation des droits fondamentaux. Il me semble indispensable d’amender le « droit à la déconnexion » qui, actuellement, n’a de droit que le nom, pour incorporer des dispositions supplétives applicables faute d’accord collectif, plutôt qu’une charte élaborée unilatéralement par l’employeur. Cela veut dire aussi, alors qu’on débat actuellement du télétravail en tant qu’acquis social ou non, reconnaître aux salariés un « droit au télétravail ». Il pourrait s’agir de l’une des déclinaisons (la semaine de quatre jours en serait une autre) d’un dispositif plus global d’autonomie au travail, avec bien entendu des garde-fous à accorder aux employeurs qui pourraient opposer les exigences de bon fonctionnement de l’entreprise. Il faudrait cependant être naïf pour croire que ces dispositifs d’éloignement de l’entreprise – droit à la déconnexion, télétravail, semaine de quatre jours – vont empêcher l’IA générée par l’entreprise d’infiltrer la vie tant professionnelle que personnelle du salarié, son corps (on commence à voir arriver dans certains pays les puces introduites sous la peau du salarié) aussi bien que son esprit (le contrôle des émotions).

D’où le second volet consistant, lorsque les droits fondamentaux sont sérieusement menacés, à interdire purement et simplement l’usage de l’IA voire, même si c’est difficile à mettre en place s’agissant de produits numériques, à interdire purement et simplement leur mise sur le marché. Interdire n’est ni un gros mot ni un vestige du passé, même si l’incitation et la proportionnalité ont davantage le vent en poupe dans nos sociétés modernes qui valorisent la souplesse et l’agilité ! La Cnil a raison d’interdire la surveillance permanente de même que le keylogging. On peut de même se féliciter de voir le règlement européen sur l’IA classer les dispositifs de notation sociale et de reconnaissance des émotions au plus haut niveau de risque, à savoir le risque inacceptable, impliquant leur interdiction pure et simple.

A ce propos, il y a tout lieu d’être inquiet de la distorsion entre illicéité et preuve véhiculée par la jurisprudence bien connue qui permet de sauver une preuve obtenue de manière illicite si sa production est indispensable à l’exercice du droit à la preuve. S’il a été jugé par le passé que le défaut de déclaration à la Cnil d’un dispositif impliquant le traitement de données personnelles n’est pas rédhibitoire du point de vue de la preuve, l’articulation entre RGPD et droit à la preuve pose encore beaucoup de questions, malgré une jurisprudence en construction (arrêt de la 2e chambre civile du 3 octobre 2024). Sous un tout autre angle, l’IA peut aussi favoriser la constitution de fausses preuves, que ce soient des photos (les fameux deepfakes), des vidéos, des enregistrements, des textes … De nombreuses inquiétudes, autrement dit, sur le terrain de la preuve, sans compter le risque de voir le débat judiciaire sur la preuve tourner à un débat inaccessible au justiciable, voire au juge, entre spécialistes de l’IA !

Parmi les pistes pour réguler l’impact de l’IA sur le travail et sur l’emploi, des voies indirectes méritent également d’être suivies. Renforcer la capacité de décision des salariés, autrement dit l’autonomie des salariés, n’est pas seulement indispensable pour préserver l’attractivité du salariat, notamment pour les jeunes générations. Ça l’est tout autant pour limiter l’impact de l’IA en tant qu’instrument du pouvoir patronal. Cela veut dire, entre autres, donner davantage de poids aux représentants des salariés dans les instances de direction des entreprises. On peut en attendre une résistance à la stratégie de remplacement de l’homme par la machine bien plus efficace que le simple avis – par définition non contraignant – qui serait rendu par le CSE lors de la consultation sur les orientations stratégiques de l’entreprise. 

La question est politique, insistez-vous, c’est un choix de société que d’accepter ou non que les décisions qui s’imposent à nous soient prises par une IA…

Elle est effectivement éminemment politique ! Remettre le droit au cœur de nos sociétés, c’est aussi assumer que ce qui est et ce qui n’est pas n’est pas simplement dicté par les « lois » de la science ou du marché. Il nous appartient, au nom des droits fondamentaux et du primat de la personne humaine – d’où les enjeux de dignité humaine soulevés par l’IA – de réguler l’IA et pas seulement, comme nous l’avons vu, d’en gérer les effets ex-post (les suppressions d’emplois, les atteintes à la vie privée etc.  Le règlement européen sur l’ IA constitue de ce point de vue une réelle avancée.

Avec toutefois une vive inquiétude ! Donald Trump s’est montré, lors de sa campagne électorale, hostile à toute forme de régulation de l’IA. Tout comme sur l’environnement, l’Europe devra absolument résister aux arguments de ceux qui, de ce côté de l’Atlantique, ne manqueront pas de soutenir, suivant une argumentation à laquelle le droit social est particulièrement exposé (la fameuse « race to the buttom »), que la réglementation européenne crée un désavantage compétitif vis-à-vis des entreprises américaines et chinoises ! On en revient toujours au rôle du droit, et à la question essentielle des rapports entre droit, économie et progrès scientifique.  Ce n’est pas parce que la technologie met sur la table telle innovation, avec la promesse de gains de productivité considérables, que celle-ci doit être mise en oeuvre. Ce que l’on a su faire pour le clonage, au nom de la dignité humaine, malgré les promesses d’immortalité que lui associent certains, on doit aussi le faire pour l’IA, non pas sur le principe car il n’est évidemment pas question de proscrire le recours à l’IA, mais lorsque ses usages menacent les droits fondamentaux de la personne humaine.

 

(*) « Salariés libres… et heureux ? » aux éditions Odile Jacob.

Visuel réduit: 
Visibilite: 
privé
Signature: 
Florence Mehrez
Supports de diffusion: 
Pascal Lokiec, professeur de droit à l’université Paris I-Panthéon-Sorbonne, vient de publier un ouvrage dans lequel il s’interroge sur les nouvelles formes de subordination (*). L’intelligence artificielle est au coeur de certains de ses développements. Interview.
Cacher le visuel principal ?: 
Non
Type de produit: 
Produit d’origine: 
Auteur extérieur: 
Thème d’origine: 
Application immédiate: 
Clone parent: 
847 567