Lors du salon VivaTech 2023, Emmanuel Macron a annoncé un investissement à hauteur de 500 millions d’euros pour développer l’intelligence artificielle (IA) en France, et notamment accompagner les entreprises françaises dans leur processus de transformation numérique. Le déploiement aujourd’hui accéléré de l’intelligence artificielle dans le monde du travail offre de nombreuses opportunités mais représente un défi de taille pour les employeurs. 

Philippe Desprès, responsable de la pratique droit social de Skadden à Paris, et Carine Louyot, avocate collaboratrice, reviennent sur ces enjeux. 

Focus sur les principales implications juridiques du développement de l’intelligence artificielle en entreprise.

Conformément à la définition fournie par le Parlement européen, l’intelligence artificielle "désigne la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité".

Il est aujourd’hui acquis que le développement des techniques d’intelligence artificielle au sein de l’entreprise va modifier bon nombre d’emplois et d’organisations. Si certaines technologies associées à l’intelligence artificielle existent depuis plus de cinquante ans, l’accélération récente de leur développement nécessite une prise de conscience de la part des employeurs, mais également du législateur, des risques et des enjeux liés à un tel usage, dans un contexte d’incertitude juridique et en présence d’un cadre législatif qui n’est pas (encore) spécifique à l’intelligence artificielle.

Le risque de discrimination

Le déploiement de l’intelligence artificielle au sein des services de ressources humaines offre un potentiel important en matière de recrutement et de gestion des ressources humaines (par exemple, pour l’évaluation des performances ou la promotion des salariés).

à première vue, le recours à l’intelligence artificielle pourrait être perçu comme une garantie d’objectivité du processus décisionnel en s’inscrivant comme un remède potentiel à la prise de décisions discriminatoires, qu’elles soient intentionnelles ou non. Or, si l’utilisation de l’intelligence artificielle peut certes permettre de lutter, dans une certaine mesure, contre certaines discriminations, elle peut également conduire à les reproduire, voire à les amplifier.

Des biais discriminatoires peuvent en effet être introduits à divers stades : dès la conception du système ou dans le code informatique lui-même (au travers de biais cognitifs ou des préjugés du concepteur), mais aussi au cours du fonctionnement de l’intelligence artificielle, c’est-à-dire dans la masse de données exploitées (dont le nombre, la diversité, la date, l’exactitude et la pertinence, peuvent faire varier la qualité de l’analyse).

Ces risques sont d’autant plus dangereux que les discriminations de l’algorithme peuvent être facilement invisibles, et les utilisations de ceux-ci massives. Ainsi, à la différence de l’introduction intentionnelle de critères discriminatoires lors de la conception, laquelle est plus facilement repérable et sanctionnable, les risques de discrimination liés aux biais cognitifs du concepteur ou à l’utilisation des données sont davantage imperceptibles, aussi bien par les développeurs que par les victimes. Or, si l’employeur a la charge de prouver que sa décision est justifiée par des éléments objectifs étrangers à toute discrimination, il n’en reste pas moins que le candidat ou le salarié victime devra d’abord soumettre les éléments de fait, laissant supposer l’existence d’une telle discrimination, ce qui pourra dans certains cas être difficile, voire impossible.

Face à l’automatisation de certaines tâches, l’employeur devra également porter une attention particulière à la formation professionnelle des salariés

Les impacts sur l’emploi et les conditions de travail

Les impacts du déploiement de l’intelligence artificielle en entreprise et, notamment, de l’automatisation de certaines tâches antérieurement dévolues aux salariés, peuvent être significatifs. Les inquiétudes liées à la modification et surtout à la suppression des emplois défrayent d’ailleurs actuellement la chronique.

L’employeur sera nécessairement confronté à la question de savoir si ces évolutions, en fonction notamment de leur ampleur, constituent un simple changement des conditions de travail ou une modification du contrat de travail nécessitant l’accord préalable du salarié.

En cas de refus par un salarié de la modification de son contrat de travail, ou lorsque le déploiement de l’intelligence artificielle entraîne des suppressions d’emplois, l’employeur pourra alors envisager de recourir à des licenciements pour motif économique. Le droit existant le permet puisque l’introduction d’une technologie nouvelle ayant une incidence sur l’emploi constitue un motif économique autonome de licenciement. Dans une certaine mesure et face à des concurrents qui auraient déjà intégré l’intelligence artificielle au sein de leurs organisations, le motif de la réorganisation de l’entreprise nécessitée pour sauvegarder la compétitivité de celle-ci pourrait également être utilisé.

Face à l’automatisation de certaines tâches, l’employeur devra également porter une attention particulière à la formation professionnelle des salariés. Celui-ci a en effet l’obligation d’assurer l’adaptation des salariés à leur poste de travail et de veiller au maintien de leur capacité à occuper leur emploi. Il pourrait ainsi être envisagé d’adapter le contenu de la négociation sur la gestion des emplois et des parcours professionnels pour discuter de la mise en place, au sein des entreprises concernées, de mesures de formation et d’accompagnement relatives à l’introduction de technologies liées à l’intelligence artificielle.

En tout état de cause, la question de l’implication des représentants du personnel devra nécessairement se poser. La consultation du comité social et économique (CSE) sera notamment requise sur le fondement existant de l’introduction de nouvelles technologies ou de l’aménagement important modifiant les conditions de santé et de sécurité ou les conditions de travail. étant donné les connaissances particulières nécessaires en matière d’intelligence artificielle, il est par ailleurs fort probable que le CSE décide de se faire assister par un expert dans le cadre des consultations sur ce thème.

La responsabilité de l’employeur en cas de dommage

L’intelligence artificielle peut être considérée comme un simple outil ou machine, mais également comme un acteur autonome, capable de prendre des décisions indépendantes. En l’absence, à date, de statut juridique spécifique attribué à l’intelligence artificielle, la question de la détermination des responsabilités légales en cas d’erreur ou de préjudice causé du fait de l’utilisation d’un système d’intelligence artificielle se pose nécessairement.

L’utilisation par un salarié d’un tel système, mis à sa disposition par l’employeur, peut en effet causer un dommage à un tiers (tel qu’un client de l’entreprise) et pourra entraîner la mise en jeu de la responsabilité de l’employeur. Par ailleurs, et on l’a vu, la responsabilité de l’employeur peut être également recherchée à l’égard de ses propres salariés, notamment en présence de pratiques discriminatoires générées par l’intelligence artificielle dans la gestion du personnel. Peut également se poser la question pour l’employeur de se retourner contre le concepteur du système d’intelligence artificielle.

En l’absence de régime de responsabilité spécifique à l’exploitant d’un système d’intelligence artificielle, les victimes pourraient en théorie avoir recours aux régimes de responsabilité prévus actuellement par le Code civil, et notamment la responsabilité civile pour faute. Néanmoins, obtenir réparation des préjudices causés par une intelligence artificielle en s’appuyant sur les textes existants présente plusieurs obstacles pratiques, relevant notamment de la difficulté à démontrer l’existence d’un dommage, d’une faute et d’un lien de causalité entre les deux, en raison de la sophistication du système d’intelligence artificielle.

Face à ces obstacles, la Commission européenne s’est récemment interrogée sur la nécessité d’introduire des règles spécifiques aux dommages causés par un système d’intelligence artificielle, au travers notamment de deux propositions de directives en date du 28 septembre 2022 dont il conviendra de suivre l’évolution dans la perspective d’une transposition future en droit français.

Par Philippe Desprès, responsable de la pratique droit social de Skadden à Paris, et Carine Louyot, avocate collaboratrice

Prochains rendez-vous
Décideurs RH

3 juillet 2024
Talents !
Le nouvel événement du recrutement, de la gestion des carrières et du Comp&Ben
CONFÉRENCES ● DÉJEUNER VIP ● REMISE DE PRIX 
Voir le site »

2 octobre 2024
Rencontres du droit social
Le rendez-vous des acteurs du droit social
CONFÉRENCES ● DÉJEUNER VIP 
Voir le site »


Novembre 2024
Les Victoires du Capital humain
L'incontournable des directions RH
CONFÉRENCES ● DÉJEUNER VIP ● REMISE DE PRIX 
Voir le site » 

Avril 2025
U-Spring, Le Printemps des universités d'entreprises
La journée qui célèbre le learning
CONFÉRENCES ● DÉJEUNER VIP ● REMISE DE PRIX
Voir le site »

Newsletter Flash

Pour recevoir la newsletter hebdomadaire de Décideurs RH, merci de renseigner votre mail

{emailcloak=off}