Les discours louant l’influence bénéfique de l’IA dans l’augmentation de la productivité et de la performance des entreprises se multiplient au rythme des progrès fulgurants de cette nouvelle technologie. Pourtant, les risques qu’elle fait peser sur les questions de santé et de sécurité au travail restent très peu évoqués.

Un rapport de l’agence d’information de l’Union européenne en matière de sécurité et de santé au travail (EU-OSHA) daté du 19 mars 2024 lance l’alerte au sujet des systèmes de gestion des équipes fondés sur l’IA (AIWM).

Rythme de travail accru : la fin des temps morts

L’intensification du travail est l’un des plus fréquents risques liés à l’utilisation des systèmes AIWM. Ceux-ci se distinguent par leur degré d’autonomie décisionnelle, conçu pour venir compléter la prise de décision humaine, voire la remplacer. Ils optimisent les processus afin d’augmenter la productivité des entreprises, entraînent une intensification des cadences de travail et une réduction des temps de pause. L’IA peut ainsi servir à éliminer les instants de relâche avec un calcul du temps nécessaire à l’exécution d’une tâche. En somme, l’IA ne saisit pas l’importance de ces temps "morts" pour la productivité humaine sur la durée, et ne perçoit pas la fonction des moments de sociabilité informelle ou des baisses de cadence dans l’amélioration de la performance des équipes. Interrogé sur la mise en place de la semaine de quatre jours au sein de LDLC, Laurent de la Clergerie soulignait l’utilité des pauses pour le bien-être et la productivité des équipes : "Les effets ont été bien au-delà de ce que j’imaginais : grâce à cette pause hebdomadaire de trois jours qui garantit un équilibre de vie personnelle, on travaille bien mieux, beaucoup plus et en moins de temps, pas parce qu’il y a de la pression, mais parce que la santé mentale est meilleure. C’est même le cas dans un contexte de croissance : en logistique, avec 15 % de travail en plus, les équipes parviennent à tout accomplir et restent en bonne santé."

Management de l’humain par l’IA : conséquences psychologiques, physiques… et juridiques

Or, cette pression risque de mener à un accroissement des niveaux de stress parmi les salariés. En dictant les méthodes et horaires de travail de cohortes humaines, les systèmes AIWM exercent une influence fondamentale sur l’autonomie des individus. Une perte de pouvoir décisionnaire qui donne lieu à une forte hausse du stress – entraînant des troubles psychiques ou des maladies –, à une baisse de la productivité et de la performance ainsi qu’à une augmentation de l’absentéisme. Cette hyper-rationalisation du temps se révèle ainsi tout à fait contreproductive… L’apparition de troubles musculosquelettiques dus à des mouvements répétitifs et à des postures inconfortables est une autre conséquence significative de cette "optimisation". Ce type de gestion a du reste déjà montré ses limites et eu des conséquences juridiques : c’est notamment après avoir mis en place un système de surveillance de l’activité et des performances de ses salariés en vue d’augmenter leur productivité qu’Amazon France Logistique a été sanctionné par la Commission nationale de l’informatique et des libertés (CNIL), le 27 décembre 2023. Une décision motivée par la "surveillance étroite" et la "pression continue" exercée par ce dispositif sur les équipes.

"En réduisant les marges de manœuvre des personnes, les systèmes AIWM mettent en péril leur santé mentale"

Décisions automatisées, dépendance et risque d’emprise

Le modèle de Karasek, outil qui évalue l’intensité de la pression psychologique à laquelle une personne salariée est soumise, indique que les emplois à forte exigence et faible autonomie sont les plus préjudiciables pour la santé mentale. En réduisant les marges de manœuvre des individus, les systèmes AIWM exacerbent donc ce phénomène et mettent en péril leur santé mentale.

L’IA représente un risque : accentuer la perte de sens au travail, déjà amorcée par la crise du Covid. Les individus peuvent par ailleurs se sentir réduits au statut d’automates servant uniquement à récolter des données relatives à leurs tâches respectives, données dont se sert l’IA afin d’optimiser les processus à travers des directives. Les équipes risquent donc de perdre en autonomie mais également en créativité, du fait d’une possible dépendance à des systèmes d’IA lors des processus de prise de décisions. Un sentiment de déshumanisation à même d’affecter le bien-être psychologique des populations salariales. Volonté altérée et influence exercée sur des personnes en position de subordination : parler de phénomène d’emprise paraît totalement justifié.

 

"Le manque de transparence des logiciels utilisant l’IA dans le traitement des données ne permet pas toujours aux employeurs de répondre à leurs obligations, qui sont déjà nombreuses"

Récolte de données et discriminations

D’après une note de l’EU-OSHA destinée au Parlement européen, la question des données privées et sensibles concernant les équipes est fondamentale, puisque les systèmes AIWM en accumulent en grande quantité. Ces données sont traitées par des algorithmes chargés d’évaluer les individus et éventuellement de les sanctionner. Sans une attention particulière, l’émergence de biais favorisant certains groupes au détriment d’autres paraît inévitable, systématisant des discriminations fondées sur le genre, l’ethnicité, l’âge, l’engagement syndical, etc. Ces biais peuvent accentuer les inégalités existantes et créer un environnement de travail néfaste pour les personnes et les dynamiques collectives.

Pour ce qui est des données relatives à ses équipes, l’employeur est soumis au Règlement général sur la protection des données (RGPD). Il est tenu d’informer ses collaborateurs sur la finalité de la collecte des données et ce qui l’autorise à les traiter. Il a l’obligation de dévoiler les services et personnes qui y auront accès, de partager leur durée de conservation, mais également de signaler les modalités selon lesquelles les personnes concernées peuvent exercer leurs droits et doit les avertir en cas de transfert des données hors de l’Union européenne.

Dans l’application, c’est autre chose. Anne Leleu-Été, avocate spécialiste en droit du travail que nous avons interrogée, précise que "le manque de transparence des logiciels utilisant l’IA dans le traitement des données ne permet pas toujours aux employeurs de répondre à leurs obligations, qui sont déjà nombreuses". Elle constate aussi "un manque de repères ou d’intérêt face à ces nouveaux dispositifs et leurs conséquences de la part de certains employeurs, qui se double parfois d’un manque de moyens". La question du budget n’est en effet pas étrangère à ce désintérêt : "C’est plus souvent le cas pour les petites et moyennes structures qui n’ont pas toujours le budget nécessaire pour solliciter les services de spécialistes pourtant indispensables vu la complexité du domaine, et ce, malgré la documentation fournie et régulièrement mise à jour par la CNIL".

 

"Grâce à un cadre légal dont l’objectif ne consisterait pas à favoriser mais bien à contrôler strictement les entreprises de la tech, il serait par exemple possible de minimiser les risques que font peser les systèmes AIWM"

Un cadre légal souhaitable

Dans une interview pour Décideurs, Florian Douetteau, dirigeant de Daitaku, souligne que "l’IA pourrait donner à des humains mal intentionnés la capacité de construire des systèmes nocifs". Malgré ces mises en garde, l’intelligence artificielle est rapidement devenue une priorité stratégique pour la France, qui veut s’imposer comme leader européen dans le domaine, notamment avec l’initiative France 2030 initiée par l’État. Une tendance encore confortée par les récentes annonces de Microsoft, qui compte investir 4 milliards d’euros afin d’accélérer l’adoption de l’IA.

Pourtant, l’ampleur des bouleversements que cette technologie provoque est impossible à estimer tant elle s’immisce de façon aussi rapide qu’intrusive dans nos existences, jusque dans les sphères les plus intimes. S’il est profondément regrettable qu’aucune consultation démocratique de grande ampleur n’ait eu lieu à propos de l’adoption et de l’usage d’une innovation susceptible de transformer les fondements de nos civilisations, l’éventualité d’un rétropédalage paraît déjà difficile à imaginer. Une prise de conscience à grande échelle est donc nécessaire. La France pourrait d’ailleurs y trouver l’occasion de se distinguer des autres puissances lancées dans cette course à l’IA, en adoptant une approche qui privilégierait la santé et la sécurité des salariés, et plus généralement celles de la population. Grâce à un cadre légal dont l’objectif ne consisterait pas à favoriser mais bien à contrôler strictement les entreprises de la tech, il serait par exemple possible de minimiser les risques évoqués concernant les systèmes AIWM.

Cem Algul


Prochains rendez-vous
Décideurs RH

28 novembre 2024
Les Victoires du Capital humain
L'incontournable des directions RH
CONFÉRENCES ● DÉJEUNER VIP ● REMISE DE PRIX 
Voir le site » 

2 avril 2025
U-Spring, Le Printemps des universités d'entreprises
La journée qui célèbre le learning
CONFÉRENCES ● DÉJEUNER VIP ● REMISE DE PRIX
Voir le site »

Été 2025
Talents!
L'événement consacré aux enjeux d’attraction des talents et au recrutement
CONFÉRENCES ● DÉJEUNER VIP ● REMISE DE PRIX
Voir le site »

Octobre 2025
Les Rencontres du droit social
Le rendez-vous des acteurs du droit social
CONFÉRENCES ● DÉJEUNER VIP 
Voir le site »

GUIDES DÉCIDEURS RH

> Guide 2024

Newsletter Flash

Pour recevoir la newsletter du Magazine Décideurs, merci de renseigner votre mail

{emailcloak=off}