Dominique Méda : « Les outils d’intelligence artificielle peuvent désormais surveiller et analyser les performances physiques au travail »

PB4PVQjzTjO8yhgp2d1Gdg (edit on hedgedoc)

created: 2023-11-16

updated: 07:31:51 - June 12, 2024

tags:

Dominique Méda : « Les outils d’intelligence artificielle peuvent désormais surveiller et analyser les performances physiques au travail »

Lemonde.Fr | Chronique | 21 octobre 2023

Plusieurs études mettent en évidence les conséquences de l’utilisation de l’IA générative non plus sur l’emploi, mais sur le travail humain lui-même, rapporte la sociologue dans sa chronique.

Il existe une vaste littérature concernant les conséquences du développement de l’intelligence artificielle (IA) sur l’emploi, allant des publications les plus pessimistes aux plus enchantées. Si la plupart des prédictions effrayantes annonçant la disparition des emplois ont jusqu’ici été démenties – à l’instar de celles des économistes américains Carl Benedikt Frey et Michael Osborne, qui indiquaient, en 2013, que l’automatisation pourrait entraîner la disparition de la moitié des emplois américains en une ou deux décennies –, il pourrait en aller autrement dans les années à venir.

Une étude du département de la recherche de l’Organisation internationale du travail parue en août montre qu’à certaines conditions (notamment un dialogue social renforcé), la diffusion de l’IA pourrait créer des emplois, mais que des risques non négligeables pèsent sur l’emploi des femmes dans les pays à revenus élevés.

Mais ce sont sans nul doute les effets du développement de l’IA sur le travail humain lui-même, plus que sur l’emploi, qui méritent la plus grande attention. Depuis plusieurs années, de nombreuses recherches ont mis en évidence la diffusion à grande vitesse d’un « management algorithmique », c’est-à-dire d’une gestion des conduites humaines et des relations de travail à l’aide d’instructions encapsulées dans un logiciel. Par exemple, les chauffeurs VTC ou les livreurs à vélo qui utilisent les applications des plates-formes numériques voient leur parcours guidé et analysé par un algorithme, qui incite à l’adoption de certains comportements et peut générer des sanctions telles que la déconnexion.

« Boîtes noires »

Mais ni les chauffeurs ni les livreurs à vélo n’ont connaissance des critères utilisés : ils réclament depuis longtemps d’avoir accès à ces « boîtes noires ». La directive proposée par la Commission européenne en décembre 2021 prévoit plusieurs avancées essentielles pour celles et ceux qui travaillent via les plates-formes numériques, parmi lesquelles une présomption de salariat, une meilleure transparence des algorithmes et le droit de contester les décisions automatisées. Mais elle se heurte à un lobbying farouche de la part des plates-formes.

Si elle vise à encadrer et à surveiller les comportements de celles et ceux dont le travail est guidé par des applications numériques, la mobilisation des algorithmes ne s’arrête pas là. Les chercheurs Valerio De Stefano et Simon Taes montrent que le management algorithmique engendre non seulement un contrôle des travailleurs d’une ampleur qui aurait été impensable il y a quelques années, mais aussi la collecte et le traitement de quantités considérables de données personnelles relatives à leur vie et à leur travail (« Management algorithmique et négociation collective », Notes de prospective de l’Institut syndical européen n° 10, mai 2021).

Les outils d’IA peuvent en effet désormais surveiller et analyser les performances physiques au travail. Des employeurs surveillent les déplacements de leurs travailleurs sur le lieu de travail grâce à des accessoires connectés ; ils peuvent, grâce à ceux-ci, connaître l’état de santé physique et mentale des travailleurs. Certains dispositifs, tels que les « badges sociométriques », permettent de surveiller l’état mental et émotionnel de ceux-ci ainsi que leur niveau de stress. Ces dispositifs sont capables d’enregistrer les mouvements des travailleurs, leur rythme de travail et leurs pauses : ils peuvent servir à enregistrer la vitesse de frappe au clavier ou à surveiller l’utilisation des applications et l’historique de navigation, et ils prennent régulièrement des photos (grâce à la webcam) ou des captures d’écran des ordinateurs des travailleurs.

Reprendre le contrôle

Pis, le management algorithmique et les outils fondés sur l’IA sont aujourd’hui de plus en plus utilisés pour prendre des décisions relatives à l’embauche, à l’orientation et à l’évaluation des travailleurs, ainsi que pour décider de la prise de sanctions. Ils assistent, mais de plus en plus remplacent, les superviseurs humains dans leur travail, concurrençant ainsi les directions des ressources humaines. Les machines émettent un « jugement » sur la base des données qu’elles collectent sans que les cadres et les recruteurs en connaissent les critères. On mesure les considérables difficultés pour les personnes concernées à prouver qu’elles ont été victimes de discriminations ou d’une mauvaise prise en compte de leurs compétences, mais aussi la déshumanisation engendrée par une telle situation.

Dans la note citée et, plus récemment, dans leur ouvrage Your Boss Is an Algorithm (Antonio Aloisi, Valerio De Stefano, « votre patron est un algorithme », Bloomsbury Publishing, 2022, non traduit), les auteurs présentent une série de propositions précises permettant à nos sociétés, aux collectifs humains, de reprendre le contrôle. Si les réglementations européennes et nationales sont essentielles (et doivent être améliorées), la négociation collective apparaît également comme un outil très efficace pour organiser la protection. Les conventions collectives devraient fixer les limites de la surveillance exercée sur les travailleurs au moyen de l’IA, et les représentants des travailleurs et les syndicats être associés aux processus de prise de décision qui aboutissent à la définition et à l’utilisation d’algorithmes. Souhaitons que les recommandations du comité de l’intelligence artificielle générative, installé le 19 septembre par la première ministre, Elisabeth Borne, dans le but de « faire de la France un pays à la pointe de la révolution de l’intelligence artificielle », s’inspirent de ces travaux de recherche.

Dominique Méda est professeure de sociologie, directrice de l’Institut de recherche interdisciplinaire en sciences sociales (université Paris Dauphine-PSL)