Les élections européennes approchent, et ceux qui en ont entendu parler se demandent sûrement à quoi servent les députés européens. Non, l’Europe n’est pas qu’une planque pour politiques aux ambitions nationales, ni un moyen de faire financer ses assistants parlementaires. La récente affaire des congés payés ou le célèbre RGPD nous rappellent qu’elle est à la pointe du combat sur de nombreux sujets, et qu’elle peut même protéger (parfois) les droits des salariés et des consommateurs. Un exemple avec la question d’actualité de l’intelligence artificielle, preuve que les machines ne contrôlent pas encore Bruxelles.
Même si les CSE ne sont pas encore présidés par des robots (quoique…), l’intelligence artificielle est déjà dans le monde du travail. Logiciel RH de sélection des CV, dispositifs de suivi de l’activité, outils d’optimisation des process… Nombreuses sont ses applications, et nombreux sont les risques pour les salariés. Le traitement massif et automatisé des données peut être source de risque, notamment lorsqu’il conduit à la prise de décision basée sur des critères discriminatoires.
L’UE s’est dotée d’un règlement encadrant de manière large l’usage de l’IA, dans tous les aspects qu’elle peut concerner (santé, sécurité, travail…). Le texte distingue ainsi les systèmes présentant des risques inacceptables, en principe inutilisables, de ceux à haut risques ou à usage général, qui doivent être encadrés.
Parmi les systèmes prohibés figurent ceux permettant la reconnaissance faciale en temps réel ou d’inférer les émotions d’une personne physique sur le lieu de travail (soit deviner dans quel état d’esprit est le salarié). De même, les logiciels visant à déterminer notamment les opinions politiques, l’affiliation à une organisation syndicale, ou encore les convictions religieuses ou philosophiques sont interdits. Pas de détecteur à syndicaliste dans l’entreprise, ou de système de classification pour déterminer les salariés sympas des fauteurs de troubles. Dans le viseur de l’UE notamment, les systèmes de notation sociale, tels qu’ils peuvent exister dans certains pays, déterminant qui sont les bons citoyens des mauvais.
A noter, certains de ces systèmes peuvent être utilisés par les forces de l’ordre, notamment pour prévenir des actes de terrorismes ou retrouver une personne disparue.
Les systèmes à haut risques sont, eux, autorisés mais encadrés. Le règlement vise ainsi deux types d’outils :
Le règlement impose tant une information des salariés concernés que des représentants du personnel. C’est déjà le cas en France, un tel outil ne pouvant être utilisé sans avis préalable du CSE. Ils tombent également sous l’empire de plusieurs règles déjà existantes, notamment celles du RGPD. Outre les principes de finalités et de proportionnalité, un tel système devra répondre à l’intérêt légitime de l’entreprise l’utilisant, ou recueillir l’accord préalable des personnes qu’il concerne. Il ne pourra surtout aboutir à une surveillance permanente des salariés, sous peine de porter atteinte à leur vie privée (qui, rappelons-le, existe même sur le lieu de travail).
Les fournisseurs et créateurs d’IA à haut risque sont tenus de prendre toutes les mesures pour réduire au minimum les risques pour les utilisateurs et les personnes concernées par le traitement de leurs données. Concrètement, il s’agira d’éviter que les données ne fuitent, que le logiciel utilise des critères discriminants, viole une liberté fondamentale comme le droit à la vie privée… Les exemples de logiciels de recrutement se mettant soudainement à préférer les recrues masculines montrant que le paramétrage est un point essentiel, même les IA semblant opter pour le patriarcat.
Quant à l’utilisation d’intelligence artificielle à usage général (système de suivi des commandes ou des stocks, outils d’aide à la création…), elle devra respecter une obligation de transparence sur leur fonctionnement et leur mode d’apprentissage.
Qu’est-ce qu’une IA ? Y a-t-il un test déterminant le degré d’intelligence minimal pour y être assimilé ? Le règlement défini l’intelligence artificielle comme un logiciel développé au moyen d’une ou plusieurs des techniques et approches telles que “l’apprentissage automatique » et pouvant, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit.
Vous pouvez nous joindre au 01 87 66 96 92
sur notre adresse email contact@komite-avocats.fr
ou en remplissant le formulaire ci-dessous