Après une attente prolongée, New York a instauré aujourd’hui une législation innovante. Celle-ci contraint les employeurs qui se servent d’algorithmes pour le recrutement, l’embauche ou la promotion de personnel à faire vérifier ces algorithmes de manière indépendante, et à publier les résultats.
Unique en son genre aux États-Unis, cette loi – la Loi locale 144 de New York – impose aux sociétés qui exploitent de tels algorithmes de fournir des informations pertinentes à leurs employés ou aux postulants.
Les rapports que les entreprises sont tenues de publier doivent au moins inclure une liste des algorithmes utilisés, ainsi qu’un “score moyen” que les candidats de diverses origines raciales, ethniques et sexuelles peuvent espérer obtenir grâce à ces algorithmes – que ce soit sous forme de score, de classement ou de recommandation. Ils doivent montrer également les “ratios d’impact” des algorithmes. Ces derniers sont définis par la loi comme le score moyen attribué par l’algorithme à toutes les personnes d’une catégorie précise (par exemple, les candidats masculins de race noire) divisé par le score moyen de ceux de la catégorie qui ont obtenu le score le plus élevé.
Sanctions et conséquences de la non-conformité à la loi sur l’IA dans le recrutement
Les sociétés qui bafouent cette législation s’exposent à des pénalités financières conséquentes. Une première infraction entraînera une amende de 375 $, tandis qu’une seconde et une troisième infraction coûteront respectivement 1 350 $ et 1 500 $. Il est indispensable de noter que chaque jour d’utilisation d’un algorithme en violation de la loi est considéré comme une infraction distincte, tout comme le défaut de fournir une divulgation adéquate.
Il est à souligner que l’ampleur de la Loi locale 144, ratifiée par le Conseil municipal et mise en application par le Département de protection des consommateurs et des travailleurs de New York, va au-delà des employés résidant à New York. Dès lors qu’une personne travaille ou sollicite un poste dans cette ville, elle bénéficie de la protection prévue par cette nouvelle loi.
Cette mesure est considérée par certains comme une action tardive. Khyati Sundaram, dirigeante d’Applied, une entreprise spécialisée dans les technologies de recrutement, a mis en lumière que l’IA de recrutement est susceptible d’amplifier les préjugés existants, exacerbant ainsi les inégalités en termes d’emploi et de salaire.
“Les employeurs feraient bien d’éviter de recourir à l’IA pour juger ou classer les candidats de manière autonome”, a fait savoir Sundaram à TechCrunch par mail. Nous ne sommes pas encore à un point où les algorithmes peuvent être considérés comme fiables pour prendre ces décisions de manière autonome sans refléter et perpétuer les préjugés existants dans le monde du travail.”
Il n’est pas nécessaire de creuser très loin pour déceler des indices de préjugés infiltrant les algorithmes d’embauche. Amazon a cessé d’utiliser un moteur de recrutement en 2018 après avoir décelé qu’il discriminait les femmes. Une étude universitaire de 2019 a mis en lumière un préjugé anti-Noir dans le recrutement via l’IA.
Par ailleurs, des études ont montré que les algorithmes attribuent des scores différents aux candidats en fonction de critères variés, comme le port de lunettes ou d’un foulard ; ils pénalisent les personnes ayant un nom à consonance africaine, mentionnant une université pour femmes ou soumettant leur CV dans certains formats de fichier. Ils défavorisent aussi les personnes avec un handicap physique qui limite leur capacité à interagir avec un clavier.
La réalité des préjugés dans l’IA de recrutement : le défi du mérite
Il existe une réalité sombre concernant les biais, qui sont souvent enracinés profondément. Selon une recherche menée en octobre 2022 par l’Université de Cambridge, les entreprises d’intelligence artificielle qui avancent offrir des évaluations basées sur le mérite et objectives, s’avèrent trompeuses. Ces études suggèrent que les méthodes anti-biais, censées éliminer les distinctions de genre et de race, se révèlent inefficaces. Le fait est que la conception d’un employé idéal est historiquement imprégnée par sa race et son genre.
Malgré ces risques, l’adoption de l’IA continue de croître. D’après un rapport de février 2022 de la Society for Human Resource Management, près d’un quart des organisations s’appuient sur l’IA pour faciliter leurs processus de recrutement. Ce chiffre monte à 42% chez les employeurs qui comptent plus de 5 000 employés.
Quels types d’algorithmes sont donc utilisés par ces employeurs ? La réponse varie. Parmi les plus répandus, on trouve les analyseurs de texte qui trient les CV et les lettres de motivation en fonction de mots-clés spécifiques. Il y a aussi des chatbots qui réalisent des entretiens en ligne afin d’éliminer les candidats avec certaines caractéristiques, ainsi que des logiciels d’entretien prédictifs analysant les compétences en résolution de problèmes, les aptitudes et la compatibilité culturelle d’un candidat à partir de ses modèles de discours et d’expressions faciales.
La variété des algorithmes de recrutement est si large que certaines organisations estiment que la Loi locale 144 ne suffit pas à réguler ce secteur.
Législation et auto-régulation : deux visages de la lutte contre les biais algorithmiques
Selon la NYCLU, filiale new-yorkaise de l’American Civil Liberties Union, la législation en vigueur peine à assurer une protection satisfaisante aux postulants et employés. Daniel Schwarz, expert en confidentialité et technologie à la NYCLU, émet des réserves quant à l’interprétation de la Loi locale 144, qui pourrait être vue comme ne s’appliquant qu’à certains types d’algorithmes de recrutement, à l’exclusion par exemple des outils de transcription textuelle à partir d’interviews en vidéo ou en audio. Ces derniers, connus pour leurs problèmes de biais, pourraient ainsi échapper à la régulation.
Schwarz plaide pour un renforcement des règles proposées, afin d’assurer une couverture extensive des algorithmes de recrutement, de renforcer les exigences d’audit des biais et de garantir transparence et notification aux personnes affectées. Il estime que cela est nécessaire pour éviter que les algorithmes ne contournent les lois anti-discrimination de la ville de New York. Il ajoute que “les candidats et les employés ne devraient pas être soumis à l’évaluation d’un algorithme discriminatoire“. Par ailleurs, l’industrie fait ses premiers pas vers l’auto-régulation.
En fin d’année 2021, la création de l’Alliance pour les Données et la Confiance a marqué une volonté d’établir un système d’évaluation et de notation de l’IA afin de détecter et de lutter contre les biais algorithmiques, plus particulièrement dans le secteur du recrutement. Avec des membres tels que CVS Health, Deloitte, General Motors, Humana, IBM, Mastercard, Meta, Nike et Walmart, ce groupe a bénéficié d’une large couverture médiatique.
Il est évident que Sundaram accorde son soutien à cette démarche
“Au lieu de compter sur les régulateurs pour contrer les abus les plus extrêmes de l’IA dans le recrutement, il est du devoir des employeurs de faire preuve de vigilance et de prudence lorsqu’ils intègrent l’IA dans leurs processus de recrutement”, a-t-il souligné. “La rapidité de l’évolution de l’IA surpasse celle des législations susceptibles d’être mises en place pour contrôler son usage. Les lois qui seront finalement adoptées – y compris celle de New York – seront sans doute très compliquées pour cette raison. Ce contexte pourrait exposer les entreprises au risque de mauvaise interprétation ou de négligence de certaines subtilités juridiques, ce qui pourrait les conduire à exclure continuellement les candidats marginalisés pour des postes.”
Il est évident que demander aux entreprises d’établir un système de certification pour les produits d’IA qu’elles utilisent ou produisent soulève des questions dès le départ.
Malgré certaines critiques, la Loi locale 144 stipule tout de même que les audits doivent être réalisés par des entités indépendantes, sans implication dans l’usage, le développement ou la distribution de l’algorithme examiné et sans lien avec l’entreprise présentant l’algorithme pour les tests.
La Loi locale 144 sera-t-elle à l’origine d’un changement significatif ? Il est encore prématuré pour le déterminer. Néanmoins, la réussite – ou l’échec – de son implémentation influencera sans doute les futures législations. Comme le soulignait un article de Nerdwallet, Washington, D.C., envisage une réglementation qui rendrait les employeurs responsables de la prévention des biais dans les algorithmes de décision automatisée. En Californie, deux propositions de loi visant à contrôler l’IA dans le recrutement ont vu le jour ces dernières années. Et fin décembre, une nouvelle proposition de loi a été introduite au New Jersey pour encadrer l’usage de l’IA dans les décisions d’embauche dans le but de réduire la discrimination.