Vous avez rédigé avec soin une demande d’emploi pour un poste qui vous convenait à la perfection, mais vous n’avez jamais eu de réponse? Il y a de fortes chances qu’aucun humain n’ait jamais vu votre candidature.
Avec le développement de l’intelligence artificielle (IA), de plus en plus d’entreprises confient à des robots le soin de trier les candidatures de postes pour gagner du temps et faciliter les décisions d’embauche. Mais étonnamment, les machines développent aussi des biais et des réflexes de discrimination, constatent les experts.
De plus en plus d’employeurs, surtout les grandes entreprises, ont recours aujourd’hui à de puissants outils d’intelligence artificielle pour traiter rapidement le flot de candidatures qu’elles reçoivent.
Payer des êtres humains pour faire le tri de ces demandes d’emploi est une opération coûteuse en temps et en ressources pour les entreprises, surtout en période de pénurie de main-d’œuvre.
C’est ici qu’entrent en scène des firmes qui offrent les services de robots intelligents pour faire un premier tri des candidatures avant qu’un humain n’examine les meilleures correspondances identifiées par le logiciel.
« La première chose que les travailleurs doivent comprendre est la suivante : personne ne regarde votre CV. Vous devez passer par l’IA avant d’être vu [par un humain]. »
— Une citation de Joseph Fuller, professeur de pratiques de gestion à la Harvard Business School
Or, ces systèmes de tri qui apprennent au fur et à mesure de leur travail deviennent de plus en plus intelligents.
Certaines entreprises d’IA affirment aujourd’hui que leurs plateformes peuvent non seulement repérer le candidat le plus qualifié dans une masse de CV, mais aussi prédire lequel est le plus susceptible d’exceller dans un rôle donné.
Ce type d’outil est également utilisé à l’interne afin de déterminer qui, parmi le personnel, est le plus apte à être promu à un poste supérieur.
Des candidatures échappées
Mais, aussi performants soient-ils, ces outils intelligents, en ne se concentrant que sur la recherche d’un type particulier de candidat, échappent des candidatures potentiellement intéressantes de la part de personnes hautement qualifiées pour les postes à pourvoir.
Selon des experts, du moment où l’algorithme a pour mission d’exclure des candidatures sur la base de critères prédéterminés, il forge des préférences pour certains types de postulants au détriment des autres, comme le ferait un être humain.
En s’adaptant constamment à ce qu’on lui demande, le logiciel de recrutement peut non seulement négliger des candidats qualifiés, mais aussi il introduira lui-même de nouveaux préjugés dans son processus d’embauche s’il n’est pas utilisé avec soin, préviennent les experts.
C’est le cas du professeur de pratiques de gestion à la Harvard Business School, Joseph Fuller, qui a cosigné une étude l’année dernière sur les candidats négligés par les entreprises lors de leur processus d’embauche, y compris leur utilisation de logiciels de recrutement.
Les chercheurs ont interrogé plus de 2250 cadres aux États-Unis, au Royaume-Uni et en Allemagne. Ils ont constaté que plus de 90 % des entreprises utilisaient des outils tels que l’ATS pour filtrer et classer initialement les candidats.
Des préjugés dans la machine
Mais souvent, elles ne les utilisaient pas correctement. Parfois, les candidats étaient évalués par rapport à des descriptions de poste gonflées, remplies de critères inutiles et rigides, ce qui faisait que certains candidats qualifiés étaient cachés sous d’autres que le logiciel jugeait plus adaptés.
Selon la configuration de l’IA, celle-ci pouvait rétrograder ou filtrer des candidats en raison de facteurs tels que des lacunes dans leur parcours professionnel ou l’absence de diplôme universitaire, même si le poste n’exigeait pas d’études postsecondaires.
Sans surprises, les candidatures négligées étaient souvent celles de personnes qui sont généralement aussi négligées lors des processus d’embauche classiques, ont montré les travaux de M. Fuller.
« Parmi les candidats négligés, on compte notamment les immigrants, les anciens combattants, les personnes handicapées, les aidants naturels et les personnes neurodiverses. »
— Une citation de Joseph Fuller, professeur de pratiques de gestion à la Harvard Business School
C’est pourquoi les chercheurs exhortent les employeurs à rédiger de nouvelles descriptions de poste et à configurer leurs outils d’intelligence artificielle de manière à inclure les candidats dont les compétences et l’expérience répondent aux exigences fondamentales d’un rôle, plutôt que de les exclure en fonction d’autres critères.
L’erreur d’Amazon
L’un des cas de figure de développement de biais par un logiciel d’embauche s’est produit chez le géant du commerce en ligne Amazon, en 2018.
L’outil intelligent qu’utilisait la multinationale pour trier son flot de candidatures discriminait davantage les candidatures féminines. Pourquoi les femmes?
Lors de sa création, le logiciel intelligent avait été entraîné avec des banques de CV d’anciens candidats qui étaient très majoritairement des hommes. Dans sa logique interne, la machine s’est donc mise à rétrograder les candidats dont les CV mentionnaient la participation à des ligues sportives féminines ou l’obtention d’un diplôme dans des universités féminines.
À mesure que l’IA devient plus intelligente et s’adapte aux types de candidats qu’un employeur aime, en fonction des personnes qu’il a embauchées dans le passé, de plus en plus d’entreprises risquent de reproduire l’erreur d’Amazon, selon Susie Lindsay, avocate à la Commission du droit de l’Ontario, qui a fait des recherches sur la réglementation potentielle de l’IA au Canada.
Les pouvoirs publics réagissent
Le problème est à ce point préoccupant que le gouvernement américain a publié des directives à l’intention des employeurs sur la possibilité que les logiciels d’embauche automatisés soient discriminatoires à l’égard des candidats handicapés – même lorsque l’IA prétend être sans préjugés.
À compter d’avril 2023, les employeurs de la ville de New York, notamment, devront informer les candidats et les employés lorsqu’ils utilisent des logiciels de recrutement pour l’embauche et mieux examiner ces technologies pour y débusquer les préjugés d’embauche.
Au Canada, bien qu’il existe une politique sur l’utilisation de l’IA dans la fonction publique fédérale, il n’existe pas de règles ou de directives claires pour les autres employeurs. Toutefois, une loi actuellement devant le Parlement exigerait que les créateurs et les utilisateurs de systèmes d’IA à fort impact adoptent des mesures d’atténuation des préjudices et des préjugés.
Les détails sur ce qui est considéré comme une IA à fort impact n’ont cependant pas encore été précisés.
Pour l’instant, il revient donc aux employeurs canadiens et à leurs équipes de recrutement de comprendre comment fonctionne leur logiciel d’IA et les biais potentiels qu’il peut développer.
Je conseille aux praticiens des RH de se renseigner et d’avoir des conversations ouvertes avec leurs fournisseurs, recommande Pamela Lirio, professeure agrégée en gestion internationale des ressources humaines à l’Université de Montréal. Qu’y a-t-il dans votre système? Comment est l’algorithme? Qu’est-ce qu’il suit? Qu’est-ce qu’il me permet de faire?
Selon Mme Lirio, qui se spécialise dans les nouvelles technologies, il est également important de se demander qui a construit l’outil intelligent de recrutement et sur quelles données il a été entraîné pour éviter des erreurs comme il en est survenu chez Amazon en 2018.
Peut-on battre les robots d’embauche?
Le phénomène des logiciels de recrutement n’étant pas nouveau en soi, les experts en recherche d’emploi ont développé avec le temps des stratégies pour tenter de franchir le mur robotique. L’un des trucs les plus répandus est de multiplier dans son CV les bons mots-clés qui permettront à l’outil de recrutement de détecter les critères qu’il recherche.
Mais les mots-clés ne sont qu’un des nombreux points de données utilisés par les systèmes d’IA qui sont de plus en plus perfectionnés. Parmi les autres, citons le nom des entreprises pour lesquelles vous avez travaillé dans le passé, le stade de votre carrière et même la distance qui vous sépare de l’organisation dans laquelle vous postulez.
Avec un système d’IA adéquat, capable de comprendre le contexte de la compétence et les relations entre les compétences [le bourrage de mots-clés] n’est tout simplement plus aussi fructueux qu’avant, explique Morgan Llewellyn, spécialiste des données à la société de technologie de recrutement Jobvite.
Au lieu d’essayer de tromper l’algorithme, les experts recommandent de postuler à des emplois qui correspondent aux compétences, aux connaissances et à l’expérience que vous possédez réellement – en gardant à l’esprit qu’un humain prend toujours la décision finale.
Vous devez répondre aux exigences [du rôle]. Si vous ne remplissez aucune de ces conditions, alors bien sûr un humain ou une certaine forme d’automatisation vous filtrera, assure Robert Spilak, vice-président du fournisseur de services de recrutement de personnel TalentNest.