jobscan). Généralement il suffit d'ajouter tout un tas de mots susceptibles d’être des mots-clés dans votre CV. Si l’imperfection des ATS pousse les candidats à ajouter des mot-clés dans leurs CVs, l’algorithme perd de son utilité et l’avantage économique qu’il procurait diminue.
Deuxièmement, et c’est sans doute celui qui devrait avoir le plus de poids, lorsque la situation financière d’un candidat dépend de l’obtention d’un travail, il est difficile de justifier d’un processus qui refuserait de bons candidats pour les raisons évoquées plus haut. Il est donc essentiel du point de vue éthique que les candidatures que l’algorithme écarte soient effectivement peu pertinentes.
Petit aparté : En analysant la situation sous l’angle de la théorie des jeux, le problème s’apparente au dilemme du prisonnier avec plus que deux joueurs. Chaque candidat a le choix d’être honnête avec l’algorithme ou de ne pas l’être. Sachant que l’honnêteté le désavantage si d’autres candidats choisissent de ne pas l’être. Pour qu’aucun candidat ne regrette son choix, le seul équilibre de Nash pour le dilemme du prisonnier, c’est que chaque candidat choisisse de ne pas être honnête.
Ainsi, on peut voir qu’il peut être souhaitable de créer un système meilleur que la détection de mot-clés.
Depuis quelques années, l’IA fait beaucoup parler d’elle. On ne compte plus le nombre de domaines dans lesquels elle est employée. Le champ de recherche associé à l’IA progresse rapidement et constamment. Nos idées sur les limites de ce qu’on peut faire automatiquement peuvent devenir obsolètes presque du jour au lendemain.
Pour s’en convaincre, il suffit de prendre l’exemple d’Open AI qui, en 2020, a publié le modèle de langage GPT-3. Grâce à GPT-3, il est possible de générer automatiquement des articles de presse que les évaluateurs humains ont du mal à distinguer des articles écrits par des humains. Ce qui est plus intéressant dans notre cas, c’est sa capacité à analyser et synthétiser du texte sous forme de tableaux. Autrement dit, GPT-3 est capable, dans une certaine mesure, de structurer l'information. C'est-à-dire de traduire de l’information exploitable seulement par les humains en information exploitable par la machine. Certes, c’est un modèle de pointe inaccessible à l’heure actuelle, nécessitant 175Go de RAM et ne fonctionnant qu’en anglais mais il montre les progrès possibles dans la compréhension du langage naturel (Natural Language processing, NLP).
On voit alors qu’il peut être intéressant de se pencher sur l’état de l’art en NLP et tenter d’appliquer les dernières techniques de pointe à notre problème. Néanmoins, l’IA a beau représenter un progrès technique majeur, son histoire montre qu’il y a souvent des risques associés à son utilisation.
En 2018, Amazon a développé, à titre expérimental selon Reuters, un algorithme d’apprentissage automatique capable d’automatiser ses recrutements. L’algorithme s'appuyait sur les recrutements effectués durant les dix dernières années chez Amazon. D’après Reuters, chez Amazon, 60% de la masse salariale est masculine, et la société refuse de dévoiler la part de femmes à des postes techniques, où elles sont d’ordinaire encore plus rares. L’algorithme pénalisait tout CV qui contenait le mot “femme” (par exemple “club de jeu échecs pour femme”) ou toute université/école non-mixte car ces termes sont moins représentés chez les employés d’Amazon. Il a donc été abandonné. Pour autant, le groupe n'a pas renoncé à trouver une formule qui pourrait le remplacer.
Cet exemple illustre un problème fondamental en apprentissage automatique : les biais. Une des forces de l’apprentissage automatique est de trouver des règles qui permettent de reproduire les associations, souvent faites par des humains, entre les paramètres d'entrée et les résultats. Dans l’exemple d’Amazon, les paramètres d’entrée sont les CVs et les résultats sont les décisions d’accepter la candidature ou non. Or le jeu de données est issu de décisions humaines à savoir les recrutements des dix dernières années. Et on sait que l’esprit humain possède des biais cognitifs notamment dans le domaine social et parfois des préjugés sociaux. Chaque recruteur fait des choix biaisés, à plus ou moins grand degré. Si une part significative des décisions est biaisée dans le même sens, le jeu de données sera biaisé. Si l’algorithme, une fois entraîné, est capable de reproduire les décisions des humains, alors il est possible qu’il exploite les biais présents dans le jeu de données pour y arriver.
Dans l’optique de trier les candidatures chez OCTO, deux biais communs en apprentissage automatique nous concernent :
En effet, chez OCTO, comme dans beaucoup d’entreprises de notre secteur, il existe une disparité assez marquée entre hommes et femmes parmi les consultants.
En incluant le sexe de la personne dans les données servant à l’algorithme, il est possible que ce dernier exploite l’association entre hommes et consultants et qu’il recommande moins facilement une candidature venant d’une femme.
Pour éviter ce biais, on pourrait naïvement se dire qu’il suffit d’éviter de donner explicitement le sexe de la personne ayant candidaté mais ce n’est pas aussi simple, comme en atteste l’exemple d’Amazon.
En fin de compte, la recherche d’optimisation des recrutements fait apparaître, entre autres, le besoin de pouvoir trier les candidatures automatiquement.
Les Applicant Tracking System (ATS), en plus d’automatiser des tâches avec peu de valeur ajoutée, tentent de pallier le problème en discriminant les candidatures sur la présence ou l’absence de mot-clés. Ce faisant, ils permettent à l’entreprise de gagner du temps qui peut être investi pour conduire des entretiens de meilleure qualité améliorant ainsi les chances de sélectionner le bon candidat.
Cependant les imperfections de cette approche encouragent la création de CV de mauvaise qualité et mènent à la nécessité de développer une solution plus élaborée et sûre.
L’intelligence artificielle, par sa progression rapide et sa large portée, est probablement capable, si ce n’est maintenant alors dans un futur proche, de trier les candidatures automatiquement.
Néanmoins, l’emploi de l’IA entraîne aussi son lot de problèmes car il est facile de perpétuer et d’amplifier les biais présents dans les données d'entraînement.
Dans la suite de cet article, nous vous présenterons nos idées pour améliorer le tri automatique des candidatures grâce à l’apprentissage automatique et nos stratégies pour limiter les biais et faire une IA éthique.