Quand le DRH est une algorithme

Les techniques d’embauche empêchent-elles les préjugés ou les améliorent-ils? Cette question fondamentale est apparue comme un point de tension entre les partisans de la technologie et ses sceptiques, mais l’atteinte de la réponse est plus complexe qu’elle n’apparaît. L’emploi n’est guère un choix, mais plutôt l’aboutissement d’une série de décisions séquentielles plus compactes. Les algorithmes jouent différents rôles tout au long de ce processus: certains orientent les offres d’emploi vers des candidats spécifiques, tandis que d’autres signalent des candidats inactifs. Les outils prédictifs d’analyse et de pointage de crédit reprennent, et la sélection des superviseurs permet d’évaluer les compétences des candidats de nouvelles façons, en utilisant chaque norme et chaque nouvelle donnée. Nombreux sont ceux qui croient que les techniques peuvent aider les producteurs de choix humain à éviter leurs propres préjugés, en ajoutant une cohérence dans l’utilisation des services de procédure. Mais les algorithmes introduisent de nouveaux dangers qui leur appartiennent. Ils peuvent reproduire des biais institutionnels et historiques, amplifiant les désavantages cachés dans des informations telles que la fréquentation d’une université ou d’un collège ou les scores d’évaluation de la performance.

Même si la procédure de recrutement élimine une certaine subjectivité par le biais de procédures de recrutement, les êtres humains restent très impliqués dans les jugements ultimes en matière de recrutement. Les désaccords qui rendent les ensembles de règles «objectifs» plus équitables et beaucoup plus précis que des êtres humains faillibles oublient de reconnaître complètement que généralement, chacun est impliqué. Connaître les biais dans l’utilisation des algorithmes et les moyens de les atténuer nous oblige à découvrir le fonctionnement de l’innovation technologique prédictive à chaque étape de la procédure de recrutement. Bien qu’ils discutent généralement de la découverte d’équipement, les instruments utilisés précédemment dans le processus peuvent être fondamentalement différents de ceux appliqués ultérieurement. Même les équipements qui semblent effectuer exactement la même tâche peuvent dépendre de types de détails complètement différents, ou présenter des prédictions de manière sensiblement différente. Notre évaluation des instruments de prévision tout au long de la procédure d’emploi vous aide à clarifier ce que font exactement les «algorithmes de recrutement» et comment et où les préjugés peuvent entrer dans la méthode. Malheureusement, nous avons constaté que la plupart des algorithmes de recrutement dériveraient par défaut vers un biais. Bien que leur potentiel pour aider à réduire les préjugés interpersonnels ne devrait pas être réduit, seuls des outils permettant de gérer de manière proactive des disparités plus profondes donneront l’impression que l’innovation technologique prédictive pourrait aider à promouvoir la valeur nette de la maison, au lieu de l’éroder. La méthode de sélection commence bien avant qu’un demandeur d’emploi soumette une candidature.

Au stade du «sourcing» ou de l’embauche, aide prédictive à l’innovation technologique destinée à promouvoir les possibilités d’emploi, informe les demandeurs d’emploi sur les emplois les plus susceptibles de plaire, et propose aux employeurs potentiels des candidats potentiels à la surface. Pour attirer des individus, de nombreuses entreprises utilisent des programmes d’annonces algorithmiques et des panneaux de tâches pour atteindre les chercheurs d’emploi les plus «pertinents». Ces méthodes, qui promettent aux entreprises une meilleure utilisation des budgets de dépenses de recrutement, produisent généralement des estimations remarquablement superficielles: elles ne prédisent pas qui peut réussir dans le poste, mais qui cliquera probablement simplement sur cette offre d’emploi. Ces prévisions font souvent en sorte que les offres d’emploi soient fournies de manière à soutenir les stéréotypes sexuels et raciaux, même lorsque les entreprises n’ont pas ce genre d’intention. Dans une recherche que nous avons menée récemment avec des collègues de la Northeastern University ou d’un collège et de l’USC, nous avons notamment constaté que les annonces généralement ciblées sur Facebook ou sur MySpace pour des postes de caissiers sur le marché alimentaire avaient été prouvées devant un public composé de 85% de femmes. avec les compagnies de taxi ont accompagné les téléspectateurs qui avaient été environ 75% de couleur noire. C’est vraiment une circonstance parfaite de votre algorithme reproduisant les préjugés du monde réel, sans implication humaine. Entre-temps, des panneaux de tâches personnalisés tels que ZipRecruiter tentent de comprendre automatiquement les préférences des recruteurs et utilisent toutes ces estimations pour solliciter des personnes similaires.

À l’instar de Facebook ou de Twitter, ces solutions de conseil sont conçues de manière à permettre la découverte et la duplication de conceptions dans les habitudes de l’utilisateur final, en mettant à jour les estimations de manière dynamique à mesure que les entreprises et les demandeurs d’emploi communiquent. Si le processus indique que les recruteurs finissent par fréquenter plus régulièrement des hommes de race blanche et brillants, il peut très bien obtenir des substituts pour ces attributs (comme se nommer Jared ou prendre part à un match de crosse au secondaire) et reproduire cette routine. Ce type d’influence négative peut se produire sans formation spécifique et, pire encore, sans reconnaissance de la part d’un individu. Les algorithmes de localisation ne constitueront probablement pas un sujet de réflexion pour de nombreuses personnes une fois qu’elles auront pensé à un «algorithme d’embauche». Cependant, les sélections informatisées autour de cette période très précoce à partir de l’entonnoir de sélection sont très répandues. Par exemple, la ressource Amazon. com mis au rebut pour les femmes défavorisées n’était pas un outil de mesure de la diversité des candidats, mais un outil pour vous aider à révéler les candidats passifs que les employeurs ont à obtenir. Trouver des ensembles de règles peut ne pas décliner ouvertement les gens, mais comme l’a expliqué une chercheuse autorisée, Pauline Kim, «ne pas éduquer les individus sur les choix de carrière peut constituer un obstacle efficace» pour les personnes cherchant du travail. Ces outils ne constituent peut-être pas toujours des lignes de force dystopiques, mais ils jouent un rôle crucial dans la décision de déterminer qui a accès à la méthode de recrutement de quelque manière que ce soit.