AI recrutement : jugement équitable ou piège des préjugés ?

Renforcer les idées préconçues : examen de la manière dont les préjugés sociaux sont involontairement exacerbés. Cet article analyse les préjugés cachés dans les comportements et les décisions quotidiens, révèle leur impact potentiel sur l'équité sociale et propose des pistes de réflexion pour réduire les préjugés.

Nouveau défi de recrutement : Confrontation homme-machine "impartiale"

C'est à nouveau la saison des diplômes, et le "vous" ci-dessus pourrait être le reflet de millions de diplômés.

La révolution de l'intelligence artificielle a commencé, touchant presque tous les aspects de la vie professionnelle et personnelle des gens, y compris les entretiens académiques et le recrutement professionnel.

Les dirigeants d'entreprise réalisent de plus en plus que l'intelligence artificielle peut apporter une plus grande efficacité dans tous les aspects, de la gestion de la chaîne d'approvisionnement au service client, en passant par le développement de produits et les ressources humaines.

Parmi ceux-ci, ce qui peut être utilisé pour le recrutement est le légendaire "recruteur IA".

Il s'agit en fait d'un chatbot interactif en temps réel qui utilise divers algorithmes tels que la reconnaissance sémantique, la reconnaissance des expressions faciales et la reconnaissance vocale pour analyser et organiser les réponses des candidats à des questions prédéfinies, et finalement donner une note de référence.

Par exemple, lors de la sélection des CV selon les exigences du poste, l'IA a un avantage en termes de précision et d'efficacité par rapport aux humains, et peut également effectuer un premier tri le plus rapidement possible lors d'entretiens initiaux relativement simples et standardisés.

De plus, le recruteur IA est vraiment "impartial" au sens physique du terme, capable d'éviter les biais causés par les préjugés, la discrimination, les relations familiales et autres problèmes des recruteurs humains, améliorant ainsi l'équité et la cohérence des décisions.

Le "Rapport de recherche sur le développement du marché du recrutement en ligne en Chine 2023" montre que la proportion d'entretiens vidéo IA dans les scénarios d'application a déjà atteint 31,8%, et ce pourcentage ne fera qu'augmenter à l'avenir.

Ce n'est pas seulement en Chine, l'utilisation de l'IA pour améliorer l'efficacité du recrutement devient de plus en plus courante dans le monde entier.

Le géant des biens de consommation Unilever a publié un ensemble de données : l'IA peut aider à économiser 100 000 heures de temps d'entretien et 1 million de dollars de coûts de recrutement chaque année.

Cependant, bien que l'introduction de l'IA puisse réduire les coûts et augmenter l'efficacité, la nature de l'intelligence artificielle et les données d'entraînement sous-jacentes portent toutes l'empreinte humaine, introduisant inévitablement des préjugés humains, et pourraient même "aggraver" les préjugés existants.

Amplification des préjugés humains

Bien que l'une des raisons d'utiliser l'intelligence artificielle dans le recrutement soit d'être plus objectif, plusieurs études ont révélé que cette technologie est en réalité susceptible d'être biaisée.

La raison fondamentale de cette situation est les données. Si les données sont biaisées et défectueuses, l'intelligence artificielle reproduira également ces défauts.

Après des entretiens avec 22 professionnels des ressources humaines, The Decoder a identifié deux types courants de préjugés dans le recrutement - le "biais des stéréotypes" et le "biais de similitude".

Le "biais des stéréotypes", comme son nom l'indique, provient des stéréotypes sur un certain groupe. Par exemple, favoriser les candidats d'un certain sexe, conduisant à l'inégalité entre les sexes.

Le "biais de similitude" fait référence à la tendance des recruteurs à favoriser les candidats ayant des antécédents ou des intérêts similaires aux leurs.

Ces préjugés affectent gravement l'équité du processus de recrutement, ils peuvent s'infiltrer dans les données historiques de recrutement, puis être utilisés pour former des systèmes d'intelligence artificielle, conduisant ainsi à des biais d'IA.

Par exemple, à partir de 2014, Amazon a commencé à développer une intelligence artificielle pour la sélection des CV, espérant filtrer rapidement les candidats les plus idéaux parmi un grand nombre de CV.

Cependant, après seulement un an, on a découvert que les résultats de filtrage de l'IA incluaient une forte tendance de genre.

Même si le sexe n'était pas explicitement indiqué dans les CV des candidats, l'IA cherchait des "indices" dans les détails du texte, comme "capitaine de l'équipe d'échecs féminine" ou diplômée d'une université pour femmes.

Des initiés ont déclaré que le matériel de formation de cette intelligence artificielle provenait de l'historique d'embauche de l'entreprise au cours des 10 dernières années, et dans le domaine technologique, les stéréotypes professionnels de longue date et la "culture pro-masculine" ont tous conduit à un nombre d'employés masculins supérieur à celui des femmes, en particulier pour les postes techniques.

En 2017, Amazon a abandonné ce modèle d'IA pour le filtrage des CV.

La persistance de ces préjugés montre qu'une planification et un suivi attentifs sont nécessaires pour garantir l'équité du processus de recrutement, que l'IA soit utilisée ou non.

Les humains peuvent-ils éliminer les préjugés ?

En plus des professionnels des ressources humaines, The Decoder a également interviewé 17 développeurs d'intelligence artificielle, dans l'espoir d'étudier comment développer des systèmes de recrutement d'IA pour réduire plutôt qu'exacerber les préjugés de recrutement.

Sur la base des entretiens, ils ont établi un modèle permettant aux professionnels des RH et aux ingénieurs en IA d'échanger des informations, de remettre en question et d'éliminer les idées préconçues tout au long du processus d'étude des ensembles de données et de développement des algorithmes.

Cependant, les résultats de la recherche montrent que la difficulté de mise en œuvre de ce modèle réside dans les différences éducatives et professionnelles entre les professionnels des RH et les développeurs d'IA.

Ces différences entravent la capacité de communication efficace, de collaboration et même de compréhension mutuelle.

Les professionnels des RH sont traditionnellement formés à la gestion du personnel et au comportement organisationnel, tandis que les développeurs d'IA sont experts en calcul de données et en technologie. Ces antécédents différents peuvent conduire à des malentendus et des incohérences lors de la collaboration.

Comment optimiser l'IA + RH

Une enquête récente du Pew Research Center auprès de 11 004 Américains a révélé que 66% des personnes ne souhaitent pas postuler auprès d'employeurs utilisant l'IA pour le recrutement.

Seuls 32% ont déclaré qu'ils postuleraient, tandis que le reste était incertain. Et 71% s'opposent aux décisions de recrutement prises par l'IA.

Par conséquent, si les entreprises et l'industrie des ressources humaines veulent résoudre les problèmes de préjugés dans le recrutement par IA, plusieurs changements sont nécessaires.

Tout d'abord, il est crucial de former les professionnels des RH, en mettant l'accent sur le développement de systèmes d'information et l'intelligence artificielle.

La formation devrait inclure les principes de base de l'IA, comment identifier les biais dans les systèmes et comment réduire ces biais.

De plus, il est important de promouvoir une meilleure collaboration entre les professionnels des RH et les développeurs d'IA.

Les entreprises devraient créer des équipes comprenant des experts en RH et en IA. Cela aide à combler le fossé de communication et à mieux coordonner le travail des deux parties.

En outre, il faut établir des ensembles de données de haute qualité et culturellement diversifiés, garantissant que les données utilisées dans le processus de recrutement par IA représentent différents groupes démographiques.

Enfin, les pays doivent élaborer des directives et des normes éthiques pour l'utilisation de l'IA dans le recrutement, afin d'aider à établir la confiance et à garantir l'équité. Les organisations devraient mettre en œuvre la responsabilité et accroître la transparence dans le processus décisionnel de l'IA.

En prenant ces mesures, nous pouvons créer un système de recrutement plus inclusif et équitable. Puisque l'IA excelle dans l'analyse des données objectives et la référence décisionnelle, elle devrait être utilisée comme un outil auxiliaire, plutôt que de devenir imprudemment un juge du destin portant la "stupidité" d'une formation insuffisante et la "méchanceté" de la reproduction des préjugés.

Référence :

https://the-decoder.com/what-will-a-robot-make-of-your-resume-the-bias-problem-with-using-ai-in-job-recruitment/