AI reclutamiento: ¿Decisión justa o trampa de prejuicios?

Reforzar los estereotipos: Explorando cómo se agravan inadvertidamente los prejuicios sociales. Este artículo analiza los sesgos ocultos en el comportamiento y las decisiones cotidianas, revela su impacto potencial en la equidad social y propone direcciones de pensamiento para reducir los prejuicios.

Nuevo desafío de solicitud de empleo: Enfrentamiento entre humanos y máquinas "imparciales"

Una vez más, es temporada de graduación, y el "tú" mencionado arriba podría ser el reflejo de millones de graduados.

La revolución de la inteligencia artificial ha comenzado, abarcando casi todos los aspectos de la vida profesional y personal de las personas, incluidas las entrevistas académicas y el reclutamiento laboral.

La gerencia empresarial es cada vez más consciente de que la inteligencia artificial puede aportar mayor eficiencia en diversos aspectos, como la gestión de la cadena de suministro, el servicio al cliente, el desarrollo de productos y los recursos humanos.

Entre ellos, lo que se puede utilizar para el reclutamiento es el legendario "entrevistador de IA".

En realidad, es un robot de preguntas y respuestas que puede interactuar en tiempo real, analizando y organizando las respuestas de los entrevistados según preguntas predeterminadas, utilizando varios algoritmos como reconocimiento semántico, reconocimiento facial y reconocimiento de voz, para finalmente dar una puntuación de referencia.

Por ejemplo, al filtrar currículos según los requisitos del puesto, la IA tiene ventajas de precisión y eficiencia superiores a las de los humanos, y también puede completar la selección inicial en el menor tiempo posible en entrevistas iniciales relativamente simples y estandarizadas.

Además, el entrevistador de IA es realmente "imparcial" en el sentido físico, capaz de evitar sesgos causados por prejuicios, discriminación, nepotismo y otros problemas de los entrevistadores, mejorando la equidad y consistencia de las decisiones.

El "Informe de Investigación sobre el Desarrollo del Mercado de Reclutamiento en Línea de China 2023" muestra que la proporción de entrevistas de video con IA en escenarios de aplicación ya ha alcanzado el 31.8%, y esta proporción solo aumentará en el futuro.

No solo en China, el uso de IA para mejorar la eficiencia del reclutamiento es cada vez más común en todo el mundo.

El gigante de bienes de consumo Unilever publicó un conjunto de datos: la IA puede ayudar a ahorrar 100,000 horas de tiempo de entrevista y reducir los costos de reclutamiento en 1 millón de dólares al año.

Sin embargo, aunque la introducción de la IA puede reducir costos y aumentar la eficiencia, la naturaleza de la inteligencia artificial y los datos de entrenamiento detrás de ella llevan la marca de los humanos, lo que inevitablemente introducirá sesgos humanos e incluso podría "empeorar" los sesgos existentes.

Amplificación de los sesgos humanos

Aunque una de las razones para usar inteligencia artificial en el reclutamiento es ser más objetivo, varios estudios han encontrado que esta tecnología es muy propensa a tener sesgos.

La razón fundamental de esta situación son los datos. Si los datos tienen sesgos y defectos, la inteligencia artificial también replicará estos defectos.

Después de entrevistar a 22 profesionales de recursos humanos, The Decoder descubrió dos tipos comunes de sesgos en el reclutamiento: "sesgo de estereotipo" y "sesgo de similitud".

El "sesgo de estereotipo", como su nombre indica, proviene de los estereotipos sobre un grupo determinado. Por ejemplo, favorecer a los solicitantes de un género específico, lo que lleva a la desigualdad de género.

El "sesgo de similitud" se refiere a la preferencia de los reclutadores por los solicitantes con antecedentes o intereses similares a los suyos.

Estos sesgos afectan gravemente la equidad del proceso de reclutamiento y pueden filtrarse en los datos históricos de contratación, que luego se utilizan para entrenar sistemas de inteligencia artificial, lo que resulta en sesgos de IA.

Por ejemplo, desde 2014, Amazon comenzó a desarrollar inteligencia artificial para la selección de currículos, con la esperanza de filtrar rápidamente a los candidatos ideales de una gran cantidad de currículos.

Sin embargo, después de solo un año, se descubrió que los resultados de selección de la IA incluían una fuerte inclinación de género.

Incluso si el género no se indicaba explícitamente en los currículos de los candidatos, la IA buscaría "pistas" en los detalles del texto, como "capitana del club de ajedrez femenino" o graduada de una universidad femenina.

Fuentes informadas indican que el material de entrenamiento para esta inteligencia artificial era el historial de contratación de la empresa durante los últimos 10 años, y en el campo de la tecnología, los estereotipos profesionales a largo plazo y la "cultura favorable a los hombres" han llevado a que el número de empleados masculinos sea mayor que el de mujeres, especialmente en puestos técnicos.

En 2017, Amazon abandonó este modelo de IA para filtrar currículos.

La persistencia de este sesgo demuestra que, ya sea que se use IA o no, es necesario una planificación y monitoreo cuidadosos para garantizar la equidad del proceso de reclutamiento.

¿Pueden los humanos eliminar los sesgos?

Además de los profesionales de recursos humanos, The Decoder también entrevistó a 17 desarrolladores de inteligencia artificial, con la esperanza de investigar cómo desarrollar sistemas de reclutamiento de IA para reducir, en lugar de exacerbar, los sesgos de reclutamiento.

Basándose en las entrevistas, construyeron un modelo que permite a los profesionales de recursos humanos y a los ingenieros de IA intercambiar información, cuestionar y eliminar nociones preconcebidas durante el proceso de investigación de conjuntos de datos y desarrollo de algoritmos.

Sin embargo, los resultados de la investigación muestran que la dificultad de implementar este modelo radica en las diferencias educativas y profesionales entre los profesionales de recursos humanos y los desarrolladores de IA.

Estas diferencias obstaculizan la capacidad de comunicación efectiva, colaboración e incluso comprensión mutua.

Los profesionales de recursos humanos tradicionalmente reciben capacitación en gestión de personal y comportamiento organizacional, mientras que los desarrolladores de IA son expertos en cálculos de datos y tecnología. Estos diferentes antecedentes pueden llevar a malentendidos y descoordinación durante la colaboración.

Cómo optimizar IA + RR.HH.

Una encuesta reciente del Pew Research Center a 11,004 estadounidenses encontró que el 66% no quería solicitar trabajo a empleadores que utilizaran IA para el reclutamiento.

Solo el 32% dijo que lo haría, mientras que el resto no estaba seguro. Y el 71% se opone a las decisiones de contratación tomadas por IA.

Por lo tanto, si las empresas y la industria de recursos humanos quieren abordar el problema del sesgo en el reclutamiento con IA, necesitan hacer varios cambios.

Primero, es crucial capacitar a los profesionales de recursos humanos con un enfoque en el desarrollo de sistemas de información e inteligencia artificial.

El contenido de la capacitación debe incluir los principios básicos de la IA, cómo identificar sesgos en los sistemas y cómo reducirlos.

Además, es importante promover una mejor colaboración entre los profesionales de recursos humanos y los desarrolladores de IA.

Las empresas deberían establecer equipos que incluyan expertos en recursos humanos y en IA. Esto ayuda a cerrar la brecha de comunicación y coordinar mejor el trabajo de ambas partes.

Además, establecer conjuntos de datos de alta calidad con diversidad cultural para garantizar que los datos utilizados en los procesos de reclutamiento de IA representen a diferentes grupos demográficos.

Finalmente, los países necesitan desarrollar pautas y estándares éticos para el uso de IA en el reclutamiento para ayudar a construir confianza y garantizar la equidad. Las organizaciones deben implementar la responsabilidad y aumentar la transparencia en el proceso de toma de decisiones de la IA.

Al tomar estas medidas, podemos crear un sistema de reclutamiento más inclusivo y equitativo. Ya que la IA es buena para el análisis objetivo de datos y la referencia de decisiones, debería usarse como una herramienta auxiliar, en lugar de convertirse precipitadamente en un juez del destino con "estupidez" por falta de entrenamiento y "maldad" por replicar sesgos.

Referencia:

https://the-decoder.com/what-will-a-robot-make-of-your-resume-the-bias-problem-with-using-ai-in-job-recruitment/