AI рекрутинг: справедливое решение или ловушка предвзятости?

Укрепление стереотипов: обсуждение того, как непреднамеренно усугубляются социальные предрассудки. В этой статье анализируются скрытые предубеждения в повседневном поведении и принятии решений, раскрывается их потенциальное влияние на социальную справедливость и предлагаются направления для размышлений о снижении предубеждений.

Новый этап собеседования: противостояние человека и машины "без предубеждений"

Снова наступил сезон выпускников, и вышеупомянутое "вы" может быть отражением миллионов выпускников.

Революция искусственного интеллекта уже началась и охватывает практически все аспекты профессиональной и личной жизни людей, включая академические собеседования и набор персонала.

Руководство компаний все больше осознает, что искусственный интеллект может повысить эффективность во всех аспектах, включая управление цепочками поставок, обслуживание клиентов, разработку продуктов и управление персоналом.

Среди них то, что можно использовать для найма, - это легендарный "ИИ-интервьюер".

На самом деле это интерактивный вопросно-ответный робот, который анализирует и обобщает ответы кандидатов на заданные вопросы с помощью различных алгоритмов, включая распознавание семантики, выражений лица и голоса, и в итоге дает оценку.

Например, при отборе резюме в соответствии с требованиями к должности ИИ имеет преимущество в точности и эффективности по сравнению с людьми, а также может быстро завершить первоначальный отбор в относительно простых, стандартизированных первоначальных интервью.

Кроме того, ИИ-интервьюер действительно является "беспристрастным" в физическом смысле, что позволяет избежать предвзятости, вызванной предубеждениями, дискриминацией, родственными связями и другими проблемами интервьюеров, повышая справедливость и последовательность принятия решений.

Согласно "Отчету об исследовании развития рынка онлайн-рекрутинга в Китае в 2023 году", доля ИИ-видеоинтервью в сценариях применения уже достигла 31,8%, и эта доля в будущем будет только расти.

Не только в Китае, но и во всем мире использование ИИ для повышения эффективности найма становится все более распространенным.

Гигант FMCG Unilever однажды опубликовал набор данных: ИИ может помочь сэкономить 100 000 часов времени на собеседования и 1 миллион долларов в год на расходах на набор персонала.

Однако, хотя внедрение ИИ может снизить затраты и повысить эффективность, сущность искусственного интеллекта и данные, используемые для его обучения, несут на себе отпечаток человека и неизбежно вносят человеческие предубеждения, и даже могут "усугубить" существующие предубеждения.

Усиление человеческих предубеждений

Хотя одной из причин использования искусственного интеллекта при найме является стремление к большей объективности, многочисленные исследования показали, что эта технология на самом деле может быть предвзятой.

Основная причина этого - данные. Если данные предвзяты и имеют недостатки, искусственный интеллект также будет копировать эти недостатки.

После интервью с 22 специалистами по персоналу The Decoder обнаружил два распространенных предубеждения при найме - "стереотипное предубеждение" и "предубеждение подобия".

"Стереотипное предубеждение", как следует из названия, происходит из стереотипов о определенной группе. Например, предпочтение кандидатов определенного пола, что приводит к гендерному неравенству.

"Предубеждение подобия" относится к тому, что рекрутеры предпочитают кандидатов с похожим происхождением или интересами.

Эти предубеждения серьезно влияют на справедливость процесса найма, они могут проникнуть в исторические данные о найме, а затем использоваться для обучения систем искусственного интеллекта, что приводит к предвзятости ИИ.

Например, с 2014 года компания Amazon начала разрабатывать искусственный интеллект для отбора резюме, надеясь быстро отобрать идеальных кандидатов из огромного количества резюме.

Однако уже через год было обнаружено, что результаты отбора ИИ включали сильную гендерную предвзятость.

Даже если пол не был явно указан в резюме кандидата, ИИ искал "подсказки" в тексте, например, "капитан женской шахматной команды" или выпускник женского колледжа.

Осведомленные источники сообщают, что учебные материалы для этого искусственного интеллекта были взяты из истории найма компании за последние 10 лет, а в технологической сфере долгосрочные профессиональные стереотипы и "мужская культура" привели к тому, что количество мужчин-сотрудников превышает количество женщин, особенно на технических должностях.

В 2017 году Amazon отказалась от этой модели ИИ для отбора резюме.

Сохранение такой предвзятости показывает, что независимо от того, используется ли ИИ или нет, необходимо тщательное планирование и мониторинг для обеспечения справедливости процесса найма.

Могут ли люди устранить предвзятость?

Помимо специалистов по персоналу, The Decoder также опросил 17 разработчиков искусственного интеллекта, надеясь изучить, как разрабатывать системы найма с использованием ИИ, чтобы уменьшить, а не усугубить предвзятость при найме.

На основе интервью они создали модель, в которой специалисты по персоналу и инженеры ИИ обмениваются информацией в процессе исследования наборов данных и разработки алгоритмов, ставя под сомнение и устраняя предвзятые представления.

Однако результаты исследования показывают, что трудность реализации этой модели заключается в образовательных и профессиональных различиях между специалистами по персоналу и разработчиками ИИ.

Эти различия препятствуют эффективному общению, сотрудничеству и даже способности взаимопонимания.

Специалисты по персоналу традиционно обучаются управлению персоналом и организационному поведению, в то время как разработчики ИИ специализируются на вычислениях и технологиях, эти различные предпосылки приводят к недопониманию и несогласованности при сотрудничестве.

Как оптимизировать ИИ + HR

Недавний опрос 11004 американцев, проведенный исследовательским центром Pew, показал, что 66% людей не хотят подавать заявки на работу к работодателям, использующим ИИ для найма.

Только 32% заявили, что они подадут заявку, а остальные не уверены. 71% выступают против решений о найме, принимаемых ИИ.

Поэтому, если компании и индустрия HR хотят решить проблему предвзятости в найме с использованием ИИ, необходимо внести несколько изменений.

Во-первых, необходимо обучить специалистов по персоналу, структурированное обучение с акцентом на разработку информационных систем и искусственный интеллект имеет решающее значение.

Обучение должно включать основные принципы ИИ, как выявлять предвзятость в системах и как уменьшить эту предвзятость.

Кроме того, важно способствовать лучшему сотрудничеству между специалистами по персоналу и разработчиками ИИ.

Компании должны создавать команды, включающие специалистов по персоналу и экспертов по ИИ. Это поможет преодолеть коммуникационный разрыв и лучше координировать работу обеих сторон.

Кроме того, необходимо создавать высококачественные наборы данных с культурным разнообразием, чтобы данные, используемые в процессе найма с использованием ИИ, представляли различные группы населения.

Наконец, странам необходимо разработать руководящие принципы и этические стандарты использования ИИ при найме, чтобы помочь построить доверие и обеспечить справедливость. Организации должны внедрить подотчетность и повысить прозрачность в процессе принятия решений ИИ.

Принимая эти меры, мы можем создать более инклюзивную и справедливую систему найма, поскольку ИИ хорош в анализе объективных данных и предоставлении рекомендаций по принятию решений, его следует использовать в качестве вспомогательного инструмента, а не как недостаточно обученного "глупого" и копирующего предвзятость "плохого" судью судьбы.

Ссылки:

https://the-decoder.com/what-will-a-robot-make-of-your-resume-the-bias-problem-with-using-ai-in-job-recruitment/