AI採用:公平な判断それとも偏見の罠?

固定観念の強化:無意識のうちに社会的偏見を悪化させる方法の探求。本記事では、日常的な行動や意思決定に潜む偏見を分析し、それらが社会の公平性に与える潜在的な影響を明らかにします。また、偏見を減らすための考え方も提案します。

就職活動の新たな関門:「公平無私」な人間とAIの対決

また卒業シーズンがやってきました。上記の「あなた」は、何百万人もの卒業生の縮図かもしれません。

人工知能革命はすでに始まっており、人々の職業や個人生活のあらゆる面にほぼ及んでいます。学業面接や就職活動も例外ではありません。

企業の経営層は、サプライチェーン管理、顧客サービス、製品開発、人事など、あらゆる面で人工知能がより高い効率をもたらす可能性があることを、ますます認識するようになっています。

その中で、採用に使用できるのが、いわゆる「AI面接官」です。

これは実際、リアルタイムで対話できる質問応答ロボットで、意味認識、表情認識、音声認識などの複数のアルゴリズムを通じて、既定の質問に基づいて面接者の回答を分析・整理し、最終的に参考評価を提供します。

例えば、職位要件に基づいて履歴書をスクリーニングする際、AIは人間よりも高い精度と効率の優位性を持ち、比較的単純で標準化されたプロセスの初期面接でも、最速で初期スクリーニングを完了できます。

さらに、AI面接官は物理的な意味で本当に「公平無私」であり、面接官の偏見、差別、縁故などの問題による偏りを避け、意思決定の公平性と一貫性を高めることができます。

『2023年中国オンライン採用市場発展研究報告』によると、AI動画面接の応用シーンにおける割合はすでに31.8%に達しており、この割合は将来さらに増加するでしょう。

中国だけでなく、世界中でAIを使用して採用効率を向上させることがますます一般的になっています。

消費財大手のユニリーバは、AIが10万時間の面接時間を節約し、毎年100万ドルの採用コストを削減できるというデータを発表しました。

しかし、AIの導入はコスト削減と効率向上をもたらす一方で、人工知能の本質とその背後にあるトレーニングデータには人間の刻印が付いており、人間の偏見を避けられず導入し、さらには既存の偏見を「悪化させる」可能性さえあります。

人間の偏見を拡大する

採用において人工知能を使用する理由の一つは、より客観的になることですが、複数の研究によると、この技術は実際には偏見を持つ可能性が高いことが分かっています。

この状況が発生する根本的な理由は、データにあります。データに偏見や欠陥がある場合、人工知能もその欠陥を複製します。

The Decoderが22人の人事専門家にインタビューを行った結果、採用において一般的な2種類の偏見が明らかになりました - 「ステレオタイプ偏見」と「類似性偏見」です。

「ステレオタイプ偏見」は、その名の通り、特定のグループに対するステレオタイプから生じます。例えば、特定の性別の応募者を好む傾向があり、性別の不平等につながります。

「類似性偏見」は、採用担当者が自分と似たバックグラウンドや趣味を持つ応募者を好む傾向を指します。

これらの偏見は採用プロセスの公平性に深刻な影響を与え、過去の採用データに流れ込み、それが人工知能システムのトレーニングに使用されることで、AI偏見につながります。

例えば、アマゾン社は2014年から履歴書スクリーニング用の人工知能の開発を始め、膨大な履歴書から最適な候選者を迅速に選別することを目指しました。

しかし、この技術は1年も経たないうちに、AIの選別結果に強い性別の偏りが含まれていることが発見されました。

候補者の履歴書に性別が明示されていなくても、AIはテキストの中から「手がかり」を探し出します。例えば、「女子チェス部長」や女子大学の卒業生などです。

情報筋によると、この人工知能のトレーニング材料は、会社の過去10年間の雇用履歴でした。技術分野では、長期的な職業のステレオタイプや「男性寄りの文化」により、男性従業員の数が女性よりも多く、特に技術職でその傾向が顕著でした。

2017年、アマゾンはこの履歴書スクリーニングAIモデルの使用を中止しました。

この種の偏見が持続して存在することは、AIを使用するかどうかにかかわらず、採用プロセスの公平性を確保するために慎重な計画とモニタリングが必要であることを示しています。

人間は偏見を取り除くことができるか?

The Decoderは人事専門家に加えて、17人の人工知能開発者にもインタビューを行い、採用の偏見を減らすのではなく悪化させないように、人工知能採用システムをどのように開発すべきかを研究しました。

インタビューに基づいて、彼らはモデルを構築しました。このモデルでは、人事専門家とAIエンジニアがデータセットの研究とアルゴリズムの開発過程で情報を交換し、先入観を疑問視し除去します。

しかし、研究結果は、このモデルの実施の困難さが人事専門家とAI開発者の間に存在する教育と専門的な違いにあることを示しています。

これらの違いは、効果的なコミュニケーション、協力、さらには相互理解の能力を妨げています。

人事専門家は伝統的に人員管理と組織行動に関するトレーニングを受けているのに対し、AI開発者はデータ計算と技術に精通しています。これらの異なる背景が協力時の誤解と不協和を引き起こします。

AIと人事をどのように最適化するか

ピュー研究センターが最近11,004人のアメリカ人を対象に行った調査によると、66%の人がAIを採用に使用する雇用主に応募したくないと回答しました。

応募すると答えたのはわずか32%で、残りの人々は不確かでした。また、71%の人がAIによる採用決定に反対しています。

したがって、企業と人事業界がAI採用における偏見の問題を解決したいのであれば、いくつかの変更を行う必要があります。

まず、人事専門家に情報システム開発と人工知能に焦点を当てた構造化されたトレーニングを提供することが極めて重要です。

トレーニング内容には、AIの基本原理、システム内の偏見の識別方法、およびこれらの偏見を減らす方法が含まれるべきです。

さらに、人事専門家とAI開発者の間のより良い協力を促進することも重要です。

企業は人事とAIの専門家を含むチームを構築すべきです。これはコミュニケーションのギャップを埋め、双方の作業をより良く調整するのに役立ちます。

また、文化的多様性を持つ高品質なデータセットを構築し、AIの採用プロセスで使用されるデータが異なる人口グループを代表することを確保することも重要です。

最後に、各国は採用におけるAIの使用に関するガイドラインと倫理基準を策定し、信頼を構築し公平性を確保する必要があります。各組織はAIの意思決定プロセスにおいて説明責任を実施し、透明性を高めるべきです。

これらの措置を講じることで、より包括的で公平な採用システムを作成できます。AIは客観的なデータ分析と意思決定の参考に長けているため、補助ツールとして使用し、トレーニング不足の「愚かさ」と偏見の複製という「悪さ」を携えて運命の判官になることを避けるべきです。

参考資料:

https://the-decoder.com/what-will-a-robot-make-of-your-resume-the-bias-problem-with-using-ai-in-job-recruitment/