AI招聘:公正裁決還是偏見陷阱?

強化固有觀念:探討如何無意中加劇社會偏見。本文剖析日常行為和決策中潛藏的偏見,揭示其對社會公平的潛在影響,並提出減少偏見的思考方向。

應聘新關卡:「鐵面無私」人機交鋒

又到一年畢業季,上面的「你」可能就是千千萬萬個畢業生的縮影。

人工智能革命已經開始,幾乎遍及人們職業和個人生活的方方面面,包括學業面試和工作招聘。

企業管理層越來越意識到,在供應鏈管理、客戶服務、產品開發和人力資源等各個環節,人工智能都有可能帶來更高的效率。

其中,能用於招聘的,就是傳說中的「AI面試官」。

它實際上是一個能夠實時交互的問答機器人,通過語義識別、表情識別和聲音識別等多種算法,根據既定問題,對面試者的回答進行分析、梳理,最終給出參考評分。

例如,在按照職位要求篩選簡歷時,AI比人類有更高的準確率和效率優勢,而在相對簡單、流程標準化的初試中,也能以最快的速度完成初篩。

此外,AI面試官確實是物理意義上的「鐵面無私」,能夠避免面試官因偏見、歧視、親緣等問題而造成的偏差,提高決策的公平性和一致性。

《2023年中國網絡招聘市場發展研究報告》顯示,AI視頻面試在應用場景中的佔比已經達到31.8%,而這個比例在未來只會有增無減。

不僅是中國,在全球範圍內用AI提升招聘效率也越來越常見。

快消巨頭聯合利華就曾發布過一組數據:AI能夠幫助節約10萬小時的面試時間,每年能省下100萬美元的招聘成本。

然而,雖然AI的引入能降本增效,但人工智能的本質以及背後的訓練數據,都帶著人的烙印,會不可避免地引入人類偏見,甚至還可能在原有偏見的基礎上「變本加厲」。

放大人類偏見

雖然在招聘中使用人工智能的原因之一是為了更加客觀,但多項研究發現,這種技術實際上很可能存在偏見。

之所以會出現這種情況,根本原因還是數據。如果數據有偏見和缺陷,人工智能也會複製這種缺陷。

The Decoder與22位人力資源專業人士進行的訪談後,發現了招聘中常見的兩種偏見——「刻板印象偏見」和 「同類相似偏見」。

「刻板印象偏見」顧名思義,來源於對某個群體的刻板印象。比如偏愛某個性別的應聘者,從而導致性別不平等。

「同類相似偏見」,則指的是招聘人員偏愛與自己有相似背景或興趣愛好的應聘者。

這些偏見會嚴重影響招聘過程的公平性,它們可能流入歷史招聘數據,然後被用來訓練人工智能系統,就導致了AI偏見。

例如,從2014年起,亞馬遜公司就開始開發用於簡歷篩選的人工智能,希望從海量的簡歷中,快速地篩選出最理想的候選人。

不過,這個技術僅僅過了一年,有人就發現,AI的篩選結果中包含強烈的性別傾向。

即使候選簡歷裡面並未明示性別,AI也會在文本的蛛絲馬跡裡尋找「線索」,例如「女子棋社隊長」,或者畢業於女子大學。

知情人士表示,這個人工智能的訓練材料,是公司過去10年的僱傭歷史,而在科技領域,長期的職業刻板印象以及「親男文化」,都導致了男性僱員數量大於女性,尤其是技術崗位。

2017年,亞馬遜棄用了這個篩簡歷的AI模型。

這種偏見的持續存在表明,無論是否使用AI,都有必要進行仔細規劃和監測,以確保招聘流程的公平性。

人類能消除偏見嗎?

除了人力資源專業人士,The Decoder還採訪了17位人工智能開發人員,希望研究如何開發人工智能招聘系統,以減少而不是加劇招聘偏見。

在訪談的基礎上,他們建立了一個模型,讓人力資源專業人員和AI工程師在研究數據集和開發算法的過程中,來回交換信息,質疑並去除先入為主的觀念。

然而,研究結果表明,實施這種模式的困難在於人力資源專業人員和AI開發人員之間存在的教育和專業差異。

這些差異阻礙了有效溝通、合作,甚至是相互理解的能力。

人力資源專業人員傳統上接受的是人員管理和組織行為方面的培訓,而AI開發人員則精通數據計算和技術,這些不同的背景會導致合作時的誤解和不協調。

如何優化AI+HR

皮尤研究中心最近對11004名美國人進行了一項調查,發現66%的人不想向用AI招聘的僱主申請工作。

只有32%的人表示他們會申請,而其餘的人則不確定。而71%的人反對AI做出的招聘決定。

因此,如果企業和人力資源行業想要解決AI招聘中的偏見問題,就需要做出幾項改變。

首先,要對人力資源專業人員進行培訓,以信息系統開發和人工智能為重點的結構化培訓至關重要。

培訓內容應包括AI的基本原理、如何識別系統中的偏見以及減少這些偏見。

此外,促進人力資源專業人員與AI開發人員之間更好的合作也很重要。

公司應該建立包括人力資源和AI專家在內的團隊。這有助於彌合溝通鴻溝,更好地協調雙方的工作。

此外,建立具有文化多樣性的高質量數據集,確保AI的招聘流程中使用的數據能代表不同的人口群體。

最後,各國需要制定在招聘中使用AI的指導方針和道德標準,以幫助建立信任並確保公平。各組織應在AI的決策過程中實行問責制,提高透明度。

通過採取這些措施,我們可以創建一個更具包容性和公平性的招聘系統,既然AI擅長做客觀數據的分析與決策參考,那麼作為輔助工具使用,而不是攜帶著訓練不夠的「蠢」和複製偏見的「壞」貿然成為命運的判官。

參考資料:

https://the-decoder.com/what-will-a-robot-make-of-your-resume-the-bias-problem-with-using-ai-in-job-recruitment/