AI招聘系統正在深刻改變就業市場,為僱主提供了一種更快捷且經濟的篩選候選人的方式。
然而,墨爾本法學院研究員Natalie Sheard的最新研究警告,這些系統可能無意中加劇對女性、殘疾人及多元文化申請者的歧視。

(圖片來源:News)
目前,約30%的澳洲企業使用AI招聘工具,預計未來幾年這一比例將繼續上升。
這些系統透過演算法篩選簡歷、評估候選人回答,並對其適合性進行排名,提高篩選效率。
然而專家指出,AI系統可能無意間將部分人群排除在就業市場之外。
研究還發現,AI工具常因就業空白對候選人作出負面評估,而女性因育兒或醫療休假而造成的空白受影響尤大。
研究還發現,影片面試中使用的語音轉文字工具在應對非英語母語者時表現不佳。
以中文非英語母語者為例,其錯誤率飆升至驚人的22%,而美國英語母語者的錯誤率則低於10%。
Sheard指出,訓練這些AI系統的資料多來自美國,無法反映澳洲人口多樣性。

(圖片來源:News)
報告指出,“雖然AI招聘系統為僱主節省了時間和成本,改善了招聘質量與候選人體驗,但它們也可能強化甚至加劇歷史上的歧視問題。”
報告顯示,這些系統可能對佩戴頭巾的申請者或有非裔名字申請者存在歧視,尤其是當無法為殘疾人士做出合理調整時。
就像亞馬遜開發的AI系統曾自動降低簡歷中包含“女性”一詞申請者的評級那樣。
許多演算法根據“理想”特徵排名候選人,例如無間斷的職業生涯路徑,或採用設計不佳的過濾器,
比如對特定大學或最低GPA的要求,而這些標準往往與社會階層、年齡或性別等因素相關。

(圖片來源:News)
當歷史資料反映歧視性做法時,這種依賴就會造成問題,尤其是當這些資料反映出以男性為導向的工作模式或特定語言風格的懲罰時。
Sheard警告,這些失誤可能對被影響群體造成嚴重影響。
“僱主使用AI系統產生的歧視風險是獨特的,”報告寫道,
“一個歧視性的AI系統以前所未有的速度和規模造成傷害,有可能將弱勢群體排除在勞動力市場之外。”
由於全球已有42%的公司依賴這些工具,研究呼籲採取緊急監管措施,確保AI招聘系統的透明性、公平性和包容性。
Sheard強調,AI面試系統缺乏透明性是一個主要問題。
“這就是問題所在,在人工流程中,你可以向招聘者詢問反饋,但我發現很多招聘者甚至不知道決策的原因,因此無法提供反饋。”
“這對求職者來說是個問題……難以追責,但供應商和僱主必須對系統中的任何歧視負責。”