透過系統的機器訓練,讓 AI 代替 HR 篩選簡歷,無疑能幫助公司節省大量的勞動力,並且更有效地挑選出合適的人才。萬萬沒想到的是,亞馬遜的 AI 卻戴上了有色眼鏡。
類似人類的情感傾向出現在 AI 上,本身就有悖於人類訓練 AI 的目的。我們希望人工智慧是中立、結果導向的,甚至在理性的前提下,會帶有一絲無情。
好在亞馬遜自己也發現了這個問題,去年已將負責該計畫的團隊解散。
人工智慧「性別歧視」的起因
在亞馬遜 AI 招聘歧視事件的最後,大家把問題歸咎於人工智慧訓練樣本上。因為在具體的訓練方法上,亞馬遜針對性開發了 500 個特定職位的模型,對過去 10 年簡歷中的 5 萬個關鍵詞進行辨識,最後進行重要程度的優先級排序。
因此簡單來說,AI 的工作還是抓取關鍵詞。然而在這些履歷中,大部分求職者為男性,他們使用諸如「執行」這樣的關鍵詞更加頻繁,而女性相關的數據太少,因此 AI 會誤以為沒有這類關鍵詞的女性履歷不那麼重要。
類似的事情同樣發生在 Google 身上。早在 2017 年,Quartz 報導了一篇題為《The reason why most of the images that show up when you search for “doctor” are white men》的文章,如果你在 Google 圖片上搜尋「doctor」,獲得的結果大部分都是白人男性。