事實上,亞馬遜的系統(tǒng)通過自學得出了男性候選人更可取的結(jié)論,。系統(tǒng)對包含“女性”這個詞的簡歷進行了處罰,,如“女子國際象棋俱樂部隊長”等。系統(tǒng)還降低了兩所全女子大學畢業(yè)生的評級,。
亞馬遜曾嘗試對程序進行更新,,力圖使其對特定術(shù)語保持中立。但這并不能保證機器不會根據(jù)其他方式來對可能具有歧視性的候選人進行分類,。
性別偏見也不是唯一的問題,。支持模型判斷的數(shù)據(jù)也有問題,這意味著不合格的候選人經(jīng)常被推薦到各種工作崗位,。亞馬遜最終在去年年初解散了該團隊,,因為高管們對這個項目已失去信心。
算法公平之路任重道遠
根據(jù)人才軟件公司“職業(yè)創(chuàng)造者”2017年的一項調(diào)查顯示,,約55%的美國人力資源經(jīng)理表示,,未來5年內(nèi),人工智能將成為他們工作的常規(guī)部分,。
長期以來,,雇主一直夢想利用技術(shù)擴大招聘網(wǎng)絡(luò),減少對招聘人員主觀意見的依賴,。但亞馬遜的失敗案例,,為越來越多正在尋求自動化招聘流程的大型公司提供了一個教訓。
卡內(nèi)基梅隆大學機器學習專家表示,,如何確保算法公平,、真正可理解和可解釋的道路還相當遙遠。
《麻省理工技術(shù)評論》在此次事件的報道中指出,,我們不能將人工智能視為內(nèi)在的無偏見,。在有偏見的數(shù)據(jù)上訓練系統(tǒng),意味著算法也會變得有偏見,。如果這樣不公平的人工智能招聘計劃在實施之前沒有被發(fā)現(xiàn),,將使長期存在于商業(yè)中的多樣性問題延續(xù)下去,而不是解決它們,。