事實(shí)上,,亞馬遜的系統(tǒng)通過(guò)自學(xué)得出了男性候選人更可取的結(jié)論,。系統(tǒng)對(duì)包含“女性”這個(gè)詞的簡(jiǎn)歷進(jìn)行了處罰,如“女子國(guó)際象棋俱樂(lè)部隊(duì)長(zhǎng)”等,。系統(tǒng)還降低了兩所全女子大學(xué)畢業(yè)生的評(píng)級(jí),。
亞馬遜曾嘗試對(duì)程序進(jìn)行更新,力圖使其對(duì)特定術(shù)語(yǔ)保持中立,。但這并不能保證機(jī)器不會(huì)根據(jù)其他方式來(lái)對(duì)可能具有歧視性的候選人進(jìn)行分類(lèi),。
性別偏見(jiàn)也不是唯一的問(wèn)題。支持模型判斷的數(shù)據(jù)也有問(wèn)題,,這意味著不合格的候選人經(jīng)常被推薦到各種工作崗位,。亞馬遜最終在去年年初解散了該團(tuán)隊(duì),,因?yàn)楦吖軅儗?duì)這個(gè)項(xiàng)目已失去信心。
算法公平之路任重道遠(yuǎn)
根據(jù)人才軟件公司“職業(yè)創(chuàng)造者”2017年的一項(xiàng)調(diào)查顯示,,約55%的美國(guó)人力資源經(jīng)理表示,,未來(lái)5年內(nèi),人工智能將成為他們工作的常規(guī)部分,。
長(zhǎng)期以來(lái),,雇主一直夢(mèng)想利用技術(shù)擴(kuò)大招聘網(wǎng)絡(luò),減少對(duì)招聘人員主觀意見(jiàn)的依賴(lài),。但亞馬遜的失敗案例,,為越來(lái)越多正在尋求自動(dòng)化招聘流程的大型公司提供了一個(gè)教訓(xùn)。
卡內(nèi)基梅隆大學(xué)機(jī)器學(xué)習(xí)專(zhuān)家表示,,如何確保算法公平,、真正可理解和可解釋的道路還相當(dāng)遙遠(yuǎn)。
《麻省理工技術(shù)評(píng)論》在此次事件的報(bào)道中指出,,我們不能將人工智能視為內(nèi)在的無(wú)偏見(jiàn),。在有偏見(jiàn)的數(shù)據(jù)上訓(xùn)練系統(tǒng),意味著算法也會(huì)變得有偏見(jiàn),。如果這樣不公平的人工智能招聘計(jì)劃在實(shí)施之前沒(méi)有被發(fā)現(xiàn),,將使長(zhǎng)期存在于商業(yè)中的多樣性問(wèn)題延續(xù)下去,而不是解決它們,。
新華社上海9月19日電 ?題:人工智能正讓城市更有安全感 新華社記者蘭天鳴 在上海舉行的2018世界人工智能大會(huì)上,,人工智能如何讓城市更有安全感引發(fā)熱議