美國華盛頓大學(xué)的一項研究顯示,在美國被廣泛應(yīng)用的簡歷篩選AI,,85%的情況下偏向于名字被認為是白人的求職者,。此外,女性名字的偏好率為11%,,而男性名字高達52%,。
Q:近年來,AI正深度嵌入社會許多領(lǐng)域的決策過程,。一個由算法主導(dǎo)的社會,,可能成為一個“公正”的社會嗎?如果不能,,我們該如何捍衛(wèi)人的自主判斷和公共理性,?
A
:完全由算法管理的社會不會是一個公正的社會。
我們今天作為預(yù)測工具使用的算法,,利用的是數(shù)據(jù),,而數(shù)據(jù)本身充滿過去經(jīng)驗中的偏見。
比方說,,如果AI來幫助銀行判斷是否給某人房屋抵押貸款,,或在司法系統(tǒng)中是否準(zhǔn)予某人假釋,是由算法基于過往數(shù)據(jù)對那個人進行預(yù)判后做出的決定,。這是一種“定性”,,從種族、民族和其他社會維度的“定性”去預(yù)測,,那人得到貸款后會償還的可能性,,或被假釋后,像他這樣的人會再次犯罪,,還是過上守法的生活,。
所以,,算法只是簡單的預(yù)測工具,它寄生在過去的數(shù)據(jù)中,。這就是為什么它會復(fù)制不公正的偏見,。
人類則不同,我們的思想凝聚成哲學(xué),,建立在人類不斷詮釋的經(jīng)驗和思辨之上,,而非簡單地聚集數(shù)據(jù),再從中導(dǎo)出某些預(yù)測,。