然而,為人工智能制定“不知情權(quán)”法規(guī)是完全不同的問題,。雖然醫(yī)療數(shù)據(jù)受到嚴(yán)格管制,,但人工智能所使用的數(shù)據(jù)往往掌握在名聲不佳的盈利性科技公司手中。人工智能處理的數(shù)據(jù)類型也更廣泛,,因此任何相應(yīng)的法律都需要對什么是“不知情權(quán)”有更深入的理解,。研究故意不知情的心理將有助于設(shè)計(jì)適用于人工智能的不知情權(quán)法律。不過,,令人驚訝的是,,這一嚴(yán)謹(jǐn)?shù)目茖W(xué)研究話題長期以來一直被忽略,或許是因?yàn)槟撤N隱含的假設(shè),,即故意忽略信息是不理性的,。
心理學(xué)家拉爾夫·赫特維格(Ralph Hertwig)和法律學(xué)者克里斯托弗·恩格爾(Christoph Engel)近期發(fā)表了一篇文章,對故意選擇不知情的動(dòng)機(jī)進(jìn)行了細(xì)致分類,。在他們識別出的動(dòng)機(jī)中,,有兩組尤其與面對人工智能時(shí)對不知情的需求密切相關(guān)。
第一組動(dòng)機(jī)圍繞公正和公平展開,。簡而言之,,知識有時(shí)會破壞判斷力,而我們往往選擇以故意不知情作為回應(yīng),。例如,,學(xué)術(shù)論文的同行評議通常是匿名的。大多數(shù)國家的保險(xiǎn)公司在登記之前不得獲取有關(guān)客戶健康狀況的細(xì)節(jié),;他們只能知道一般的健康風(fēng)險(xiǎn)因素,。這種考慮尤其與人工智能關(guān)系密切,因?yàn)槿斯ぶ悄芸梢援a(chǎn)生極具偏見的信息,。
第二組相關(guān)的動(dòng)機(jī)是情緒調(diào)節(jié)和避免遺憾,。赫特維格和恩格爾寫道,刻意的不知情可以幫助人們維持“珍視的信仰”,,并避免“精神不適,、恐懼和認(rèn)知失調(diào)”。故意不知情其實(shí)非常盛行,。調(diào)查中大約90%的德國人希望避免可能由于“預(yù)知諸如死亡和離婚等負(fù)面事件”而產(chǎn)生的負(fù)面情緒,,40%到70%的人也不想知道正面事件,,以幫助保持“對驚喜和懸念的積極感受”,比如不知道未出生孩子的性別,。
這兩組動(dòng)機(jī)能幫助我們理解在人工智能面前保護(hù)不知情權(quán)的必要性,。舉例來說,人工智能“同志雷達(dá)”(gaydar)算法的潛在收益似乎接近于零,,但是在公正性和公平性方面的潛在成本卻很高,。正如《經(jīng)濟(jì)學(xué)人》(The Economist)所說的那樣,“在世界上同性戀社交不被接受或被認(rèn)為非法的部分地區(qū),,這樣的算法可能對安全構(gòu)成嚴(yán)重威脅,。”同樣的,,NtechLab目前正在開發(fā)的種族識別人工智能系統(tǒng)所能帶來的潛在收益,,與其對公正性和公平性的負(fù)面影響相比顯得蒼白許多。COMPAS累犯預(yù)測軟件具有比人類更高的準(zhǔn)確性,,但正如Dressel和Farid所寫,,這“并不像我們想要的那種準(zhǔn)確,尤其是從未來還懸而未決的被告者的角度來看”,。預(yù)測個(gè)人預(yù)期壽命的算法,,比如Aspire Health正在開發(fā)的算法,并不一定會讓人們的情緒調(diào)節(jié)變得更容易,。
中國科學(xué)院自動(dòng)化研究所研究員曾毅在《人工智能北京共識》發(fā)布會上,,介紹北京智源人工智能研究院人工智能倫理與安全研究中心的主要研究內(nèi)容