這些例子說明了識(shí)別個(gè)體不知情動(dòng)機(jī)的影響,并且展示了知識(shí)和無知的問題可以有多復(fù)雜,,特別是在涉及人工智能的時(shí)候,。關(guān)于集體不知情在什么時(shí)候有益處,或者在道德上合理的問題,,沒有現(xiàn)成的答案,。理想的做法是單獨(dú)考慮每個(gè)案例,進(jìn)行風(fēng)險(xiǎn)收益分析,。理想情況下,,鑒于爭論的復(fù)雜性和后果的重要性,這一分析將公開進(jìn)行,,考慮各種利益相關(guān)者和專家意見,,并考慮所有可能的未來結(jié)果,包括最壞的情況,。
這其中涉及的問題太多了……事實(shí)上,,理想做法在大多數(shù)情況下都是行不通的。那么,,我們又該如何做呢,?
一種方法是控制和限制機(jī)器根據(jù)已采集數(shù)據(jù)進(jìn)行的推理。例如,,我們可以“禁止”使用種族作為預(yù)測(cè)變量的司法算法,,或者從潛在求職者的預(yù)測(cè)分析中排除性別。但是,,這種方法也存在問題,。
首先,限制大公司使用信息的成本太高,,技術(shù)難度也很大,。這需要這些公司將算法開源,同時(shí)要求大型政府機(jī)構(gòu)不斷對(duì)其審查,。另一方面,,一旦采集到大量的數(shù)據(jù)集,總是會(huì)有很多迂回的方法來推理出“禁止的知識(shí)”,。假設(shè)政府宣布使用性別信息來預(yù)測(cè)學(xué)術(shù)成功是非法的,,那就可能出現(xiàn)使用“擁有汽車類型”和“最喜歡的音樂流派”作為性別替代指標(biāo),直接進(jìn)行替代指標(biāo)的二級(jí)推理,。有時(shí)候,,盡管一家公司的意圖是好的,但有關(guān)性別的推理也可能意外地嵌入到算法中,。這些二級(jí)推理導(dǎo)致對(duì)算法的審查更加困難,。一個(gè)分析中包含的變量越多,,發(fā)生二級(jí)推理的可能性就越大。
中國科學(xué)院自動(dòng)化研究所研究員曾毅在《人工智能北京共識(shí)》發(fā)布會(huì)上,介紹北京智源人工智能研究院人工智能倫理與安全研究中心的主要研究內(nèi)容