這些例子說明了識別個體不知情動機的影響,并且展示了知識和無知的問題可以有多復雜,,特別是在涉及人工智能的時候,。關于集體不知情在什么時候有益處,或者在道德上合理的問題,,沒有現(xiàn)成的答案,。理想的做法是單獨考慮每個案例,進行風險收益分析,。理想情況下,,鑒于爭論的復雜性和后果的重要性,這一分析將公開進行,,考慮各種利益相關者和專家意見,,并考慮所有可能的未來結果,包括最壞的情況,。
這其中涉及的問題太多了……事實上,,理想做法在大多數情況下都是行不通的。那么,,我們又該如何做呢,?
一種方法是控制和限制機器根據已采集數據進行的推理。例如,,我們可以“禁止”使用種族作為預測變量的司法算法,,或者從潛在求職者的預測分析中排除性別。但是,,這種方法也存在問題,。
首先,限制大公司使用信息的成本太高,,技術難度也很大,。這需要這些公司將算法開源,同時要求大型政府機構不斷對其審查,。另一方面,,一旦采集到大量的數據集,總是會有很多迂回的方法來推理出“禁止的知識”,。假設政府宣布使用性別信息來預測學術成功是非法的,,那就可能出現(xiàn)使用“擁有汽車類型”和“最喜歡的音樂流派”作為性別替代指標,,直接進行替代指標的二級推理。有時候,,盡管一家公司的意圖是好的,,但有關性別的推理也可能意外地嵌入到算法中。這些二級推理導致對算法的審查更加困難,。一個分析中包含的變量越多,,發(fā)生二級推理的可能性就越大。
中國科學院自動化研究所研究員曾毅在《人工智能北京共識》發(fā)布會上,,介紹北京智源人工智能研究院人工智能倫理與安全研究中心的主要研究內容
清華北大人工智能 清華和北大在本科生中同步啟動人工智能專業(yè)人才的培養(yǎng)。人工智能班是清華交叉信息研究院中的特設班級,,北京大學工學院開始重點籌建“機器人工程”本科專業(yè)