然而,,如果出現(xiàn)一種技術(shù),能以無法預(yù)知的方式改變這種平衡,,同時讓我們在決定什么時候保持不知情的問題上變得復(fù)雜的話,又會帶來什么后果?這種技術(shù)其實已經(jīng)出現(xiàn)了,,那就是人工智能。
人工智能可以利用相對較少的數(shù)據(jù)來找到模式并做出推論,。例如,,只需要幾個Facebook上的點贊就可以預(yù)測出你的個性、種族和性別,。還有一種計算機算法聲稱,,只需根據(jù)人們的照片,就能以81%的準(zhǔn)確率區(qū)分同性戀和異性戀男性,,而區(qū)分同性戀和異性戀女性的準(zhǔn)確率為71%,。另一種名為“替代性制裁的懲罰性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS)的算法則可以通過青少年被捕記錄,、家庭犯罪記錄,、教育、社會隔離和休閑活動等數(shù)據(jù),,來預(yù)測犯罪者再犯的可能性,,準(zhǔn)確率達到65%。
在這些例子中,,結(jié)論和所用的數(shù)據(jù)可能在本質(zhì)上存在著驚人的偏差(即使某些結(jié)果的有效性仍在爭論中),。這使得控制我們所知道的內(nèi)容十分困難,而且也沒有什么法規(guī)來幫助我們保持不知道的狀態(tài):不存在受保護的“不知情權(quán)”,。
于是,,這就創(chuàng)造了一種氛圍,用Facebook的早期座右銘來說,,我們很容易“快速行動,,破除陳規(guī)”(move fast and break things),。但是,,當(dāng)涉及到我們私人生活的細節(jié)時,“破除陳規(guī)”是否就是我們想要的呢,?
幾十年來,,政府和立法者都知道“潘多拉的盒子”有時候最好還是不要打開。至少在20世紀90年代,,保護個人不知情權(quán)利的法律就已經(jīng)出臺,。例如,1997年的“歐洲人權(quán)和生物醫(yī)學(xué)公約”(European Convention on Human Rights and Biomedicine)規(guī)定:“每個人都有權(quán)了解其被收集的有關(guān)健康狀況的任何信息,。但是,應(yīng)當(dāng)遵從個人不希望被告知的意愿,?!鳖愃频模?995年世界醫(yī)學(xué)協(xié)會的“患者權(quán)利宣言”(Rights of the Patient)中指出:“患者有權(quán)利明確要求不被告知(醫(yī)療數(shù)據(jù)),,除非是為了保護其他人的生命,?!?/p>
中國科學(xué)院自動化研究所研究員曾毅在《人工智能北京共識》發(fā)布會上,,介紹北京智源人工智能研究院人工智能倫理與安全研究中心的主要研究內(nèi)容