麻省理工學(xué)院的研究者在網(wǎng)站(moralmachine.mit.edu)上根據(jù)人們自己選擇的數(shù)據(jù)類型,測試他們在機(jī)器即將做出決定的情況下表現(xiàn)出的道德直覺,。
保護(hù)不知情權(quán)權(quán)更激進(jìn)——也可能更有效——的方法是第一時(shí)間防止數(shù)據(jù)被收集,。2017年,德國做出了一項(xiàng)開創(chuàng)性的舉措,,立法禁止自動(dòng)駕駛汽車通過種族,、年齡和性別來識(shí)別道路上的人,。這意味著汽車將無法通過這些類別的數(shù)據(jù)來做出駕駛決策,尤其是在事故不可避免時(shí)需要做出的決策,。
基于相同的思維方式,,歐盟推出了新的《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR),,并于2018年5月生效,。該條例規(guī)定,只允許公司在提供明確的指定服務(wù)時(shí),,收集和存儲(chǔ)必需的最少量數(shù)據(jù),,并且獲得客戶對(duì)其數(shù)據(jù)使用方式的同意。這種對(duì)數(shù)據(jù)獲取的限制可能也會(huì)阻止二級(jí)推理,。但《通用數(shù)據(jù)保護(hù)條例》的一個(gè)重要局限是,,公司可以為自己設(shè)定非常寬泛的目標(biāo)。例如,,如今已經(jīng)關(guān)門的劍橋分析(Cambridge Analytica)公司的明確目標(biāo)是評(píng)估用戶的個(gè)性,,因此在技術(shù)上,它對(duì)Facebook數(shù)據(jù)的收集符合《通用數(shù)據(jù)保護(hù)條例》的規(guī)定,。同樣的,,只要用戶同意——許多人即使在獎(jiǎng)勵(lì)相當(dāng)微薄的情況下也會(huì)同意分享自己的數(shù)據(jù)——《通用數(shù)據(jù)保護(hù)條例》對(duì)數(shù)據(jù)和給定服務(wù)之間一致性的關(guān)注就無法排除道德上有問題的數(shù)據(jù)類別,也不能完全阻止公司從數(shù)據(jù)中介那里購買被排除的數(shù)據(jù),。研究人員發(fā)現(xiàn),,麻省理工學(xué)院的一些學(xué)生會(huì)分享他們朋友的聯(lián)系數(shù)據(jù),只為了獲得一小片披薩,。顯然,,我們還需要更多的限制手段,但究竟需要多少呢,?
美國程序員,、自由軟件活動(dòng)家理查德·斯托曼(Richard Stallman)說:“利用數(shù)據(jù)來害人的方法太多了,以至于唯一安全的數(shù)據(jù)庫就是從未被收集過的數(shù)據(jù)庫,?!比欢绻麑?duì)數(shù)據(jù)采集的限制過于嚴(yán)厲,,又可能會(huì)阻礙人工智能的發(fā)展,,并減少我們從中獲得的收益。
中國科學(xué)院自動(dòng)化研究所研究員曾毅在《人工智能北京共識(shí)》發(fā)布會(huì)上,,介紹北京智源人工智能研究院人工智能倫理與安全研究中心的主要研究內(nèi)容