亚洲一卡2卡3卡4卡5卡6卡_99RE6在线观看国产精品_99欧美日本一区二区留学生_成人国产精品日本在线观看_丰满爆乳在线播放_免费国产午夜理论片不卡_欧美成 人影片 免费观看_日产中字乱码一二三_肉感饱满中年熟妇日本_午夜男女爽爽影院免费视频下载,民工把我奶头掏出来在线视频,日韩经典亚洲,国产精品JIZZ在线观看无码

中華網(wǎng)

設(shè)為書簽Ctrl+D將本頁(yè)面保存為書簽,,全面了解最新資訊,方便快捷,。
軍事APP
當(dāng)前位置:新聞 > 探索頻道 > 探索頻道更多新聞頁(yè)面 > 正文

人工智能時(shí)代該如何奪回我們的“不知情權(quán)”

人工智能時(shí)代該如何奪回我們的“不知情權(quán)”
2018-07-05 11:19:04 新浪科技

硅谷崇尚快速試錯(cuò)的文化,,但這可能不是我們想要的對(duì)待個(gè)人信息的方式。

硅谷崇尚快速試錯(cuò)的文化,,但這可能不是我們想要的對(duì)待個(gè)人信息的方式,。

導(dǎo)語(yǔ):美國(guó)科學(xué)雜志nautil.us《鸚鵡螺》作者Christina Leuker & Wouter Van Den Bos近日發(fā)表了針對(duì)人工智能時(shí)代下如何保護(hù)人類的“不知情權(quán)”的深度報(bào)道。人工智能的出現(xiàn)能以無(wú)法預(yù)知的方式改變了現(xiàn)實(shí)生活中需要在選擇知道和不知道的平衡,,同時(shí)讓我們?cè)跊Q定什么時(shí)候保持不知情的問(wèn)題上變得復(fù)雜,,研究故意不知情的心理將有助于設(shè)計(jì)適用于人工智能的不知情權(quán)法律,不過(guò),,這一嚴(yán)謹(jǐn)?shù)目茖W(xué)研究話題長(zhǎng)期以來(lái)一直被忽略,。


以下為文章全文:


柏林墻倒塌后,東德公民終于有機(jī)會(huì)閱讀到斯塔西(Stasi,,東德的國(guó)家安全機(jī)構(gòu),,被認(rèn)為是當(dāng)時(shí)世界上最有效率的情報(bào)和秘密警察機(jī)構(gòu)之一)保存的關(guān)于他們的資料。然而迄今為止,,只有大約10%的人真的去查閱了這些資料,。

2007年,脫氧核糖核酸(DNA)結(jié)構(gòu)的發(fā)現(xiàn)者之一詹姆斯·沃森(James Watson)表示,,他并不想知道自己的載脂蛋白E(ApoE)基因信息,。該等位基因被認(rèn)為是阿爾茨海默癥的風(fēng)險(xiǎn)因子。

民意調(diào)查顯示,,如果有選擇的話,,大多數(shù)人寧愿不知道自己的死亡日期——甚至是快樂(lè)事件的發(fā)生日期也不想知道。

以上這些都是故意選擇不知道的例子,。蘇格拉底可能會(huì)提出,,未經(jīng)審視的生活不值得過(guò);而霍布斯則會(huì)爭(zhēng)論稱,,好奇心是人類最主要的激情,;但還有許多古老的故事向我們描述了知道太多也會(huì)帶來(lái)危險(xiǎn)。從亞當(dāng)、夏娃和智慧樹,,到盜取取火秘密的普羅米修斯,,這些故事告訴我們,現(xiàn)實(shí)生活中需要在選擇知道和不知道之間達(dá)成微妙的平衡,。

然而,,如果出現(xiàn)一種技術(shù),能以無(wú)法預(yù)知的方式改變這種平衡,,同時(shí)讓我們?cè)跊Q定什么時(shí)候保持不知情的問(wèn)題上變得復(fù)雜的話,,又會(huì)帶來(lái)什么后果?這種技術(shù)其實(shí)已經(jīng)出現(xiàn)了,,那就是人工智能,。

人工智能可以利用相對(duì)較少的數(shù)據(jù)來(lái)找到模式并做出推論。例如,,只需要幾個(gè)Facebook上的點(diǎn)贊就可以預(yù)測(cè)出你的個(gè)性,、種族和性別。還有一種計(jì)算機(jī)算法聲稱,,只需根據(jù)人們的照片,,就能以81%的準(zhǔn)確率區(qū)分同性戀和異性戀男性,而區(qū)分同性戀和異性戀女性的準(zhǔn)確率為71%,。另一種名為“替代性制裁的懲罰性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,,COMPAS)的算法則可以通過(guò)青少年被捕記錄、家庭犯罪記錄,、教育,、社會(huì)隔離和休閑活動(dòng)等數(shù)據(jù),來(lái)預(yù)測(cè)犯罪者再犯的可能性,,準(zhǔn)確率達(dá)到65%,。

在這些例子中,結(jié)論和所用的數(shù)據(jù)可能在本質(zhì)上存在著驚人的偏差(即使某些結(jié)果的有效性仍在爭(zhēng)論中),。這使得控制我們所知道的內(nèi)容十分困難,,而且也沒(méi)有什么法規(guī)來(lái)幫助我們保持不知道的狀態(tài):不存在受保護(hù)的“不知情權(quán)”。

于是,,這就創(chuàng)造了一種氛圍,用Facebook的早期座右銘來(lái)說(shuō),,我們很容易“快速行動(dòng),,破除陳規(guī)”(move fast and break things)。但是,,當(dāng)涉及到我們私人生活的細(xì)節(jié)時(shí),,“破除陳規(guī)”是否就是我們想要的呢?

幾十年來(lái),,政府和立法者都知道“潘多拉的盒子”有時(shí)候最好還是不要打開(kāi),。至少在20世紀(jì)90年代,,保護(hù)個(gè)人不知情權(quán)利的法律就已經(jīng)出臺(tái)。例如,,1997年的“歐洲人權(quán)和生物醫(yī)學(xué)公約”(European Convention on Human Rights and Biomedicine)規(guī)定:“每個(gè)人都有權(quán)了解其被收集的有關(guān)健康狀況的任何信息,。但是,應(yīng)當(dāng)遵從個(gè)人不希望被告知的意愿,?!鳖愃频模?995年世界醫(yī)學(xué)協(xié)會(huì)的“患者權(quán)利宣言”(Rights of the Patient)中指出:“患者有權(quán)利明確要求不被告知(醫(yī)療數(shù)據(jù)),,除非是為了保護(hù)其他人的生命,。”

然而,,為人工智能制定“不知情權(quán)”法規(guī)是完全不同的問(wèn)題,。雖然醫(yī)療數(shù)據(jù)受到嚴(yán)格管制,但人工智能所使用的數(shù)據(jù)往往掌握在名聲不佳的盈利性科技公司手中,。人工智能處理的數(shù)據(jù)類型也更廣泛,,因此任何相應(yīng)的法律都需要對(duì)什么是“不知情權(quán)”有更深入的理解。研究故意不知情的心理將有助于設(shè)計(jì)適用于人工智能的不知情權(quán)法律,。不過(guò),,令人驚訝的是,這一嚴(yán)謹(jǐn)?shù)目茖W(xué)研究話題長(zhǎng)期以來(lái)一直被忽略,,或許是因?yàn)槟撤N隱含的假設(shè),,即故意忽略信息是不理性的。

心理學(xué)家拉爾夫·赫特維格(Ralph Hertwig)和法律學(xué)者克里斯托弗·恩格爾(Christoph Engel)近期發(fā)表了一篇文章,,對(duì)故意選擇不知情的動(dòng)機(jī)進(jìn)行了細(xì)致分類,。在他們識(shí)別出的動(dòng)機(jī)中,有兩組尤其與面對(duì)人工智能時(shí)對(duì)不知情的需求密切相關(guān),。

第一組動(dòng)機(jī)圍繞公正和公平展開(kāi),。簡(jiǎn)而言之,知識(shí)有時(shí)會(huì)破壞判斷力,,而我們往往選擇以故意不知情作為回應(yīng),。例如,學(xué)術(shù)論文的同行評(píng)議通常是匿名的,。大多數(shù)國(guó)家的保險(xiǎn)公司在登記之前不得獲取有關(guān)客戶健康狀況的細(xì)節(jié),;他們只能知道一般的健康風(fēng)險(xiǎn)因素。這種考慮尤其與人工智能關(guān)系密切,,因?yàn)槿斯ぶ悄芸梢援a(chǎn)生極具偏見(jiàn)的信息,。

第二組相關(guān)的動(dòng)機(jī)是情緒調(diào)節(jié)和避免遺憾。赫特維格和恩格爾寫道,刻意的不知情可以幫助人們維持“珍視的信仰”,,并避免“精神不適,、恐懼和認(rèn)知失調(diào)”。故意不知情其實(shí)非常盛行,。調(diào)查中大約90%的德國(guó)人希望避免可能由于“預(yù)知諸如死亡和離婚等負(fù)面事件”而產(chǎn)生的負(fù)面情緒,,40%到70%的人也不想知道正面事件,,以幫助保持“對(duì)驚喜和懸念的積極感受”,比如不知道未出生孩子的性別,。

這兩組動(dòng)機(jī)能幫助我們理解在人工智能面前保護(hù)不知情權(quán)的必要性。舉例來(lái)說(shuō),,人工智能“同志雷達(dá)”(gaydar)算法的潛在收益似乎接近于零,,但是在公正性和公平性方面的潛在成本卻很高。正如《經(jīng)濟(jì)學(xué)人》(The Economist)所說(shuō)的那樣,,“在世界上同性戀社交不被接受或被認(rèn)為非法的部分地區(qū),這樣的算法可能對(duì)安全構(gòu)成嚴(yán)重威脅,?!蓖瑯拥模琋techLab目前正在開(kāi)發(fā)的種族識(shí)別人工智能系統(tǒng)所能帶來(lái)的潛在收益,,與其對(duì)公正性和公平性的負(fù)面影響相比顯得蒼白許多,。COMPAS累犯預(yù)測(cè)軟件具有比人類更高的準(zhǔn)確性,但正如Dressel和Farid所寫,,這“并不像我們想要的那種準(zhǔn)確,,尤其是從未來(lái)還懸而未決的被告者的角度來(lái)看”,。預(yù)測(cè)個(gè)人預(yù)期壽命的算法,,比如Aspire Health正在開(kāi)發(fā)的算法,,并不一定會(huì)讓人們的情緒調(diào)節(jié)變得更容易。

這些例子說(shuō)明了識(shí)別個(gè)體不知情動(dòng)機(jī)的影響,,并且展示了知識(shí)和無(wú)知的問(wèn)題可以有多復(fù)雜,,特別是在涉及人工智能的時(shí)候。關(guān)于集體不知情在什么時(shí)候有益處,,或者在道德上合理的問(wèn)題,,沒(méi)有現(xiàn)成的答案,。理想的做法是單獨(dú)考慮每個(gè)案例,,進(jìn)行風(fēng)險(xiǎn)收益分析,。理想情況下,,鑒于爭(zhēng)論的復(fù)雜性和后果的重要性,,這一分析將公開(kāi)進(jìn)行,考慮各種利益相關(guān)者和專家意見(jiàn),,并考慮所有可能的未來(lái)結(jié)果,,包括最壞的情況,。

這其中涉及的問(wèn)題太多了……事實(shí)上,理想做法在大多數(shù)情況下都是行不通的,。那么,,我們又該如何做呢?

一種方法是控制和限制機(jī)器根據(jù)已采集數(shù)據(jù)進(jìn)行的推理,。例如,,我們可以“禁止”使用種族作為預(yù)測(cè)變量的司法算法,或者從潛在求職者的預(yù)測(cè)分析中排除性別,。但是,,這種方法也存在問(wèn)題。

首先,,限制大公司使用信息的成本太高,,技術(shù)難度也很大。這需要這些公司將算法開(kāi)源,,同時(shí)要求大型政府機(jī)構(gòu)不斷對(duì)其審查,。另一方面,一旦采集到大量的數(shù)據(jù)集,,總是會(huì)有很多迂回的方法來(lái)推理出“禁止的知識(shí)”,。假設(shè)政府宣布使用性別信息來(lái)預(yù)測(cè)學(xué)術(shù)成功是非法的,那就可能出現(xiàn)使用“擁有汽車類型”和“最喜歡的音樂(lè)流派”作為性別替代指標(biāo),,直接進(jìn)行替代指標(biāo)的二級(jí)推理,。有時(shí)候,,盡管一家公司的意圖是好的,但有關(guān)性別的推理也可能意外地嵌入到算法中,。這些二級(jí)推理導(dǎo)致對(duì)算法的審查更加困難,。一個(gè)分析中包含的變量越多,發(fā)生二級(jí)推理的可能性就越大,。

麻省理工學(xué)院的研究者在網(wǎng)站(moralmachine.mit.edu)上根據(jù)人們自己選擇的數(shù)據(jù)類型,,測(cè)試他們?cè)跈C(jī)器即將做出決定的情況下表現(xiàn)出的道德直覺(jué),。

麻省理工學(xué)院的研究者在網(wǎng)站(moralmachine.mit.edu)上根據(jù)人們自己選擇的數(shù)據(jù)類型,,測(cè)試他們?cè)跈C(jī)器即將做出決定的情況下表現(xiàn)出的道德直覺(jué),。

保護(hù)不知情權(quán)權(quán)更激進(jìn)——也可能更有效——的方法是第一時(shí)間防止數(shù)據(jù)被收集。2017年,,德國(guó)做出了一項(xiàng)開(kāi)創(chuàng)性的舉措,立法禁止自動(dòng)駕駛汽車通過(guò)種族、年齡和性別來(lái)識(shí)別道路上的人,。這意味著汽車將無(wú)法通過(guò)這些類別的數(shù)據(jù)來(lái)做出駕駛決策,尤其是在事故不可避免時(shí)需要做出的決策,。

基于相同的思維方式,,歐盟推出了新的《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR),,并于2018年5月生效,。該條例規(guī)定,,只允許公司在提供明確的指定服務(wù)時(shí),收集和存儲(chǔ)必需的最少量數(shù)據(jù),,并且獲得客戶對(duì)其數(shù)據(jù)使用方式的同意。這種對(duì)數(shù)據(jù)獲取的限制可能也會(huì)阻止二級(jí)推理,。但《通用數(shù)據(jù)保護(hù)條例》的一個(gè)重要局限是,,公司可以為自己設(shè)定非常寬泛的目標(biāo),。例如,如今已經(jīng)關(guān)門的劍橋分析(Cambridge Analytica)公司的明確目標(biāo)是評(píng)估用戶的個(gè)性,,因此在技術(shù)上,,它對(duì)Facebook數(shù)據(jù)的收集符合《通用數(shù)據(jù)保護(hù)條例》的規(guī)定。同樣的,,只要用戶同意——許多人即使在獎(jiǎng)勵(lì)相當(dāng)微薄的情況下也會(huì)同意分享自己的數(shù)據(jù)——《通用數(shù)據(jù)保護(hù)條例》對(duì)數(shù)據(jù)和給定服務(wù)之間一致性的關(guān)注就無(wú)法排除道德上有問(wèn)題的數(shù)據(jù)類別,,也不能完全阻止公司從數(shù)據(jù)中介那里購(gòu)買被排除的數(shù)據(jù)。研究人員發(fā)現(xiàn),,麻省理工學(xué)院的一些學(xué)生會(huì)分享他們朋友的聯(lián)系數(shù)據(jù),,只為了獲得一小片披薩。顯然,,我們還需要更多的限制手段,,但究竟需要多少呢?

美國(guó)程序員,、自由軟件活動(dòng)家理查德·斯托曼(Richard Stallman)說(shuō):“利用數(shù)據(jù)來(lái)害人的方法太多了,以至于唯一安全的數(shù)據(jù)庫(kù)就是從未被收集過(guò)的數(shù)據(jù)庫(kù),?!比欢?,如果對(duì)數(shù)據(jù)采集的限制過(guò)于嚴(yán)厲,,又可能會(huì)阻礙人工智能的發(fā)展,,并減少我們從中獲得的收益。

誰(shuí)應(yīng)該權(quán)衡其中的利弊,?首先應(yīng)該是我們自己,。

在大多數(shù)情況下,,我們談?wù)摰钠鋵?shí)是你我作為個(gè)人所擁有的數(shù)據(jù),。我們一直都很粗心大意,將這些數(shù)據(jù)拱手讓給各種閃亮的app,,絲毫不考慮后果,。事實(shí)上,我們一直在放棄我們的數(shù)據(jù),,以至于忘記了一開(kāi)始它就是屬于我們的,。收回?cái)?shù)據(jù)將使我們每個(gè)人都能決定哪些事情想知道,哪些不想知道。讓數(shù)據(jù)回到合適的人——也就是我們自己——手中,,就可以巧妙地解決我們討論的許多艱巨問(wèn)題,。我們不再需要制定通用的預(yù)見(jiàn)性指導(dǎo)規(guī)范,相反的,,數(shù)以百萬(wàn)計(jì)的個(gè)體將根據(jù)自己的是非觀來(lái)決定自身數(shù)據(jù)的用途。我們可以對(duì)公司如何使用數(shù)據(jù)做出實(shí)時(shí)反應(yīng),,根據(jù)他們對(duì)待數(shù)據(jù)的方式來(lái)進(jìn)行懲罰或獎(jiǎng)勵(lì),。

關(guān)于把數(shù)據(jù)放回人們手中,計(jì)算機(jī)科學(xué)哲學(xué)家杰倫·拉尼爾(Jaron Lanier)提出了一個(gè)經(jīng)濟(jì)學(xué)上的論據(jù),。他指出,,通過(guò)將我們自己的個(gè)人數(shù)據(jù)賣給大公司,我們應(yīng)該都能從中受益,。這種方法存在著兩個(gè)問(wèn)題,。首先,它混淆了數(shù)據(jù)使用和所有權(quán)的道德規(guī)范,。在回答數(shù)據(jù)應(yīng)該如何被使用的問(wèn)題時(shí),,免費(fèi)提供數(shù)據(jù)的意愿在道德完整性上是很好的試金石。一個(gè)小眾群體中有多少人會(huì)愿意免費(fèi)提供數(shù)據(jù),,以創(chuàng)建一個(gè)像“同志雷達(dá)”這樣的面部識(shí)別應(yīng)用程序?又有多少人會(huì)愿意為此付費(fèi),?另一方面,,大多數(shù)人會(huì)很樂(lè)意貢獻(xiàn)他們的數(shù)據(jù)來(lái)尋找治療癌癥的方法。第二個(gè)問(wèn)題是,,賦予個(gè)人數(shù)據(jù)(較高的)經(jīng)濟(jì)價(jià)值可能會(huì)迫使人們分享他們的數(shù)據(jù),,并使數(shù)據(jù)隱私成為富人的特權(quán)。

這并不是說(shuō)個(gè)人的單獨(dú)行動(dòng)就足夠了,,社會(huì)機(jī)構(gòu)的集體行動(dòng)也是必需的,。即使只有小部分人口分享他們的敏感數(shù)據(jù),其結(jié)果也可能具有大多數(shù)人反對(duì)的高預(yù)測(cè)準(zhǔn)確性,。并不是所有人都明白這一點(diǎn),。為了防止不必要的后果,我們需要更多的法律和公共討論,。

《經(jīng)濟(jì)學(xué)人》曾寫道,,世界上最寶貴的資源不再是石油,而是數(shù)據(jù),。然而,,數(shù)據(jù)與石油有著很大不同。數(shù)據(jù)是無(wú)限的資源,由個(gè)人所有,,并且通常是在沒(méi)有交易價(jià)值的情況下進(jìn)行交換,。從石油中獲利便殺死了石油市場(chǎng)。作為第一步,,從數(shù)據(jù)中獲取利潤(rùn)將為我們提供空間,,用于創(chuàng)造和維持能在人工智能到來(lái)之后延續(xù)的道德標(biāo)準(zhǔn),并為管理集體的不知情權(quán)鋪平道路,。換句話說(shuō),,在數(shù)據(jù)成為現(xiàn)代世界最有用的商品之一的同時(shí),它也需要成為最便宜的商品之一,。(任天)

關(guān)鍵詞:

相關(guān)報(bào)道:

    關(guān)閉
     

    相關(guān)新聞