不許試錯的失控難題
當(dāng)人工智能技術(shù)不斷重塑人們工作,、學(xué)習(xí)和生活方式,并為人類帶來無限福祉的同時,,也正在產(chǎn)生越來越多的開放式問題,。
1.人工智能失控。能否保持對有朝一日遠(yuǎn)比人類更“聰明”的人工智能系統(tǒng)的控制,,是人工智能一個古老而又終極的問題,。控制與失控問題之所以如此重要,,是因為人類可能根本就沒有試錯的機(jī)會,。盡管人們普遍認(rèn)為現(xiàn)有的人工智能技術(shù)仍停留在弱人工智能階段,但是也有許多專家認(rèn)為超人工智能時代并不遙遠(yuǎn),,超人工智能形態(tài)能夠?qū)崿F(xiàn)遞歸式的自我改善,,并導(dǎo)致最終的“智能爆炸”。2008年,,在牛津大學(xué)召開的全球災(zāi)難性風(fēng)險會議上對專家進(jìn)行的一項調(diào)查顯示,,機(jī)器超級智已超越核戰(zhàn)爭、各種被操縱的流行病和氣候變化而成為人類現(xiàn)存的最大威脅,,到2100年的時候,,這種人工智能導(dǎo)致人類滅絕的可能性為5%。對此,,《未來簡史》一書的作者,、以色列歷史學(xué)家赫拉利指出人類可能的三大方向:人類將失去他們的經(jīng)濟(jì)和軍事用途,經(jīng)濟(jì)系統(tǒng)將不再有價值,;對系統(tǒng)來說,,人類整體將具有價值但個體將沒有價值;然而,,系統(tǒng)將在一些個體身上發(fā)現(xiàn)價值,,但他們將成為一個超人的新物種,而不是普通大眾,,“系統(tǒng)”指的是生物科學(xué)和信息技術(shù)以當(dāng)前極快速度發(fā)展下去產(chǎn)生的新的社會形態(tài),。
2.機(jī)器歧視。在萬物互聯(lián)的環(huán)境下,,基于海量數(shù)據(jù)和強(qiáng)大算法的人工智能系統(tǒng)正在影響甚至替代個體行為決策,,在人工智能取代個體決策的趨勢下,算法偏差和機(jī)器歧視并不鮮見且影響重大,。例如,,谷歌的圖片軟件就曾錯將黑人標(biāo)記為“大猩猩”,,F(xiàn)lickr的自動標(biāo)記系統(tǒng)也曾錯將黑人的照片標(biāo)記為“猿猴”或者“動物”,谷歌的算法歧視問題已引起人們注意,,在谷歌搜索中相比搜索白人的名字搜索黑人的名字更容易出現(xiàn)暗示具有犯罪歷史的廣告,在谷歌的廣告服務(wù)中,,男性比女性看到更多高薪招聘廣告,。
3.技術(shù)性失業(yè),。技術(shù)性失業(yè)也是人工智能發(fā)展所產(chǎn)生的重大挑戰(zhàn),。斯坦福大學(xué)人工智能與倫理學(xué)教授卡普蘭認(rèn)為,,人類要應(yīng)對人工智能帶來的最重大挑戰(zhàn)在于勞動力的變革和整個社會財富的分配方面,這對現(xiàn)有社會的穩(wěn)定造成沖擊,。世界經(jīng)濟(jì)論壇主席施瓦布也提出,,在由計算機(jī)控制,、全自動化、網(wǎng)絡(luò)化的生產(chǎn)以及服務(wù)業(yè)中高科技的廣泛應(yīng)用,,比如使用機(jī)器人,,在今后可能導(dǎo)致大量就業(yè)崗位流失。