近年來(lái),隨著人工智能技術(shù)的快速發(fā)展,,公眾的擔(dān)憂有所上升,。最響亮的聲音之一來(lái)自于已故的斯蒂芬·霍金教授,他認(rèn)為人工智能可能會(huì)毀滅人類(lèi),。那么,,該如何看待人工智能的威脅?應(yīng)該采取行動(dòng)控制人工智能嗎,?是否要像對(duì)待核能和其他潛在危險(xiǎn)的技術(shù)一樣,,制定法律甚至是國(guó)際條約來(lái)控制人工智能的發(fā)展?
回答這些問(wèn)題之前,,首先需要明確的是,,人工智能的成就目前仍很有限。現(xiàn)在的人工智能系統(tǒng)能夠執(zhí)行20年前計(jì)算機(jī)不可能完成的任務(wù),。比如,,現(xiàn)在全世界每天都有數(shù)以百萬(wàn)計(jì)的人在使用文本自動(dòng)翻譯工具;無(wú)人駕駛汽車(chē)即將問(wèn)世,未來(lái)10年將出現(xiàn)在馬路上,;計(jì)算機(jī)現(xiàn)在比人更善于識(shí)別人臉等,。盡管這些成就令人印象深刻,但人們還是不知道應(yīng)該如何使機(jī)器具有意識(shí)和自我感知,。因此,,在可預(yù)見(jiàn)的未來(lái),人工智能接管世界仍將是科幻小說(shuō)的情節(jié),。當(dāng)然這并不意味著我們可以高枕無(wú)憂。
人工智能系統(tǒng)越來(lái)越多地被用于做出決策,,這對(duì)人們產(chǎn)生了直接影響,。例如,銀行發(fā)現(xiàn)人工智能系統(tǒng)善于預(yù)測(cè)潛在客戶是否會(huì)成為優(yōu)質(zhì)客戶——是否會(huì)按時(shí)還債等,。他們可以通過(guò)使用大量的客戶記錄,,來(lái)“培訓(xùn)”一個(gè)人工智能系統(tǒng)。一段時(shí)間后,,這一系統(tǒng)將能夠分析潛在客戶的詳細(xì)信息,,從而預(yù)測(cè)其是否優(yōu)質(zhì)。對(duì)于銀行來(lái)說(shuō),,可以迅速而低廉地決定是否需要一個(gè)特定的客戶,。但對(duì)于客戶自身而言,應(yīng)該會(huì)感到擔(dān)憂:如果銀行的人工智能系統(tǒng)在某種程度上存在偏見(jiàn)怎么辦,?
這就是算法偏見(jiàn),。當(dāng)前人工智能浪潮的一個(gè)特點(diǎn)是,系統(tǒng)無(wú)法像人那樣,,解釋或合理化其所做的決定,。所以,銀行可能會(huì)使用人工智能系統(tǒng)來(lái)決定不與你做生意,,但卻不能給你解釋原因,。這公平嗎?銀行這樣運(yùn)作合乎道德嗎,?誰(shuí)來(lái)對(duì)這個(gè)決定負(fù)責(zé),?