此外,意識必須能發(fā)揮一定重要功能才行,,否則早就在進(jìn)化過程中被淘汰了,。這些功能也可以套用到人工智能身上。而在這方面,,科幻作品同樣造成了誤導(dǎo),。無論是在小說還是電視節(jié)目中,意識對人工智能而言都像是一種詛咒,。它們會(huì)刻意做出無法預(yù)測的行為,,而這些行為往往對人類不利。但在現(xiàn)實(shí)世界中,,這種反烏托邦式的情景其實(shí)不大可能出現(xiàn),。無論人工智能會(huì)造成何種風(fēng)險(xiǎn),都不取決于它們是否具備獨(dú)立意識,。恰恰相反,,有意識的機(jī)器還能幫助我們應(yīng)對人工智能技術(shù)帶來的沖擊。有專家表示,,相比毫無想法的自動(dòng)化技術(shù),,他寧愿與這些有意識的機(jī)器共事。
AlphaGo與人類圍棋冠軍李世乭一決高下時(shí),,很多專家都在思索AlphaGo為何會(huì)按這種方式下圍棋,。他們想要解釋并理解AlphaGo的動(dòng)機(jī)和邏輯依據(jù)。這種情況對現(xiàn)代人工智能而言十分普遍,,因?yàn)樗鼈兊臎Q策并非由人類提前設(shè)定好,,而是通過學(xué)習(xí)算法和用于訓(xùn)練它們的數(shù)據(jù)集自發(fā)產(chǎn)生。由于無法參透這些人工智能,,很多人擔(dān)心它們的決策可能有失公平,、過于武斷?,F(xiàn)在已經(jīng)有了算法歧視的例子。如去年的一項(xiàng)調(diào)查發(fā)現(xiàn),,佛羅里達(dá)法官和假釋官使用的一套算法存在種族歧視的情況,,導(dǎo)致黑人罪犯被標(biāo)注的累犯概率會(huì)高于實(shí)際情況,而白人罪犯則低于實(shí)際情況,。
從明年開始,,歐盟法律將給予歐盟居民“要求解釋權(quán)”。人們將有權(quán)要求相關(guān)人士解釋某個(gè)人工智能系統(tǒng)為何會(huì)做出某種決策,。但這項(xiàng)新要求從技術(shù)上來說頗具挑戰(zhàn)性,。考慮到目前神經(jīng)網(wǎng)絡(luò)的復(fù)雜程度,,我們還很難參透人工智能做出決策的過程,,更別提將這個(gè)過程翻譯成人類能理解的語言了。
如果我們弄不清楚人工智能為何會(huì)這么做,,能否直接問問它們呢,?我們可以為人工智能配備后設(shè)認(rèn)知能力(metacognition),讓它們回顧自身行為,,報(bào)告自己的內(nèi)部精神狀態(tài),。這種能力是意識的主要功能之一。神經(jīng)科學(xué)家在測試人或動(dòng)物是否有意識時(shí),,尋找的便是這種能力,。例如,自信作為后設(shè)認(rèn)知的基本形式之一,,意識體驗(yàn)越清晰明了,、自信水平便越高。如果大腦是在不知不覺中處理信息,,我們便會(huì)對這些信息感覺不太確定,;而如果我們清楚地意識到了某個(gè)刺激的存在,便會(huì)感覺自信許多,,比如“我剛才肯定看見了紅色,。”
近年來,,隨著人工智能技術(shù)的快速發(fā)展,,公眾的擔(dān)憂有所上升,。最響亮的聲音之一來自于已故的斯蒂芬·霍金教授,他認(rèn)為人工智能可能會(huì)毀滅人類
新華社上海6月15日電 綜述:全球“大咖”縱論人工智能新方向 新華社記者劉石磊 王琳琳 隨著技術(shù)突破和應(yīng)用推廣,,人工智能發(fā)展進(jìn)入一個(gè)新的爆發(fā)期