反觀《西部世界》,,德洛麗絲等人造人的自我覺醒與反叛,或許恰好受了諾斯替主義的啟示而發(fā)現(xiàn),,像諾斯替主義者質(zhì)疑人和世界可能源于低劣制造那樣,,貌似仁慈上帝的福特原本是無異于冷酷無情的惡魔。福特與《美麗的新世界》中的上帝重名則表明,,其“創(chuàng)造一切”的神力來自尚在試驗和探索中的科技,,但為了“掌控一切”,他只能讓人和人造人服從其拙劣的制造魔法和機器邏輯,,加之對奴役和殺戮的崇拜,,最后必然以失控甚至毀滅告終。
至于福特的魔法,,無疑具有鮮明的現(xiàn)代版諾斯替色彩,,不只涉及智能的程序化設計,更試圖操縱與控制記憶,、認知,、情感和意識等心智過程。
造反還沒造,,倫理規(guī)則已先行
鑒于制造是嘗試性和不完美的,,最令以奴役人造人為宗旨的魔法實施者心虛的莫過于人造人造反。近年來,,有些學者提出了機器道德的構想,,試圖通過程序和算法使智能機器像人一樣遵守倫理規(guī)范、具有道德認知能力,,已有人將這種研究應用到自動駕駛汽車和陪伴機器人的設計上,。
尤其是隨著人工智能和機器人的新一輪熱潮的興起,世界上很多國家,、地區(qū)和機構相繼推出了倫理指南,、標準和宣言,提出了有針對性的倫理原則,。當然,,目前人工智能和機器人還遠不具備自我意識和道德自覺,讓它們明辨是非的設想一時還難以照進現(xiàn)實,。
相關各方已經(jīng)意識到,,人工智能與機器人倫理原則與標準的制定實際上是在搶占未來產(chǎn)業(yè)發(fā)展的制高點,。IEEE(國際電氣電子工程師學會)于2017年底發(fā)布《人工智能設計的倫理準則》(第二版)提出,人工智能的設計,、開發(fā)和應用應遵循人權,、福祉、問責,、透明和慎用等倫理原則,,仔細探討了自動系統(tǒng)的透明性、數(shù)據(jù)隱私,、算法偏見,、數(shù)據(jù)治理等當前備受關注的倫理問題。
今年3月,,歐盟發(fā)表的《人工智能,、機器人與自動系統(tǒng)宣言》則強調(diào)了人類尊嚴,自主,,負責,,公正、平等與團結,,民主,、守法與問責,保密,、安全與身心完整,,數(shù)據(jù)保護與隱私等九大倫理原則。
國內(nèi)的相關研究也在緊鑼密鼓地展開,。中科院于2017年下半年啟動了咨詢項目“人工智能倫理研究”及“大數(shù)據(jù)倫理問題與社會治理”,,中國標準化委員會目前正在組織實施中國機器人倫理標準和人工智能的法律及社會倫理標準的研究。
其中,,北大哲學系在今年3月頒布的《中國機器人標準化白皮書》立足多元,、植入、正義和繁榮等優(yōu)化共生框架,,提出了人的尊嚴與人權,、責任、透明度,、避免濫用以及共生繁榮等五大倫理目標,。
在機器人覺醒之前,人類給機器人,、更確切地說是給自己,,念起了這些倫理的緊箍咒。這不是諾斯替魔法預先編制的程序,,而是在我們尚有選擇的自由時,,為人類的權利與尊嚴抵擋人類注定拙劣制造的戕害撐起雅典娜之盾,。
□段偉文(科技哲學學者)
新華社北京12月12日電 陸戰(zhàn)利器之戰(zhàn)場機器人:特殊的“戰(zhàn)友” 新華社記者劉莉莉 趙嫣 ?。玻埃保纺辏瑧?zhàn)場機器人成為軍事領域的熱門話題