機器人三定律與嵌入式的機器倫理調(diào)節(jié)器
其實,,這一思路并不新鮮,,早在70多年前,美國人阿西莫夫在對機器人三定律的科學幻想中,,就提出了通過內(nèi)置的“機器倫理調(diào)節(jié)器”使機器人成為服從道德律令的類似構(gòu)想,。在短篇科幻小說《轉(zhuǎn)圈圈》(1942)中,阿西莫夫提出了按優(yōu)先順序排列的機器人三定律:第一定律,,機器人不得傷害人類或坐視人類受到傷害,;第二定律,在與第一定律不相沖突的情況下,,機器人必須服從人類的命令,;第三定律,在不違背第一與第二定律的前提下,,機器人有自我保護的義務。此后,,為了克服第一定律的局限性,,他還提出了優(yōu)先級更高的機器人第零定律:機器人不得危害人類整體或坐視人類整體受到危害。
從內(nèi)涵上講,,機器人定律是一種康德式的道德律令,,更確切地講是人為機器人確立的普遍道德法則,以確保其成為遵守絕對道德律令的群體,。而更耐人尋味的是,,機器人三定律是通過技術(shù)實現(xiàn)的。在《轉(zhuǎn)圈圈》中,,三定律是根深蒂固地嵌入到機器人的“正電子”大腦中的運行指令:每個定律一旦在特定場景中得到觸發(fā),,都會在機器人大腦中自動產(chǎn)生相應的電位,最為優(yōu)先的第一定律產(chǎn)生的電位最高,;若不同法則之間發(fā)生沖突,,則由它們的大腦中自動產(chǎn)生的不同電位相互消長以達成均衡。這表明,機器人定律并不全然是道德律令,,也符合其技術(shù)實現(xiàn)背后的自然律,。換言之,機器人定律所采取的方法論是自然主義的,,它們是人以技術(shù)為尺度給機器人確立的行為法則,,既體現(xiàn)道德法則又合乎自然規(guī)律。
歷史地看,,這些富有電氣化時代色彩的機器人倫理設計實際上是一種科技文化創(chuàng)新,。自英國作家雪萊夫人創(chuàng)作《弗蘭肯斯坦》(1818)到捷克的恰佩克發(fā)表《羅素姆萬能機器人》(1921),不論是前者呈現(xiàn)的科學怪人的形象,,還是后者昭示的機器人造反,,都體現(xiàn)了人對其創(chuàng)造物可能招致毀滅性風險與失控的疑懼。機器人定律則為擺脫這種情結(jié)提供了可操作性的方案——通過工程上的倫理設計調(diào)節(jié)機器人的行為,,使其成為可教化的道德的機器人——合倫理的創(chuàng)造物,。但從自然主義的方法論來看,這一構(gòu)想又似乎明顯超前,。在提出第零定律時,,阿西莫夫也意識到,機器人可能無法理解人類整體及人性等抽象概念,?;蛟S是這些困難令他轉(zhuǎn)而暢想,一旦機器人靈活自主到可以選擇其行為,,機器人定律將是人類理性地對待機器人或其他智能體的唯一方式,。這似乎是在暗示,使人工智能體成為可以自主作出倫理抉擇的人工倫理智能體的前提是其可與人的智能媲美,。