人工智能和包括機(jī)器人在內(nèi)的智能化自動(dòng)系統(tǒng)的普遍應(yīng)用,不僅僅是一場結(jié)果未知的開放性的科技創(chuàng)新,,更將是人類文明史上影響甚為深遠(yuǎn)的社會(huì)倫理試驗(yàn),。誠如霍金所言,,人工智能的短期影響由控制它的人決定,,而長期影響則取決于人工智能是否完全為人所控制,。
人工智能體的擬主體性與人工倫理智能體
人工智能的倫理問題之所以受到前所未有的關(guān)注,,關(guān)鍵原因在于其能實(shí)現(xiàn)某種可計(jì)算的感知,、認(rèn)知和行為,,從而在功能上模擬人的智能和行動(dòng),。在人工智能創(chuàng)立之初,英國科學(xué)家圖靈,、美國科學(xué)家明斯基等先驅(qū)的初衷是運(yùn)用計(jì)算機(jī)制造能實(shí)現(xiàn)人類所有認(rèn)知功能的通用人工智能或強(qiáng)人工智能,。但科學(xué)家們不久就發(fā)現(xiàn),要使機(jī)器像人一樣理解語言和抽象概念,,通過學(xué)習(xí)全面達(dá)到人類智能的水平,,并非一日之功,。迄今為止,應(yīng)用日益廣泛的各種人工智能和機(jī)器人尚屬狹義人工智能或弱人工智能,,只能簡單地執(zhí)行人交給它們的任務(wù),。
一般地,人工智能及智能自動(dòng)系統(tǒng)能根據(jù)人的設(shè)計(jì)自動(dòng)地感知或認(rèn)知環(huán)境(包括人)并執(zhí)行某些行動(dòng),,還可能具備一定的人機(jī)交互功能甚至可以與人“對話”,,常常被看作具有一定自主性和交互性的實(shí)體。有鑒于此,,人工智能學(xué)家引入了智能體(agents,,又稱智能主體)的概念來定義人工智能:對能夠從環(huán)境中獲取感知并執(zhí)行行動(dòng)的智能體的描述和構(gòu)建。于是,,可將各種人工智能系統(tǒng)稱為人工智能體或智能體,。從技術(shù)上講,智能體的功能是智能算法賦予的:智能體運(yùn)用智能算法對環(huán)境中的數(shù)據(jù)進(jìn)行自動(dòng)感知和認(rèn)知,,并使其映射到自動(dòng)行為與決策之中,,以達(dá)成人為其設(shè)定的目標(biāo)和任務(wù)??梢哉f,,智能體與智能算法實(shí)為一體兩面,智能算法是智能體的功能內(nèi)核,,智能體是智能算法的具體體現(xiàn),。
從智能體概念出發(fā),使人工智能系統(tǒng)更為明晰地呈現(xiàn)為可以模擬和替代人類的理性行為,,因可與人類相比擬乃至比肩的存在,,故可視之為“擬主體”,或者說智能體具有某種“擬主體性”,。如果僅將智能體看作一般的技術(shù)人造物,,其研究進(jìn)路與其他科技倫理類似,主要包括面向應(yīng)用場景的描述性研究,、凸顯主體責(zé)任的責(zé)任倫理研究以及基于主體權(quán)利的權(quán)利倫理研究,。但在人們賦予智能體以擬主體性的同時(shí),會(huì)自然地聯(lián)想到,,不論智能體是否像主體那樣具有道德意識,,它們的行為可以看作是與主體倫理行為類似的擬倫理行為。進(jìn)而可追問:能不能運(yùn)用智能算法對人工智能體的擬倫理行為進(jìn)行倫理設(shè)計(jì),,即用代碼編寫的算法使人所倡導(dǎo)的價(jià)值取向與倫理規(guī)范得以嵌入到各種智能體之中,,令其成為遵守道德規(guī)范乃至具有自主倫理抉擇能力的人工倫理智能體?
機(jī)器人三定律與嵌入式的機(jī)器倫理調(diào)節(jié)器
其實(shí),這一思路并不新鮮,,早在70多年前,,美國人阿西莫夫在對機(jī)器人三定律的科學(xué)幻想中,就提出了通過內(nèi)置的“機(jī)器倫理調(diào)節(jié)器”使機(jī)器人成為服從道德律令的類似構(gòu)想,。在短篇科幻小說《轉(zhuǎn)圈圈》(1942)中,,阿西莫夫提出了按優(yōu)先順序排列的機(jī)器人三定律:第一定律,機(jī)器人不得傷害人類或坐視人類受到傷害,;第二定律,在與第一定律不相沖突的情況下,,機(jī)器人必須服從人類的命令,;第三定律,在不違背第一與第二定律的前提下,,機(jī)器人有自我保護(hù)的義務(wù),。此后,,為了克服第一定律的局限性,,他還提出了優(yōu)先級更高的機(jī)器人第零定律:機(jī)器人不得危害人類整體或坐視人類整體受到危害。
從內(nèi)涵上講,,機(jī)器人定律是一種康德式的道德律令,,更確切地講是人為機(jī)器人確立的普遍道德法則,以確保其成為遵守絕對道德律令的群體,。而更耐人尋味的是,,機(jī)器人三定律是通過技術(shù)實(shí)現(xiàn)的。在《轉(zhuǎn)圈圈》中,,三定律是根深蒂固地嵌入到機(jī)器人的“正電子”大腦中的運(yùn)行指令:每個(gè)定律一旦在特定場景中得到觸發(fā),,都會(huì)在機(jī)器人大腦中自動(dòng)產(chǎn)生相應(yīng)的電位,最為優(yōu)先的第一定律產(chǎn)生的電位最高,;若不同法則之間發(fā)生沖突,,則由它們的大腦中自動(dòng)產(chǎn)生的不同電位相互消長以達(dá)成均衡。這表明,,機(jī)器人定律并不全然是道德律令,,也符合其技術(shù)實(shí)現(xiàn)背后的自然律。換言之,,機(jī)器人定律所采取的方法論是自然主義的,,它們是人以技術(shù)為尺度給機(jī)器人確立的行為法則,既體現(xiàn)道德法則又合乎自然規(guī)律,。
歷史地看,,這些富有電氣化時(shí)代色彩的機(jī)器人倫理設(shè)計(jì)實(shí)際上是一種科技文化創(chuàng)新。自英國作家雪萊夫人創(chuàng)作《弗蘭肯斯坦》(1818)到捷克的恰佩克發(fā)表《羅素姆萬能機(jī)器人》(1921),不論是前者呈現(xiàn)的科學(xué)怪人的形象,,還是后者昭示的機(jī)器人造反,,都體現(xiàn)了人對其創(chuàng)造物可能招致毀滅性風(fēng)險(xiǎn)與失控的疑懼。機(jī)器人定律則為擺脫這種情結(jié)提供了可操作性的方案——通過工程上的倫理設(shè)計(jì)調(diào)節(jié)機(jī)器人的行為,,使其成為可教化的道德的機(jī)器人——合倫理的創(chuàng)造物,。但從自然主義的方法論來看,這一構(gòu)想又似乎明顯超前,。在提出第零定律時(shí),,阿西莫夫也意識到,機(jī)器人可能無法理解人類整體及人性等抽象概念,?;蛟S是這些困難令他轉(zhuǎn)而暢想,一旦機(jī)器人靈活自主到可以選擇其行為,,機(jī)器人定律將是人類理性地對待機(jī)器人或其他智能體的唯一方式,。這似乎是在暗示,使人工智能體成為可以自主作出倫理抉擇的人工倫理智能體的前提是其可與人的智能媲美,。
走向可計(jì)算的機(jī)器倫理與智能體倫理嵌入
回到人工智能的現(xiàn)實(shí)發(fā)展,,隨著無人機(jī)、自動(dòng)駕駛,、社會(huì)化機(jī)器人,、致命性自律武器等應(yīng)用的發(fā)展,涌現(xiàn)出大量人可能處于決策圈外的智能化自主認(rèn)知,、決策與執(zhí)行系統(tǒng),,這迫使人們在實(shí)現(xiàn)強(qiáng)人工智能之前,就不得不考慮如何讓人工智能體自主地做出恰當(dāng)?shù)膫惱砭駬?,試圖將人工智能體構(gòu)造為人工倫理智能體,。從技術(shù)人工物所扮演的倫理角色來看,包括一般的智能工具和智能輔助環(huán)境在內(nèi)的大多數(shù)人工物自身往往不需要做出價(jià)值審度與道德決策,,其所承擔(dān)的只是操作性或簡單的功能性的倫理角色:由人操作和控制的數(shù)據(jù)畫像等智能工具,,具有反映主體價(jià)值與倫理訴求的操作性道德;高速公路上的智能交通管理系統(tǒng)所涉及的決策一般不存在價(jià)值爭議和倫理沖突,,可以通過倫理設(shè)計(jì)植入簡單的功能性道德,。反觀自動(dòng)駕駛等涉及復(fù)雜的價(jià)值倫理權(quán)衡的人工智能應(yīng)用,其所面對的挑戰(zhàn)是:它們能否為人類所接受,,在很大程度上取決于其能否從技術(shù)上嵌入復(fù)雜的功能性道德,,將其構(gòu)造為人工倫理智能體。
讓智能機(jī)器具有復(fù)雜的功能性道德,,就是要構(gòu)建一種可執(zhí)行的機(jī)器倫理機(jī)制,,使其能實(shí)時(shí)地自行做出倫理抉擇,。鑒于通用人工智能或強(qiáng)人工智能在技術(shù)上并未實(shí)現(xiàn),要在智能體中嵌入其可執(zhí)行的機(jī)器倫理,,只能訴諸目前的智能機(jī)器可以操作和執(zhí)行的技術(shù)方式——基于數(shù)據(jù)和邏輯的機(jī)器代碼——就像機(jī)器人三定律所對應(yīng)的電位一樣,,并由此將人類所倡導(dǎo)或可接受的倫理理論和規(guī)范轉(zhuǎn)換為機(jī)器可以運(yùn)算和執(zhí)行的倫理算法和操作規(guī)程。機(jī)器倫理的理論預(yù)設(shè)是可以用數(shù)量,、概率和邏輯等描述和計(jì)算各種價(jià)值與倫理范疇,,進(jìn)而用負(fù)載價(jià)值內(nèi)涵的道德代碼為智能機(jī)器編寫倫理算法。論及倫理的可計(jì)算性,,古典哲學(xué)家邊沁和密爾早就探討過快樂與痛苦的計(jì)算,,而數(shù)量、概率,、歸納邏輯和道義邏輯等都已是當(dāng)代倫理研究的重要方法,,機(jī)器倫理研究的新需求則力圖將“可計(jì)算的倫理”的思想和方法付諸實(shí)踐,如將效益論,、道義論,、生命倫理原則等轉(zhuǎn)換為倫理算法和邏輯程序。不得不指出的是,,用數(shù)量,、概率和邏輯來表達(dá)和定義善、惡,、權(quán)利,、義務(wù),、公正等倫理范疇固然有失片面與偏頗,,但目前只能通過這種代碼轉(zhuǎn)換才能使人的倫理變成程序化的機(jī)器倫理。
在實(shí)踐層面,,機(jī)器倫理構(gòu)建的具體策略有三:其一是自上而下,,即在智能體中預(yù)設(shè)一套可操作的倫理規(guī)范,如自動(dòng)駕駛汽車應(yīng)將撞車對他人造成的傷害降到最低,。其二是自下而上,,即讓智能體運(yùn)用反向強(qiáng)化學(xué)習(xí)等機(jī)器學(xué)習(xí)技術(shù)研究人類相關(guān)現(xiàn)實(shí)和模擬場景中的行為,使其樹立與人類相似的價(jià)值觀并付諸行動(dòng),,如讓自動(dòng)駕駛汽車研究人類的駕駛行為,。其三是人機(jī)交互,即讓智能體用自然語言解釋其決策,,使人類能把握其復(fù)雜的邏輯并及時(shí)糾正其中可能存在的問題,。但這些策略都有其顯見的困難:如何在量化和計(jì)算中準(zhǔn)確和不走樣地表達(dá)與定義倫理范疇?如何使智能體準(zhǔn)確地理解自然語言并與人進(jìn)行深度溝通,?
鑒于機(jī)器倫理在實(shí)踐中的困難,,人工智能體的倫理嵌入不能局限于智能體,而須將人的主導(dǎo)作用納入其中??尚械娜斯惱碇悄荏w或道德的智能機(jī)器的構(gòu)造應(yīng)該包括倫理調(diào)節(jié)器,、倫理評估工具、人機(jī)接口和倫理督導(dǎo)者等四個(gè)環(huán)節(jié),。倫理調(diào)節(jié)器就是上述機(jī)器倫理程序和算法,。倫理評估工具旨在對智能體是否應(yīng)該以及是否恰當(dāng)?shù)卮砹讼嚓P(guān)主體的倫理決策做出評估,并對機(jī)器倫理的道德理論(如效益論,、道義論等)和倫理立場(如個(gè)性化立場,、多數(shù)人立場、隨機(jī)性選擇等)等元倫理預(yù)設(shè)做出評價(jià)和選擇,。人機(jī)接口旨在使人與智能體廣泛借助肢體語言,、結(jié)構(gòu)化語言、簡單指令乃至神經(jīng)傳導(dǎo)信號加強(qiáng)相互溝通,,使機(jī)器更有效地理解人的意圖,,并對人的行為做出更好的預(yù)判。倫理督導(dǎo)者則旨在全盤考量相關(guān)倫理沖突,、責(zé)任擔(dān)當(dāng)和權(quán)利訴求,,致力于厘清由人類操控不當(dāng)或智能體自主抉擇不當(dāng)所造成的不良后果,進(jìn)而追溯相關(guān)責(zé)任,,尋求修正措施,。
對人類文明而言,人工智能將是一個(gè)好消息還是壞消息,,最終取決于我們的倫理智慧,。在中國推出新一代人工智能發(fā)展規(guī)劃的今天,我們更要悉心體味孕育了巧奪天工精神和天工開物情懷的中國思想,,審天人之性,,度萬物之勢,以探求人機(jī)和諧,、文明通達(dá)之道,。
(作者:段偉文,系中國社會(huì)科學(xué)院哲學(xué)所研究員)