當(dāng)下人工智能的倫理思考多側(cè)重于實踐:如人工智能是否最終會成為人類事務(wù)的主導(dǎo),,該以什么倫理原則來引導(dǎo)、規(guī)范人工智能的應(yīng)用等,??筛蟮奶魬?zhàn)卻是理論上的困惑:算法是人工智能的內(nèi)核,不同算法實則暗含有不一樣的價值選擇,,何謂善的算法,?善的算法必會導(dǎo)向行為的善?人工智能算法可以自我學(xué)習(xí),、自我進化,,倫理上該如何看待這種智能主體?鑒于人工智能是一種典型的復(fù)雜行為,,從復(fù)雜性的角度我們能更深入地揭示這些困惑和挑戰(zhàn),。
人工智能算法的傳統(tǒng)通常有兩個:一是符號認知主義,主張智能行為依賴于符號操作,,通過基于符號表征的計算可實現(xiàn)學(xué)習(xí),、記憶,、推理、決策,,甚至情感活動,,如早期的專家系統(tǒng);二是聯(lián)結(jié)主義,,受人和動物大腦神經(jīng)結(jié)構(gòu)啟發(fā),,認為通過大量底層簡單的“激活單元”相互交織可在高層自發(fā)涌現(xiàn)出復(fù)雜的智能行為,這一傳統(tǒng)以人工神經(jīng)網(wǎng)絡(luò)為代表,。阿爾法圍棋的成功主要得益于后一種傳統(tǒng),,基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)實現(xiàn)算法的突破。
以復(fù)雜性視角觀之,,基于神經(jīng)網(wǎng)絡(luò)的人工智能算法有一個突出特質(zhì)——涌現(xiàn)性,,即智能是一種由算法底層的簡單規(guī)則生成的復(fù)雜行為,智能并不由預(yù)定的算法前提所決定,?!坝楷F(xiàn)”被遺傳算法的創(chuàng)立者、美國科學(xué)家霍蘭稱為復(fù)雜世界的“隱秩序”,,生命誕生,、交通堵塞等都是涌現(xiàn)現(xiàn)象。以棋類游戲智能算法為例,,棋子數(shù)是有限的,,游戲規(guī)則是簡單的,但棋局變化的可能性卻無法窮盡,。棋局的最終輸贏是一種涌現(xiàn),,決定棋局走向的不是底層的簡單規(guī)則,而是由它們生成的更高層的組織過程,。
人工智能算法的涌現(xiàn)性具有這樣一些特點:1.智能行為不是一種底層簡單規(guī)則的加和,,而是從底層到高層的層次跨越,高層具有底層個體所不具備的復(fù)雜特性,。2.無法通過底層算法來準確預(yù)測高層的涌現(xiàn),智能是算法前提無法決定的“新奇性”,。3.涌現(xiàn)不是單一行為而是由眾多簡單個體行為到復(fù)雜集體行為的演化,。智能行為是一個過程,棋局的最終取勝不是依靠單次行為的累加,,而是算法演化系列的整體取勝,。阿爾法圍棋在與人類棋手對弈時有一些令頂尖職業(yè)棋手難以理解的“昏招”,可這些昏招到了棋局結(jié)束時竟成為取勝的“神之一手”,。這并不是證明了所謂關(guān)鍵招的重要性,,而是表明“招數(shù)系列”比“某一招”更有意義,。在倫理上,涌現(xiàn)性特質(zhì)揭示出人工智能算法具有不同于傳統(tǒng)的行為特征:人工智能算法行為不是邊界清晰的單個行為而是集體行為的演化,,其行為效果既不由“某一”行為所決定,,亦不由其前提完全決定。
人工智能算法的另一個復(fù)雜性特質(zhì)是算法的自主性,。美國科學(xué)家馮·諾依曼于20世紀50年代初成功建立了一個能夠自我繁殖的元胞自動機算法模型,,它成為第一個可以自我進化的算法。當(dāng)下人工智能深度學(xué)習(xí)算法可以從海量無標(biāo)注的大數(shù)據(jù)中自我學(xué)習(xí),、自我進化,。阿爾法圍棋一代曾依據(jù)人類歷史上的優(yōu)秀棋譜,對弈了3000萬盤棋,,二代強化了自我增強學(xué)習(xí),。如果智能算法的自主性意味著機器不再是被動的工具,而是某類主動的,、自我進化的“生命”(如人工生命),,那么我們是否能說人工智能就是一個具有自我意識、能夠自我決定的“主體”,?以算法的觀念來看,,理性傳統(tǒng)所認可的這種“主體”其實是一個能夠協(xié)調(diào)個體自身復(fù)雜行為的中心控制單元,它擔(dān)負該個體所有信息的整合和全部行為的控制,。強人工智能自主性遵循這一傳統(tǒng),,人們認為未來的人工智能不僅具有感知對象、解決問題的智能,,還可能具有感知自我的意識,。弱人工智能的自主性主要是指智能行為的自組織性,機器算法會在沒有人類程序員的干預(yù)下自發(fā)學(xué)習(xí),,自動處理問題,,以分布式控制算法為其代表。強人工智能主體在技術(shù)上目前還遙遙無期,,常常成為科幻作品的題材,。弱人工智能的分布式控制模式目前已在人工智能領(lǐng)域得到廣泛應(yīng)用,形成了一種完全不同于傳統(tǒng)的主體觀念,。
要回答什么是善的算法,,我們需要追溯倫理學(xué)的一個基礎(chǔ)問題:什么是善的行為?該問題又可轉(zhuǎn)換為什么是正當(dāng)?shù)男袨??作為主體的“我”應(yīng)該如何行為,?道義論者更強調(diào)行為原則的正當(dāng),功利論者更看重行為結(jié)果的正當(dāng),。在英國倫理學(xué)家喬治·摩爾看來,,不論是從功利論還是道義論出發(fā),,一個行為是“正當(dāng)?shù)摹痹诤艽蟪潭壬暇褪侵浮斑@一行為會產(chǎn)生可能的最大總量的善”,而“我”應(yīng)當(dāng)按此善的原則實施某一行為,。
2015年5月,,美國人約書亞·布朗在使用特斯拉的“自動駕駛”模式時遭遇嚴重車禍身亡,成為人工智能發(fā)展中的重要事件,。該事故歷經(jīng)了十個多月的周密調(diào)查,,最后歸責(zé)為駕駛員過于信任人工智能,手沒握住方向盤,,人工智能得以免責(zé),。不久的將來,人工智能必會讓我們可完全擺脫方向盤,,智能駕駛系統(tǒng)由廠商的機器人制造,,其算法不斷自我進化,無縫嵌入龐大的物聯(lián)網(wǎng)中,,行進于更多智能體交互的開放環(huán)境,,并與它們共同形成了一個不斷自我演化的復(fù)雜算法整體。在這一整體中,,廠商,、機器人、使用者,、眾多智能體等都是造就整體的個體,,但并不存在對整體負責(zé)的“主體”,此時我們在倫理上可能面臨根本的挑戰(zhàn):智能行為既不遵循行為與效果之間的直接對應(yīng),,也不遵循行為與主體之間的必然聯(lián)系,,我們該如何做出一個恰當(dāng)?shù)牡赖屡卸ǎ咳绻悄苄袨榈挠楷F(xiàn)是理性原則的失效,,我們?nèi)绾螐男袨樵瓌t的角度來評判其行為的善,,又如何能通過道德代碼的嵌入來使之成為善的算法?如果道德主體實質(zhì)上是諸多分布式智能體的組織過程,,那么什么是“我”的正當(dāng)行為呢,?面對人工智能的這些深層挑戰(zhàn),最為重要的不是一味地退縮和擔(dān)憂,,而是在挑戰(zhàn)中與其共同進化和成長,。
(作者:劉勁楊,系中國人民大學(xué)哲學(xué)院副教授)