人工智能算法的另一個復(fù)雜性特質(zhì)是算法的自主性,。美國科學(xué)家馮·諾依曼于20世紀(jì)50年代初成功建立了一個能夠自我繁殖的元胞自動機(jī)算法模型,,它成為第一個可以自我進(jìn)化的算法。當(dāng)下人工智能深度學(xué)習(xí)算法可以從海量無標(biāo)注的大數(shù)據(jù)中自我學(xué)習(xí),、自我進(jìn)化,。阿爾法圍棋一代曾依據(jù)人類歷史上的優(yōu)秀棋譜,,對弈了3000萬盤棋,二代強(qiáng)化了自我增強(qiáng)學(xué)習(xí),。如果智能算法的自主性意味著機(jī)器不再是被動的工具,,而是某類主動的、自我進(jìn)化的“生命”(如人工生命),,那么我們是否能說人工智能就是一個具有自我意識,、能夠自我決定的“主體”?以算法的觀念來看,,理性傳統(tǒng)所認(rèn)可的這種“主體”其實是一個能夠協(xié)調(diào)個體自身復(fù)雜行為的中心控制單元,,它擔(dān)負(fù)該個體所有信息的整合和全部行為的控制。強(qiáng)人工智能自主性遵循這一傳統(tǒng),,人們認(rèn)為未來的人工智能不僅具有感知對象,、解決問題的智能,還可能具有感知自我的意識,。弱人工智能的自主性主要是指智能行為的自組織性,,機(jī)器算法會在沒有人類程序員的干預(yù)下自發(fā)學(xué)習(xí),自動處理問題,,以分布式控制算法為其代表,。強(qiáng)人工智能主體在技術(shù)上目前還遙遙無期,常常成為科幻作品的題材,。弱人工智能的分布式控制模式目前已在人工智能領(lǐng)域得到廣泛應(yīng)用,,形成了一種完全不同于傳統(tǒng)的主體觀念。
要回答什么是善的算法,,我們需要追溯倫理學(xué)的一個基礎(chǔ)問題:什么是善的行為,?該問題又可轉(zhuǎn)換為什么是正當(dāng)?shù)男袨椋孔鳛橹黧w的“我”應(yīng)該如何行為,?道義論者更強(qiáng)調(diào)行為原則的正當(dāng),,功利論者更看重行為結(jié)果的正當(dāng)。在英國倫理學(xué)家喬治·摩爾看來,,不論是從功利論還是道義論出發(fā),,一個行為是“正當(dāng)?shù)摹痹诤艽蟪潭壬暇褪侵浮斑@一行為會產(chǎn)生可能的最大總量的善”,而“我”應(yīng)當(dāng)按此善的原則實施某一行為,。
2015年5月,,美國人約書亞·布朗在使用特斯拉的“自動駕駛”模式時遭遇嚴(yán)重車禍身亡,成為人工智能發(fā)展中的重要事件,。該事故歷經(jīng)了十個多月的周密調(diào)查,,最后歸責(zé)為駕駛員過于信任人工智能,手沒握住方向盤,,人工智能得以免責(zé),。不久的將來,人工智能必會讓我們可完全擺脫方向盤,,智能駕駛系統(tǒng)由廠商的機(jī)器人制造,,其算法不斷自我進(jìn)化,無縫嵌入龐大的物聯(lián)網(wǎng)中,,行進(jìn)于更多智能體交互的開放環(huán)境,,并與它們共同形成了一個不斷自我演化的復(fù)雜算法整體。在這一整體中,,廠商,、機(jī)器人、使用者,、眾多智能體等都是造就整體的個體,,但并不存在對整體負(fù)責(zé)的“主體”,此時我們在倫理上可能面臨根本的挑戰(zhàn):智能行為既不遵循行為與效果之間的直接對應(yīng),,也不遵循行為與主體之間的必然聯(lián)系,,我們該如何做出一個恰當(dāng)?shù)牡赖屡卸ǎ咳绻悄苄袨榈挠楷F(xiàn)是理性原則的失效,,我們?nèi)绾螐男袨樵瓌t的角度來評判其行為的善,,又如何能通過道德代碼的嵌入來使之成為善的算法,?如果道德主體實質(zhì)上是諸多分布式智能體的組織過程,那么什么是“我”的正當(dāng)行為呢,?面對人工智能的這些深層挑戰(zhàn),,最為重要的不是一味地退縮和擔(dān)憂,而是在挑戰(zhàn)中與其共同進(jìn)化和成長,。
(作者:劉勁楊,,系中國人民大學(xué)哲學(xué)院副教授)