但這外星人還告訴你另一件事:它有一臺無所不知的超級計算機,,在一周前對你的選擇做出了預(yù)測。如果超級計算機預(yù)測到你會同時拿走兩個盒子,,那么外星人就不會在第二個盒子里放任何東西,。如果超級計算機預(yù)測到你會只拿盒子B,,那么外星人就在盒子B中放100萬美元。
那么,,你會怎么做,?記住,這臺超級計算機此前從來沒有出過錯,。
這個問題一直困擾著決策理論學(xué)家,。盒子里的東西已經(jīng)確定,外星人無法再對其作出改變,,因此不論預(yù)測結(jié)果如何,,你拿走兩個盒子所得到的錢一定比只拿走盒子B所得的錢更多。
當然,,如果你這樣想,,而計算機也預(yù)測到你會這樣想,那么盒子B就會是空的,,你只能拿到1000美金。
如果計算機的預(yù)測能力真有那么神奇,,你就應(yīng)該只拿走盒子B,,這樣就能得到整整100萬美元,對不對,?
但如果計算機這次錯了呢,?而且,不管怎樣,,計算機過去做出的預(yù)測不能改變現(xiàn)在發(fā)生的事情,,對吧?所以去他媽的預(yù)測,,兩個盒子都拿上,!但……
這種自由意志和天命預(yù)測之間令人發(fā)狂的矛盾,沒能為紐康姆悖論找到一個解決方案,,人們根據(jù)各自所做的決定自稱“單盒黨”或“雙盒黨”,。(我妻子有次宣稱她是個單盒黨,她說:“我相信計算機,?!保?/p>
比起洛可蛇怪,,我更擔心那些自認為已經(jīng)凌駕于傳統(tǒng)道德體系之上的人。
無時間性決策論對紐康姆悖論給出的建議十分明確堅決:拿走盒子B,。但無時間性決策論想得更遠一些,。哪怕外星人嘲笑你說:“計算機說你會把兩個盒子都拿走,所以我沒在盒子B里放東西,!”然后打開盒子B讓你看清其中空無一物,,你仍然應(yīng)該只拿走盒子B,兩手空空地離開,。[我從科學(xué)家加里·德雷舍(Gary Drescher)的《善與真》(Good and Real)一書中借用了這個例子,,該書試圖使用無時間性決策論的一種變體來證明康德倫理體系是真實正確的。]
這一決策的邏輯依據(jù)很難簡單概括,,但一言以蔽之就是,,此時此刻正要做決策的你也許正處于計算機的模擬中。為了做出預(yù)測,,計算機需要模擬宇宙本身,,這也包括你自己。所以,,現(xiàn)在這個時刻的你也許是計算機模擬的產(chǎn)物,,而你接下來所做的將會影響到現(xiàn)實中(或其他現(xiàn)實中)發(fā)生的事。所以拿走盒子B,,這樣真正的你就會進賬整整100萬美元,。
這一切和洛可蛇怪又有什么關(guān)系呢?這個嘛,,洛可蛇怪也給了你兩個盒子,。也許現(xiàn)在的你只是洛可蛇怪運行的模擬程序的產(chǎn)物。也許洛可蛇怪正隱晦地向你提供一種紐康姆悖論的變體,,像這樣:
盒子A中是“窮盡一生幫助創(chuàng)造出洛可蛇怪”,,盒子B中是“什么都不發(fā)生”或“永恒、無視死亡的折磨”,。
洛可蛇怪告訴你,,如果你只拿走盒子B,那么里面就會是“永恒的折磨”,,因為洛可蛇怪真正的愿望是你同時取走盒子A和盒子B,。在這種情況下,你最好確保自己窮盡一生幫助創(chuàng)造出洛可蛇怪,!因為,,假如洛可蛇怪在未來出現(xiàn)(或者更糟:它已然出現(xiàn),且正是眼下這個現(xiàn)實世界的主宰),,發(fā)現(xiàn)你沒選擇幫助它的話,,你可就完蛋了,。
你也許在疑惑為什么論壇用戶那么把這個思想實驗當回事兒,畢竟它顯然十分牽強,。這并不是因為洛可蛇怪真的會出現(xiàn),,甚至不是因為它可能會出現(xiàn)。問題在于,,如果你是無時間性決策論的忠實擁躉,,那么只是想想這種交易就真的會令它更容易發(fā)生。
畢竟,,如果洛可蛇怪發(fā)現(xiàn),,這樣勒索你會使你幫助它誕生,那么作為一個理性的施事者,,它就會勒索你,。問題不在于蛇怪自身,而在于你,。尤德科夫斯基之所以刪除了所有提到洛可蛇怪的帖子,,不是因為他相信它存在或?qū)嬖冢且驗樯吖诌@個想法(和這個想法背后的理念)很危險,。
要注意,,只有當你相信以上所有前提,去和洛可蛇怪做雙盒交易時,,蛇怪才是危險的,。但確實有一些論壇成員相信以上這一切,這就讓洛可蛇怪切實成為了禁忌的知識,。我本來要把它比作洛夫克拉夫特(H,。 P。 Lovecraft)的恐怖小說里的內(nèi)容——有個男人發(fā)現(xiàn)了世界禁忌的真理,,放出了克蘇魯,,陷入瘋癲——但我發(fā)現(xiàn)尤德科夫斯基已經(jīng)替我做了這件事,,他將洛可蛇怪思想實驗比作《死靈之書》(Necronomicon),,也就是洛夫克拉夫特那本充滿了邪惡知識和咒語的著名魔典。洛可本人則將一切怪罪于論壇,,因為說到底,,是這個論壇促使他產(chǎn)生了蛇怪這個想法:“我十分希望我從未遇到這個論壇,它竟產(chǎn)生了那么嚴重的(人類)自毀隱患,。”他這樣寫道,。
以克蘇魯神話聞名的作家洛夫克拉夫特的《死靈之書》,。圖源:Libriproibiti
如果你并不認同洛可蛇怪實驗的理論基礎(chǔ),,也不打算向你永恒的邪惡機器主宰屈服,,那么洛可蛇怪對你就毫無威脅。(說來諷刺,,它只有可能對相信尤德科夫斯基理論的人心理健康產(chǎn)生危害,。)按我朋友的說法,對洛可蛇怪深信不疑可能只意味著他/她“得了自閉癥”,。
但我確實認為這件事背后有個更為嚴肅的問題,,因為埃利澤·尤德科夫斯基和其他所謂的超人類主義者已經(jīng)為他們的項目吸引了大量的聲望和資金,這些聲望和資金主要來自富有的科技迷們,。我認為他們的項目(其主要內(nèi)容似乎就是發(fā)論文,、開會)不太可能創(chuàng)造出洛可蛇怪或是埃利澤大善神。但當一個人/一群人既有創(chuàng)造救世主的野心,,又堅信自己絕對可靠,,還有一大堆錢時,不論當事人的意識形態(tài)如何,,最終結(jié)果永遠很糟糕,,而我不認為尤德科夫斯基和他那伙人會成為例外。
比起洛可蛇怪,,我更擔心那些自認為已經(jīng)凌駕于傳統(tǒng)道德體系之上的人,。尤德科夫斯基和他計劃創(chuàng)造的友好人工智能一樣,是一個道德功利主義者:他相信只要能夠促成最多數(shù)人的最大幸福,,哪怕在過程中有一部分人不得不死去或忍受折磨,,這仍然是道德的。他曾明確表示,,當不得不做出選擇時,,比起讓許多人眼里進灰(公平起見,他說的是非常多的人),,更應(yīng)該選擇折磨某一個人50年,。
誰都不太可能面臨這樣的抉擇,連上帝都不會,,但如果換個情況呢,?假如Slate網(wǎng)站上(譯者注:即本文發(fā)布的網(wǎng)站)有個尖刻的科技版專欄作家寫了一篇文章,內(nèi)容有關(guān)一個能摧毀人們心智的思想實驗,,結(jié)果傷到了讀者,,阻止了歷史向奇點發(fā)展,使友好的人工智能沒法出現(xiàn)呢,?這種情況下,,我生命中任何潛在的幸福加起來都遠遠抵不過我眼下正造成的危害。而假如接受了人工冷凍術(shù)的埃利澤·尤德科夫斯基在奇點后醒來,,決定在模擬中讓我選擇要不要寫這篇專欄文章……拜托了,,無所不能的埃利澤啊,,別折磨我。
來源:利維坦
新華社北京6月1日電 美國研究人員新近發(fā)現(xiàn),,通過轉(zhuǎn)基因手段提高機體“自噬”水平,,促進細胞對內(nèi)部資源的回收利用,可以延長實驗鼠壽命,、提高健康水平