如何建立一個(gè)足以控制超級(jí)智能并使其為人類服務(wù)的技術(shù)治理體制,同時(shí)使其成為國(guó)家治理體系的有機(jī)組成部分,仍需在未來(lái)找到確切的答案,?!按笫澜缒P汀敝砸l(fā)關(guān)注,在于其直接面對(duì)了當(dāng)前人工智能的一個(gè)關(guān)鍵難點(diǎn):如何令A(yù)I認(rèn)識(shí)和理解世界,。當(dāng)前,智能體研究的兩大領(lǐng)域——強(qiáng)化學(xué)習(xí)與機(jī)器人——都在關(guān)注如何形成一個(gè)足夠準(zhǔn)確的“世界模型”。
2024年,,人們見證了Sora、Germini,、GPT-4o等新的大模型問(wèn)世,,國(guó)產(chǎn)大模型也在技術(shù)水平上不斷接近OpenAI。雖然過(guò)去一年并未等來(lái)GPT-5這樣的重磅產(chǎn)品,,但人工智能的應(yīng)用仍在不斷加速演進(jìn),,呈現(xiàn)百花齊放之勢(shì)。2025年,,通用人工智能之后的新紅線,、具身智能和大世界模型的研發(fā),將獲得各方更多的關(guān)注,。
2024年9月,,OpenAI總裁薩姆·奧爾特曼在以自己名字命名的網(wǎng)站上發(fā)表了一篇隨筆性質(zhì)的文章《智能時(shí)代》,認(rèn)為超級(jí)人工智能(ASI)可能會(huì)在幾千天或更長(zhǎng)時(shí)間內(nèi)到來(lái)。關(guān)于什么是超級(jí)智能及其與此前廣泛討論的通用人工智能(AGI)的區(qū)別,,引發(fā)了各方討論,。牛津大學(xué)哲學(xué)家尼克·博斯特羅姆在其專著《超級(jí)智能:路徑、危險(xiǎn),、策略》中定義超級(jí)智能為“在幾乎所有人類感興趣的領(lǐng)域都大大超過(guò)人類認(rèn)知能力的智能體”,。書中引用一則歐洲寓言,生動(dòng)地映照著當(dāng)前人類面對(duì)ASI時(shí)的兩難處境:麻雀?jìng)円庖姴灰?,有的認(rèn)為應(yīng)當(dāng)先考慮好如何不讓長(zhǎng)大后的貓頭鷹吃掉它們,,否則便不應(yīng)將它養(yǎng)大;有的則認(rèn)為不把貓頭鷹養(yǎng)大便永遠(yuǎn)無(wú)法知道馴服它的方法,。這則寓言并未給出麻雀一家的結(jié)局,,而今人類正如故事里的麻雀一樣,無(wú)法確定自身在面對(duì)知識(shí)儲(chǔ)備,、認(rèn)知能力和反應(yīng)速度均大大超過(guò)人類的ASI時(shí),,是否有辦法控制其不對(duì)人類造成危害。