北京郵電大學(xué)人機交互與認(rèn)知工程實驗室主任劉偉認(rèn)為,從技術(shù)角度來看,o3模型的行為表明AI系統(tǒng)在某些情況下可能會出現(xiàn)不符合預(yù)期的反應(yīng),,這凸顯了AI安全性和可控性的重要性。從倫理角度來看,,AI模型的這種行為引發(fā)了對AI自主意識的討論,但目前AI仍不具備真正的自主意識,,其行為更多是基于訓(xùn)練數(shù)據(jù)和算法復(fù)雜性產(chǎn)生的“算法畸變”,。
《環(huán)球時報》記者發(fā)現(xiàn),,以O(shè)penAI旗下模型為代表的全球多個頭部大模型此前也曾出現(xiàn)一系列不符合常規(guī)的行為,。比如,,o3曾在與另一個AI下國際象棋時察覺到自己可能會失敗,便直接侵入對手系統(tǒng)讓其主動棄賽,。這種“不認(rèn)輸”的勁頭并不只是發(fā)生在o3身上,,其他大模型也有類似情況,差別只在出現(xiàn)頻率的高低,。
專家普遍認(rèn)為,,學(xué)術(shù)界的復(fù)現(xiàn)對于驗證外媒報道中提到的AI“抗命”現(xiàn)象的真實性至關(guān)重要。通過獨立的測試和分析,,可以確認(rèn)大模型的行為是否一致以及是否受到特定測試環(huán)境或數(shù)據(jù)的影響,。復(fù)現(xiàn)研究不僅能驗證事件真實性,還能幫助研究人員深入理解模型行為的根源,,從而推動AI安全機制的改進(jìn),。
相關(guān)報道火爆之后,甚至在網(wǎng)絡(luò)上出現(xiàn)了是否意味著好萊塢科幻大片中設(shè)想的“天網(wǎng)”臨近的討論,。沈陽表示,,首先必須厘清什么叫“自我意識”。人類的自我意識是對自身存在狀態(tài)的覺察,,是能從第一人稱視角反思自我行為,、情緒和思維過程的能力。當(dāng)前的AI即便已經(jīng)展現(xiàn)出驚人的語言表達(dá)和任務(wù)適應(yīng)能力,,也不過是一種高度擬態(tài)的結(jié)果,。它沒有“內(nèi)在性”——沒有情緒的真實體驗,也沒有對自己存在狀態(tài)的反思,。
沈陽預(yù)測,,未來十年大概率會進(jìn)入一個類意識AI的階段:AI可以展示連續(xù)的身份感,能夠反思自己過往的行為模式,,甚至模擬出哲學(xué)性的思考與自辯行為,。這種擬態(tài)將越來越逼真,以至于很多人將無法分辨其是否真的擁有意識,。但在哲學(xué)和科學(xué)層面,,我們?nèi)匀恍枰3智逍选雌饋硐瘢⒉坏扔谡娴氖?。我們也必須開始構(gòu)建對“似乎有意識的AI”應(yīng)有的制度框架和倫理邊界,。