法學(xué)碩士生小昭在寫論文時(shí)發(fā)現(xiàn),,AI生成的內(nèi)容有很多是錯(cuò)誤的。特別是在處理“深度偽造”的法律問題時(shí),,AI會(huì)生成虛假的法律條例和案例,。她還發(fā)現(xiàn),,AI喜歡引用過于具體的數(shù)據(jù),這些數(shù)據(jù)明顯是編造的。盡管如此,,小昭仍然依賴DeepSeek,、豆包、Kimi等AI工具來輔助寫作,,但她每次看到DeepSeek引用的內(nèi)容都要重新檢索確認(rèn)真實(shí)性,。
小昭的感受并不虛妄。在Github上的一個(gè)名為Vectara的大模型幻覺測(cè)試排行榜中,,2025年1月發(fā)布的DeepSeek R1,,幻覺率高達(dá)14.3%,遠(yuǎn)高于其他國際先進(jìn)大模型,。張俊林解釋,,DeepSeek生成的內(nèi)容比一般AI應(yīng)用更長,更容易出錯(cuò),。此外,,DeepSeek在生成答案時(shí)展現(xiàn)出很強(qiáng)的創(chuàng)造性,這與強(qiáng)調(diào)信息精確的要求相悖,。
清華大學(xué)團(tuán)隊(duì)在2025年2月發(fā)布《DeepSeek與AI幻覺》報(bào)告,,將AI幻覺分為兩類:事實(shí)性幻覺和邏輯性幻覺。香港科技大學(xué)團(tuán)隊(duì)的研究指出,,導(dǎo)致AI幻覺的原因包括數(shù)據(jù)源問題,、編碼器設(shè)計(jì)問題、解碼器錯(cuò)誤解碼等,。從AI大模型原理的角度看,,AI幻覺被業(yè)界認(rèn)為是AI擁有智能的體現(xiàn)。出門問問大模型團(tuán)隊(duì)前工程副總裁李維解釋,,幻覺的本質(zhì)是補(bǔ)白,,是腦補(bǔ)。
AI自己也承認(rèn)幻覺的存在,。在深度思索模式下,,DeepSeek列出了自己的反思,表示知識(shí)邊界限制和生成機(jī)制特性導(dǎo)致了這一結(jié)果,。盡管AI的幻覺在某些科研工作中有用,,如新分子的發(fā)現(xiàn),但解決或改善幻覺問題仍非常重要,。美國知名律師事務(wù)所Morgan & Morgan警告律師不要在法庭文件中使用AI生成的虛假信息,,否則可能面臨嚴(yán)重后果??萍脊疽苍趪L試通過檢索增強(qiáng)生成技術(shù)(RAG)等方式減少幻覺的產(chǎn)生,,但目前還沒有根除方法,。
OpenAI華人科學(xué)家翁荔建議,確保模型輸出是事實(shí)性的并可以通過外部世界知識(shí)進(jìn)行驗(yàn)證,。谷歌的Gemini模型提供了“雙重核查響應(yīng)”功能,,以幫助用戶辨別內(nèi)容的真實(shí)性。這些努力都在提醒人們不要全然相信AI,。