法學碩士生小昭在寫論文時發(fā)現(xiàn),AI生成的內(nèi)容有很多是錯誤的,。特別是在處理“深度偽造”的法律問題時,,AI會生成虛假的法律條例和案例,。她還發(fā)現(xiàn),,AI喜歡引用過于具體的數(shù)據(jù),,這些數(shù)據(jù)明顯是編造的,。盡管如此,,小昭仍然依賴DeepSeek、豆包,、Kimi等AI工具來輔助寫作,,但她每次看到DeepSeek引用的內(nèi)容都要重新檢索確認真實性。
小昭的感受并不虛妄,。在Github上的一個名為Vectara的大模型幻覺測試排行榜中,,2025年1月發(fā)布的DeepSeek R1,幻覺率高達14.3%,,遠高于其他國際先進大模型。張俊林解釋,,DeepSeek生成的內(nèi)容比一般AI應用更長,,更容易出錯。此外,,DeepSeek在生成答案時展現(xiàn)出很強的創(chuàng)造性,,這與強調(diào)信息精確的要求相悖,。
清華大學團隊在2025年2月發(fā)布《DeepSeek與AI幻覺》報告,將AI幻覺分為兩類:事實性幻覺和邏輯性幻覺,。香港科技大學團隊的研究指出,,導致AI幻覺的原因包括數(shù)據(jù)源問題、編碼器設計問題,、解碼器錯誤解碼等,。從AI大模型原理的角度看,AI幻覺被業(yè)界認為是AI擁有智能的體現(xiàn),。出門問問大模型團隊前工程副總裁李維解釋,,幻覺的本質(zhì)是補白,是腦補,。
AI自己也承認幻覺的存在,。在深度思索模式下,DeepSeek列出了自己的反思,,表示知識邊界限制和生成機制特性導致了這一結果,。盡管AI的幻覺在某些科研工作中有用,如新分子的發(fā)現(xiàn),,但解決或改善幻覺問題仍非常重要,。美國知名律師事務所Morgan & Morgan警告律師不要在法庭文件中使用AI生成的虛假信息,否則可能面臨嚴重后果,??萍脊疽苍趪L試通過檢索增強生成技術(RAG)等方式減少幻覺的產(chǎn)生,但目前還沒有根除方法,。
OpenAI華人科學家翁荔建議,,確保模型輸出是事實性的并可以通過外部世界知識進行驗證。谷歌的Gemini模型提供了“雙重核查響應”功能,,以幫助用戶辨別內(nèi)容的真實性,。這些努力都在提醒人們不要全然相信AI。
??10月8日,,美國國務院發(fā)言人馬修·米勒在例行記者會上遭記者怒懟,。該記者稱美國對以色列在加沙地帶實施的“種族滅絕”負有責任,但美國卻一直逃避,。
2024-10-09 13:50:47美國務院發(fā)言人被記者炮轟