小心AI在胡說八道,!2025年2月,,中國人民大學教授李婷公開辟謠了一組數據——“中國80后累計死亡率為5.20%”。在社交媒體上,,許多“80后”因這組數據感到惋惜。自媒體聲稱:“截至2024年末,,80后的死亡率已經超過70后,,相當于每20個80后中,就有1人已經去世,?!?/p>
李婷教授在接受采訪時表示,這一說法明顯錯誤,,因為專業(yè)統(tǒng)計數據中的死亡率通常用千分率表示,,而不是百分率。她還指出,,國家統(tǒng)計局并未公布2024年的死亡率,,也不會根據“80后”、“90后”等分段公布死亡人數,,因此這一說法毫無數據支撐,。
關于虛假數據的來源,李婷認為可能源于AI大模型出錯,。她在AI大模型中輸入問題:“50后,、60后、70后,、80后,,這幾代人的死亡率分別是多少”,大模型回答:“80后現存2.12億,,存活率94.8%,,死亡率5.2%?!边@種無中生有的能力被稱為“幻覺”,,即AI在遇到不熟悉的問題時編造難以辨明真假的細節(jié)。
新浪新技術研發(fā)負責人張俊林提到,,隨著各個領域加強對AI的接入,,AI幻覺成為需要重視的問題,但目前尚未找到根除辦法,。清華大學長聘副教授陳天昊也表示,,對于學生等特殊人群來說,大模型幻覺問題帶來的風險更大,。例如,,小學生可能和家長一起使用大模型學習知識,但大模型產生的幻覺可能會產生誤導,。
科普作家河森堡在微博中分享了他使用ChatGPT的經歷,。他在讓ChatGPT介紹文物“青銅利簋”時,發(fā)現其將西周文物的來歷編造成商王帝乙祭祀父親帝丁所鑄,,并且標明了錯誤的文獻來源,。在豆瓣,陀思妥耶夫斯基的書迷也發(fā)現AI在使用聯(lián)網搜索功能時不懂裝懂,、捏造細節(jié),。
法學碩士生小昭在寫論文時發(fā)現,AI生成的內容有很多是錯誤的,。特別是在處理“深度偽造”的法律問題時,,AI會生成虛假的法律條例和案例。她還發(fā)現,,AI喜歡引用過于具體的數據,,這些數據明顯是編造的。盡管如此,,小昭仍然依賴DeepSeek,、豆包,、Kimi等AI工具來輔助寫作,但她每次看到DeepSeek引用的內容都要重新檢索確認真實性,。
小昭的感受并不虛妄。在Github上的一個名為Vectara的大模型幻覺測試排行榜中,,2025年1月發(fā)布的DeepSeek R1,,幻覺率高達14.3%,遠高于其他國際先進大模型,。張俊林解釋,,DeepSeek生成的內容比一般AI應用更長,更容易出錯,。此外,,DeepSeek在生成答案時展現出很強的創(chuàng)造性,這與強調信息精確的要求相悖,。
清華大學團隊在2025年2月發(fā)布《DeepSeek與AI幻覺》報告,,將AI幻覺分為兩類:事實性幻覺和邏輯性幻覺。香港科技大學團隊的研究指出,,導致AI幻覺的原因包括數據源問題,、編碼器設計問題、解碼器錯誤解碼等,。從AI大模型原理的角度看,,AI幻覺被業(yè)界認為是AI擁有智能的體現。出門問問大模型團隊前工程副總裁李維解釋,,幻覺的本質是補白,,是腦補。
AI自己也承認幻覺的存在,。在深度思索模式下,,DeepSeek列出了自己的反思,表示知識邊界限制和生成機制特性導致了這一結果,。盡管AI的幻覺在某些科研工作中有用,,如新分子的發(fā)現,但解決或改善幻覺問題仍非常重要,。美國知名律師事務所Morgan & Morgan警告律師不要在法庭文件中使用AI生成的虛假信息,,否則可能面臨嚴重后果??萍脊疽苍趪L試通過檢索增強生成技術(RAG)等方式減少幻覺的產生,,但目前還沒有根除方法。
OpenAI華人科學家翁荔建議,,確保模型輸出是事實性的并可以通過外部世界知識進行驗證,。谷歌的Gemini模型提供了“雙重核查響應”功能,,以幫助用戶辨別內容的真實性。這些努力都在提醒人們不要全然相信AI,。
DeepSeek-R1在某些情況下會出現“胡說八道”的現象,即幻覺,,其幻覺率為14.3%,,遠高于行業(yè)平均水平。這一問題主要源于數據,、模型和應用層的多重因素
2025-03-01 09:18:29分析??10月8日,,美國國務院發(fā)言人馬修·米勒在例行記者會上遭記者怒懟,。該記者稱美國對以色列在加沙地帶實施的“種族滅絕”負有責任,但美國卻一直逃避,。
2024-10-09 13:50:47美國務院發(fā)言人被記者炮轟