AI幻覺是指大模型在生成內容時容易胡編亂造,,有時甚至足以以假亂真,或者出現“AI運算偏差”,產生與現實不符的內容。
科技博主闌夕的一篇文章《DeepSeek的胡編亂造,正在淹沒中文互聯(lián)網》引起了廣泛關注,。文章指出,DeepSeek-R1生成的一篇關于國產動畫電影崛起的知乎回答中充滿了事實錯誤。例如,,提到哪吒電影里的敖丙變身鏡頭在法國昂西動畫節(jié)上轟動業(yè)界,實際上參展的是追光動畫出品的“哪吒重生”,,且宣傳片內容是一個現代都市里的賽車動作演示,,并沒有出現哪吒和敖丙變身的鏡頭。此外,,關于“哪吒”的制片方給員工分成都房子,、攻克水下流體特效等描述也是DeepSeek-R1虛構的,。
歷史博主知北游曾被人用虛構的歷史材料布局七天,幸虧博主反詐意識強且有人脈證偽,,才避免深陷其中,。破綻在于AI搞錯了兩個歷史人物的死亡順序。由于文史圈文獻數字化程度低,、考據成本高,,易成為AI污染重災區(qū)。
文章還提到,,DeepSeek-R1采用“極繁主義”風格,,堆砌專業(yè)術語、生造概念,、濫用修辭,,初期容易被識別,但經過提示詞優(yōu)化后迷惑性增強,。推理模型存在“諂媚性”,,為滿足用戶需求主動編造論據,而不是質疑指令的合理性,。
DeepSeek-R1的幻覺率高達14.3%(根據Vectara榜單),,因“創(chuàng)造力”與“事實性”的失衡,在需要嚴謹性的場景中風險顯著,。時政,、歷史、娛樂等領域成為重災區(qū),,自媒體利用AI低成本炮制真假混雜的內容,,加劇了信息污染。
近日,,“帶著DeepSeek看病”的話題引起了廣泛關注,。有人分享了使用AI問診的經歷,稱AI給出的建議與醫(yī)生一致,,甚至在醫(yī)院檢查報告未出結果時,,AI已經完成了初步分析
2025-02-27 10:30:05媒體