在人工智能飛速發(fā)展的當(dāng)下,,對于廣大學(xué)生和科研工作者而言,,一個關(guān)鍵問題隨之而來:
借助這樣的前沿大模型寫論文,,真的靠譜嗎?
3月28日,,話題#防止DeepSeek亂編文獻(xiàn)的方法#沖上熱搜。記者注意到,,用AI工具寫論文“被坑”的經(jīng)歷,,并非鮮見。
問AI一個問題,,它給了你一個特別詳細(xì)、豐富,,看上去好有邏輯的答案,。
但當(dāng)我們?nèi)ズ藢崟r,卻發(fā)現(xiàn)這些信息完全是虛構(gòu)的,?
這就是著名的“AI幻覺”現(xiàn)象。
AI幻覺指的是AI會生成看似合理但實際確實錯誤的信息,,最常見的表現(xiàn)就是會編造一些不存在的事實或者細(xì)節(jié),。
據(jù)“科普中國”,造成AI幻覺問題的成因很多,例如:基于統(tǒng)計關(guān)系的預(yù)測,;訓(xùn)練數(shù)據(jù)的局限性,;過擬合問題,即因為記住了太多錯誤或者無關(guān)緊要的東西,,從而讓AI對訓(xùn)練數(shù)據(jù)中的噪聲過于敏感,;有限的上下文窗口;生成流暢回答的設(shè)計等等,。
近日,中國青年報邀請了3位專家學(xué)者,,一起聊聊技術(shù)浪潮中如何守護(hù)年輕人的思辨能力,。
中國人民大學(xué)新聞學(xué)院教授盧家銀就指出,在知識建構(gòu)上,,AI生成的虛假學(xué)術(shù)成果,,可能扭曲青年對科學(xué)方法論的理解,削弱其“假設(shè)-驗證”的科研邏輯訓(xùn)練,。