在人工智能飛速發(fā)展的當(dāng)下,,對(duì)于廣大學(xué)生和科研工作者而言,一個(gè)關(guān)鍵問題隨之而來:
借助這樣的前沿大模型寫論文,真的靠譜嗎,?
3月28日,,話題#防止DeepSeek亂編文獻(xiàn)的方法#沖上熱搜。記者注意到,,用AI工具寫論文“被坑”的經(jīng)歷,,并非鮮見。
問AI一個(gè)問題,,它給了你一個(gè)特別詳細(xì),、豐富,看上去好有邏輯的答案,。
但當(dāng)我們?nèi)ズ藢?shí)時(shí),,卻發(fā)現(xiàn)這些信息完全是虛構(gòu)的?
這就是著名的“AI幻覺”現(xiàn)象,。
AI幻覺指的是AI會(huì)生成看似合理但實(shí)際確實(shí)錯(cuò)誤的信息,,最常見的表現(xiàn)就是會(huì)編造一些不存在的事實(shí)或者細(xì)節(jié)。
據(jù)“科普中國”,,造成AI幻覺問題的成因很多,,例如:基于統(tǒng)計(jì)關(guān)系的預(yù)測(cè);訓(xùn)練數(shù)據(jù)的局限性,;過擬合問題,,即因?yàn)橛涀×颂噱e(cuò)誤或者無關(guān)緊要的東西,從而讓AI對(duì)訓(xùn)練數(shù)據(jù)中的噪聲過于敏感,;有限的上下文窗口,;生成流暢回答的設(shè)計(jì)等等。
近日,,中國青年報(bào)邀請(qǐng)了3位專家學(xué)者,,一起聊聊技術(shù)浪潮中如何守護(hù)年輕人的思辨能力。
中國人民大學(xué)新聞學(xué)院教授盧家銀就指出,,在知識(shí)建構(gòu)上,,AI生成的虛假學(xué)術(shù)成果,可能扭曲青年對(duì)科學(xué)方法論的理解,,削弱其“假設(shè)-驗(yàn)證”的科研邏輯訓(xùn)練,。
在思維發(fā)展上,AI謠言通過算法推薦的“信息繭房”形成邏輯閉環(huán),,不利于批判性思維的培養(yǎng),。
北京師范大學(xué)教育學(xué)部教授、教育技術(shù)學(xué)北京市重點(diǎn)實(shí)驗(yàn)室副主任李艷燕建議,,年輕人可以把AI看作一位平等對(duì)話的智者,,通過引導(dǎo)與AI的對(duì)話互動(dòng),,促進(jìn)個(gè)體思維鏈的形成,并校準(zhǔn)認(rèn)知偏差,。這種去權(quán)威化的思辨訓(xùn)練,,可以幫助年輕人在與AI的對(duì)話中保持獨(dú)立判斷,實(shí)現(xiàn)認(rèn)知躍遷,。