正因如此,AI有時(shí)會(huì)編造出聽(tīng)起來(lái)有模有樣,、但實(shí)際上根本不存在的新聞、論文,、人物甚至法律條文。它的“自信”和“權(quán)威感”來(lái)源于算法的語(yǔ)言組織能力,,而不是事實(shí)核驗(yàn),。
問(wèn)題源于數(shù)據(jù)與訓(xùn)練方式
據(jù)介紹,AI出現(xiàn)“幻覺(jué)”的根源在于訓(xùn)練數(shù)據(jù)的復(fù)雜性和模型的預(yù)測(cè)機(jī)制,。
“它吃進(jìn)去了各種真實(shí)的,、不真實(shí)的、過(guò)時(shí)的,、主觀的甚至矛盾的信息,,但沒(méi)有一個(gè)內(nèi)部機(jī)制告訴它哪個(gè)信息是真的?!庇绕湓陂_(kāi)放領(lǐng)域中,,當(dāng)數(shù)據(jù)質(zhì)量參差不齊,AI就會(huì)像一個(gè)讀書(shū)太雜但沒(méi)分清真假內(nèi)容的學(xué)生,,在回答問(wèn)題時(shí)憑印象“編”出一套看似有邏輯的說(shuō)辭,。
此外,目前AI模型在訓(xùn)練階段主要依賴(lài)“語(yǔ)言預(yù)測(cè)”這一核心目標(biāo),,它并不涉及嚴(yán)謹(jǐn)?shù)氖聦?shí)驗(yàn)證體系,。即便在后期通過(guò)“對(duì)齊”和“微調(diào)”來(lái)盡量減少錯(cuò)誤回答,但在大規(guī)模開(kāi)放使用時(shí),,這些措施依然難以完全杜絕AI胡編亂造的行為,。
“信任崩塌”與“技術(shù)追責(zé)”
2025年,人工智能的觸角已延伸至醫(yī)療診斷,、在線教育,、金融風(fēng)控等重要領(lǐng)域。一個(gè)看似無(wú)害的小錯(cuò)誤,,可能引發(fā)用戶(hù)財(cái)產(chǎn)損失,、健康誤導(dǎo)甚至司法風(fēng)險(xiǎn)。AI幻覺(jué)也不再是個(gè)別現(xiàn)象,,而逐漸演變?yōu)楣舶踩[患,。
“你不能指望一個(gè)AI去承認(rèn)‘我不知道’,它的天性就是給出一個(gè)答案,?!边@位技術(shù)人員強(qiáng)調(diào),這也正是用戶(hù)在使用時(shí)最容易被誤導(dǎo)的地方——AI總會(huì)給出回答,,但你永遠(yuǎn)不知道它是不是對(duì)的,。