DeepSeek R2的研究成果已經(jīng)接近,。最近,,DeepSeek和清華大學(xué)的研究者發(fā)表了一篇論文,探討了獎勵模型在推理時的Scaling方法,。
強(qiáng)化學(xué)習(xí)(RL)已廣泛應(yīng)用于大規(guī)模語言模型(LLM)的后訓(xùn)練階段。通過RL激勵LLM的推理能力表明,,采用合適的學(xué)習(xí)方法可以實(shí)現(xiàn)有效的推理時可擴(kuò)展性,。然而,RL面臨的一個關(guān)鍵挑戰(zhàn)是在多種領(lǐng)域中為LLM獲得準(zhǔn)確的獎勵信號,。
研究者發(fā)現(xiàn),,在獎勵建模(RM)方法上采用點(diǎn)式生成式獎勵建模(GRM),可以提升模型對不同輸入類型的靈活適應(yīng)能力,,并具備推理階段可擴(kuò)展的潛力,。為此,他們提出了一種自我原則點(diǎn)評調(diào)優(yōu)(SPCT)的學(xué)習(xí)方法,。這種方法通過在線RL訓(xùn)練促進(jìn)GRM生成具備可擴(kuò)展獎勵能力的行為,,即能夠自適應(yīng)生成評判原則并準(zhǔn)確生成點(diǎn)評內(nèi)容,從而得到DeepSeek-GRM模型,。
DeepSeek-GRM-27B是基于Gemma-2-27B經(jīng)過SPCT后訓(xùn)練的,。實(shí)驗(yàn)結(jié)果表明,SPCT顯著提高了GRM的質(zhì)量和可擴(kuò)展性,,在多個綜合RM基準(zhǔn)測試中優(yōu)于現(xiàn)有方法和模型,。研究者還比較了DeepSeek-GRM-27B與671B更大模型的推理時間擴(kuò)展性能,發(fā)現(xiàn)它在模型大小上的訓(xùn)練時間擴(kuò)展性能更好。此外,,他們引入了一個元獎勵模型(meta RM)來引導(dǎo)投票過程,,以提升擴(kuò)展性能。
研究者的貢獻(xiàn)包括:提出了一種新方法——自我原則點(diǎn)評調(diào)優(yōu)(SPCT),,用于推動通用獎勵建模在推理階段實(shí)現(xiàn)有效的可擴(kuò)展性,;SPCT顯著提升了GRM在獎勵質(zhì)量和推理擴(kuò)展性能方面的表現(xiàn),超過了現(xiàn)有方法及多個強(qiáng)勁的公開模型,;將SPCT的訓(xùn)練流程應(yīng)用于更大規(guī)模的LLM,,并發(fā)現(xiàn)相比于訓(xùn)練階段擴(kuò)大模型參數(shù)量,推理階段的擴(kuò)展策略在性能上更具優(yōu)勢,。
英偉達(dá)在NVIDIA GTC 2025上宣布,,其NVIDIA Blackwell DGX系統(tǒng)創(chuàng)下DeepSeek-R1大模型推理性能的世界紀(jì)錄
2025-03-20 09:03:59英偉達(dá)創(chuàng)滿血DeepSeek推理世界紀(jì)錄DeepSeek震動硅谷,其高性價(jià)比的訓(xùn)練技術(shù)引發(fā)了市場的廣泛關(guān)注
2025-02-02 11:44:50DeepSeek利好哪些AI基建產(chǎn)業(yè)鏈環(huán)節(jié)