AI若要真正賦能全人類,,讓每個人都能用得上,、用得起大模型和通用人工智能,高效性是關鍵。智能革命需要像信息革命一樣,,不斷提高能力密度,降低計算成本,,使大模型更加普惠,。
清華大學長聘副教授劉知遠在一場由中國計算機學會青年計算機科技論壇策劃的直播活動中表示,DeepSeek R1的開源標志著人工智能領域再次迎來了類似2023年初ChatGPT的時刻,,展示了強大的深度思考能力,。這場直播的主題為“夜話DeepSeek: 技術原理與未來方向”,參與討論的還有復旦大學教授邱錫鵬和清華大學教授翟季冬等,。
劉知遠認為,,DeepSeek V3展示了如何以十分之一甚至更少的成本達到GPT-4和GPT-4o水平的能力。DeepSeek R1的成功在于它通過純粹的強化學習技術復現(xiàn)了OpenAI o1的深度推理能力,,并且開源并發(fā)布了詳細的技術介紹,。這不僅證明了OpenAI不開源、不公開技術細節(jié)且定價過高的策略存在缺陷,,還為行業(yè)做出了重要貢獻,。
DeepSeek R1的訓練流程有兩個亮點:一是基于規(guī)則的方法實現(xiàn)了大規(guī)模強化學習,二是將強化學習技術泛化到多個領域,,使其在實際應用中表現(xiàn)出色,。這種泛化能力通過兩個階段實現(xiàn):首先生成帶有深度推理能力的數(shù)據(jù),然后通過強化學習進一步訓練,,最終得到具有強大泛化能力的強推理模型,。
DeepSeek R1的成功還在于其開源性質(zhì),使得全球用戶能夠使用并感受到深度思考的能力,。相比之下,,OpenAI選擇不開源且收費高昂,限制了其普及程度,。因此,,DeepSeek R1在全球范圍內(nèi)引起了廣泛關注。
此外,,DeepSeek V3和R1的發(fā)展也啟示我們,,未來的人工智能發(fā)展應追求更高的能力密度,,以更低的成本實現(xiàn)大模型的高效發(fā)展。類似于信息革命中的摩爾定律,,大模型的能力密度也在以指數(shù)級增長,。這意味著每100天左右,我們可以用一半的算力和參數(shù)實現(xiàn)相同的能力,。