最近,來(lái)自中國(guó)杭州的初創(chuàng)公司深度求索(DeepSeek)發(fā)布了兩款大語(yǔ)言模型,在全球科技界引起廣泛關(guān)注,。這兩款模型性能可與美國(guó)科技巨頭開(kāi)發(fā)的主流工具相媲美,,但研發(fā)成本和所需算力卻大大降低。
2025年1月20日,,DeepSeek發(fā)布了部分開(kāi)源的“推理”模型DeepSeek-R1,該模型能夠解決一些科學(xué)問(wèn)題,水平接近OpenAI于2024年底發(fā)布的GPT-o1,。幾天后的1月28日,,DeepSeek又推出了Janus-Pro-7B,這是一款根據(jù)文本提示生成圖像的模型,,其性能與OpenAI的DALL-E 3以及Stability AI的Stable Diffusion相當(dāng),。
國(guó)際頂尖學(xué)術(shù)期刊Nature在其官網(wǎng)連續(xù)發(fā)布了三篇關(guān)于DeepSeek的文章。1月29日的文章提到,,科學(xué)家們紛紛涌入DeepSeek,,從AI專(zhuān)家到數(shù)學(xué)家再到認(rèn)知神經(jīng)學(xué)家,他們對(duì)DeepSeek-R1的高性能和低成本感到驚嘆,。次日的文章則強(qiáng)調(diào),,DeepSeek-R1執(zhí)行推理任務(wù)的水平與OpenAI的GPT o1相當(dāng),并且向研究人員開(kāi)源,,相比之下,,OpenAI推出的GPT o1及最新成果o3基本上都是黑匣子。
DeepSeek-R1的成本也令人印象深刻,。盡管DeepSeek尚未公布訓(xùn)練DeepSeek-R1的全部成本,,但據(jù)估計(jì),其算力租賃費(fèi)用約為600萬(wàn)美元,,而Meta公司訓(xùn)練Llama 3.1 405B的算力是其11倍,,訓(xùn)練成本超過(guò)6000萬(wàn)美元。此外,,使用DeepSeek-R1界面的用戶(hù)只需支付運(yùn)行ChatGPT o1費(fèi)用的不到三十分之一,。DeepSeek還創(chuàng)建了DeepSeek-R1的迷你“蒸餾”版本,以便算力有限的研究人員也能使用該模型,。
另一篇文章分析了中國(guó)如何創(chuàng)造出震驚世界的AI模型DeepSeek,,指出政策支持、大量資金以及眾多AI專(zhuān)業(yè)人才幫助中國(guó)企業(yè)建立了先進(jìn)的大語(yǔ)言模型,。國(guó)內(nèi)研究人員表示,,這家初創(chuàng)企業(yè)的成功在意料之中,符合政府成為全球人工智能領(lǐng)導(dǎo)者的雄心,。中國(guó)科學(xué)院計(jì)算技術(shù)研究所副所長(zhǎng)陳云霽研究員指出,,鑒于中國(guó)在開(kāi)發(fā)大語(yǔ)言模型上的巨額投資和大量博士人才,像DeepSeek這樣的公司在中國(guó)出現(xiàn)是不可避免的,。
事實(shí)上,,阿里巴巴也在1月29日發(fā)布了迄今為止最先進(jìn)的大語(yǔ)言模型Qwen2.5-Max,稱(chēng)其性能優(yōu)于GPT-4o,、DeepSeek-V3以及Llama-3.1-405B,。上周,月之暗面聯(lián)合字節(jié)跳動(dòng)發(fā)布了新的推理模型Kimi 1.5和Kimi 1.5 1.5-pro,,在某些基準(zhǔn)測(cè)試中的表現(xiàn)優(yōu)于GPT-o1,。