DeepSeek R1的推出給全球AI行業(yè)帶來了新的變數(shù)。面對這一沖擊,,美國兩大AI巨頭Anthropic與OpenAI迅速做出回應(yīng),,試圖緩解市場對其技術(shù)領(lǐng)先地位的擔(dān)憂。
周三,,Anthropic首席執(zhí)行官達(dá)里奧·阿莫迪發(fā)布了一篇長文討論了DeepSeek的進(jìn)展,。他指出,DeepSeek并沒有“用600萬美元做到美國AI公司花費(fèi)數(shù)十億美元才能實(shí)現(xiàn)的事情”,。以Anthropic為例,,Claude 3.5 Sonnet是一個(gè)中等規(guī)模的模型,,訓(xùn)練成本達(dá)數(shù)千萬美元,遠(yuǎn)非數(shù)十億美元級(jí)別,。他認(rèn)為DeepSeek的訓(xùn)練成本降低符合行業(yè)趨勢,,并不代表突破性的技術(shù)成就。如果AI訓(xùn)練成本每年下降4倍,,而DeepSeek-V3的訓(xùn)練成本比一年前開發(fā)的美國當(dāng)前模型低約8倍,,這完全符合正常趨勢。即使接受DeepSeek的訓(xùn)練成本數(shù)據(jù),,他們也只是處于趨勢線上,甚至可能還未完全達(dá)到,。
此前一天,,OpenAI首席研究員Mark Chen也對DeepSeek R1做出回應(yīng),其態(tài)度既肯定又帶有一絲微妙,。Chen承認(rèn)DeepSeek“獨(dú)立發(fā)現(xiàn)了OpenAI在o1模型研發(fā)過程中的一些核心理念”,,但他將焦點(diǎn)轉(zhuǎn)移到成本問題上,認(rèn)為“外界對成本優(yōu)勢的解讀有些過頭”,。他還提到了“蒸餾技術(shù)”的成熟和“成本與能力解耦”的趨勢,,強(qiáng)調(diào)OpenAI在模型壓縮和優(yōu)化技術(shù)方面的探索。他表示,,低成本服務(wù)模型并不意味著擁有更強(qiáng)的模型能力,。OpenAI將繼續(xù)在降低成本和提升能力兩個(gè)方向上努力,并承諾今年會(huì)發(fā)布更優(yōu)秀的模型,。
紐約大學(xué)教授,、AI專家Gary Marcus則認(rèn)為,DeepSeek對OpenAI的影響可能比想象中更大,。他指出,,DeepSeek基本上免費(fèi)提供了OpenAI想要收費(fèi)的東西,這可能會(huì)嚴(yán)重影響OpenAI的商業(yè)模式,。此外,,DeepSeek比OpenAI更開放,這將吸引更多人才,。Marcus質(zhì)疑OpenAI 1570億美元的估值,,在每年損失約50億美元的情況下,這一估值難以證明合理性,。
阿莫迪進(jìn)一步解釋了AI發(fā)展的三大定律:規(guī)模法則,、計(jì)算成本的下降和訓(xùn)練范式的變化。規(guī)模法則表明,,訓(xùn)練規(guī)模越大,,AI在一系列認(rèn)知任務(wù)上的表現(xiàn)越穩(wěn)定,、越出色。計(jì)算成本的下降則是由于算法和硬件的改進(jìn),,使得AI訓(xùn)練的計(jì)算成本每年下降約4倍,。訓(xùn)練范式的改變則體現(xiàn)在從預(yù)訓(xùn)練到強(qiáng)化學(xué)習(xí)的發(fā)展。這些因素有助于理解DeepSeek最近的發(fā)布,。盡管DeepSeek在某些方面表現(xiàn)出色,,但并未從根本上改變LLM的經(jīng)濟(jì)性,它只是持續(xù)成本降低曲線上一個(gè)預(yù)期的點(diǎn),。不同的是,,這次第一個(gè)展示預(yù)期成本降低的公司是中國的,這在地緣政治上具有重要意義,。美國公司很快也會(huì)跟上這一趨勢,。