DeepSeek R1的推出給全球AI行業(yè)帶來(lái)了新的變數(shù)。面對(duì)這一沖擊,美國(guó)兩大AI巨頭Anthropic與OpenAI迅速做出回應(yīng),,試圖緩解市場(chǎng)對(duì)其技術(shù)領(lǐng)先地位的擔(dān)憂,。
周三,,Anthropic首席執(zhí)行官達(dá)里奧·阿莫迪發(fā)布了一篇長(zhǎng)文討論了DeepSeek的進(jìn)展。他指出,DeepSeek并沒(méi)有“用600萬(wàn)美元做到美國(guó)AI公司花費(fèi)數(shù)十億美元才能實(shí)現(xiàn)的事情”。以Anthropic為例,,Claude 3.5 Sonnet是一個(gè)中等規(guī)模的模型,訓(xùn)練成本達(dá)數(shù)千萬(wàn)美元,,遠(yuǎn)非數(shù)十億美元級(jí)別,。他認(rèn)為DeepSeek的訓(xùn)練成本降低符合行業(yè)趨勢(shì),并不代表突破性的技術(shù)成就,。如果AI訓(xùn)練成本每年下降4倍,,而DeepSeek-V3的訓(xùn)練成本比一年前開(kāi)發(fā)的美國(guó)當(dāng)前模型低約8倍,這完全符合正常趨勢(shì),。即使接受DeepSeek的訓(xùn)練成本數(shù)據(jù),,他們也只是處于趨勢(shì)線上,甚至可能還未完全達(dá)到。
此前一天,,OpenAI首席研究員Mark Chen也對(duì)DeepSeek R1做出回應(yīng),,其態(tài)度既肯定又帶有一絲微妙。Chen承認(rèn)DeepSeek“獨(dú)立發(fā)現(xiàn)了OpenAI在o1模型研發(fā)過(guò)程中的一些核心理念”,,但他將焦點(diǎn)轉(zhuǎn)移到成本問(wèn)題上,認(rèn)為“外界對(duì)成本優(yōu)勢(shì)的解讀有些過(guò)頭”,。他還提到了“蒸餾技術(shù)”的成熟和“成本與能力解耦”的趨勢(shì),,強(qiáng)調(diào)OpenAI在模型壓縮和優(yōu)化技術(shù)方面的探索。他表示,,低成本服務(wù)模型并不意味著擁有更強(qiáng)的模型能力,。OpenAI將繼續(xù)在降低成本和提升能力兩個(gè)方向上努力,并承諾今年會(huì)發(fā)布更優(yōu)秀的模型,。
紐約大學(xué)教授,、AI專家Gary Marcus則認(rèn)為,DeepSeek對(duì)OpenAI的影響可能比想象中更大,。他指出,,DeepSeek基本上免費(fèi)提供了OpenAI想要收費(fèi)的東西,這可能會(huì)嚴(yán)重影響OpenAI的商業(yè)模式,。此外,,DeepSeek比OpenAI更開(kāi)放,這將吸引更多人才,。Marcus質(zhì)疑OpenAI 1570億美元的估值,,在每年損失約50億美元的情況下,這一估值難以證明合理性,。
阿莫迪進(jìn)一步解釋了AI發(fā)展的三大定律:規(guī)模法則,、計(jì)算成本的下降和訓(xùn)練范式的變化。規(guī)模法則表明,,訓(xùn)練規(guī)模越大,,AI在一系列認(rèn)知任務(wù)上的表現(xiàn)越穩(wěn)定、越出色,。計(jì)算成本的下降則是由于算法和硬件的改進(jìn),,使得AI訓(xùn)練的計(jì)算成本每年下降約4倍。訓(xùn)練范式的改變則體現(xiàn)在從預(yù)訓(xùn)練到強(qiáng)化學(xué)習(xí)的發(fā)展,。這些因素有助于理解DeepSeek最近的發(fā)布,。盡管DeepSeek在某些方面表現(xiàn)出色,但并未從根本上改變LLM的經(jīng)濟(jì)性,,它只是持續(xù)成本降低曲線上一個(gè)預(yù)期的點(diǎn),。不同的是,這次第一個(gè)展示預(yù)期成本降低的公司是中國(guó)的,,這在地緣政治上具有重要意義,。美國(guó)公司很快也會(huì)跟上這一趨勢(shì),。