近日,,《財(cái)富》雜志官網(wǎng)報(bào)道,Cerebras Systems宣布其晶圓級(jí)AI芯片在執(zhí)行700億個(gè)參數(shù)的DeepSeek-R1中型模型時(shí),,速度比當(dāng)前最快的GPU快57倍,。Cerebras Systems的CEO Andrew Feldman表示,企業(yè)客戶對(duì)DeepSeek最新推出的R1推理模型表現(xiàn)出極大的興趣,,在該模型發(fā)布十天后,,公司迎來(lái)了需求激增。
WSE-3芯片采用一整張12英寸晶圓制作,,基于臺(tái)積電5nm制程,,擁有4萬(wàn)億個(gè)晶體管、90萬(wàn)個(gè)AI核心和44GB片上SRAM,,內(nèi)存帶寬為21PB/s,,結(jié)構(gòu)帶寬高達(dá)214PB/s。這使得WSE-3具有125 FP16 PetaFLOPS的峰值性能,,相比上一代WSE-2提升了1倍,。
DeepSeek-R1推理模型以較低的訓(xùn)練成本實(shí)現(xiàn)了與OpenAI等競(jìng)爭(zhēng)對(duì)手最先進(jìn)的推理模型相當(dāng)?shù)男阅埽⑶以撃P鸵验_(kāi)源,,全球科技廠商可以利用它快速構(gòu)建自己的AI應(yīng)用,。相關(guān)AI芯片廠商也能針對(duì)該模型進(jìn)行適配和優(yōu)化,充分利用AI芯片的性能,。Andrew Feldman在現(xiàn)場(chǎng)演示中展示了Cerebras的AI服務(wù)器執(zhí)行DeepSeek-R1的速度,,用Python語(yǔ)言編寫國(guó)際象棋游戲僅需1.5秒,而OpenAI的o1-mini模型則需要22秒才能完成相同任務(wù),。不過(guò),,由于OpenAI模型是封閉系統(tǒng),無(wú)法直接在Cerebras硬件上測(cè)試,,因此難以完全對(duì)比。
盡管如此,,F(xiàn)eldman強(qiáng)調(diào)在數(shù)學(xué)和程序任務(wù)方面,,DeepSeek-R1的表現(xiàn)優(yōu)于OpenAI-o1,用戶能更快獲得精確答案,。然而,,由于R1由中國(guó)的大模型技術(shù)廠商DeepSeek開(kāi)發(fā),,歐美各國(guó)基于政治因素以隱私安全等問(wèn)題發(fā)難。美國(guó)國(guó)會(huì)已著手立法,,擬全面禁止來(lái)自中國(guó)的先進(jìn)AI模型。美國(guó)國(guó)防部,、國(guó)會(huì),、海軍、NASA以及德克薩斯州已相繼禁止在政府官方設(shè)備上使用DeepSeek模型,。
Feldman建議選擇美國(guó)企業(yè)托管的大型語(yǔ)言模型,例如Cerebras,、Perplexity等,。他承認(rèn)DeepSeek確實(shí)存在一些潛在風(fēng)險(xiǎn),,但只要用戶保持基本判斷力,,謹(jǐn)慎使用即可,。