近日,,《財富》雜志官網(wǎng)報道,,Cerebras Systems宣布其晶圓級AI芯片在執(zhí)行700億個參數(shù)的DeepSeek-R1中型模型時,,速度比當(dāng)前最快的GPU快57倍,。Cerebras Systems的CEO Andrew Feldman表示,企業(yè)客戶對DeepSeek最新推出的R1推理模型表現(xiàn)出極大的興趣,,在該模型發(fā)布十天后,,公司迎來了需求激增。
WSE-3芯片采用一整張12英寸晶圓制作,,基于臺積電5nm制程,,擁有4萬億個晶體管、90萬個AI核心和44GB片上SRAM,,內(nèi)存帶寬為21PB/s,,結(jié)構(gòu)帶寬高達214PB/s。這使得WSE-3具有125 FP16 PetaFLOPS的峰值性能,,相比上一代WSE-2提升了1倍。
DeepSeek-R1推理模型以較低的訓(xùn)練成本實現(xiàn)了與OpenAI等競爭對手最先進的推理模型相當(dāng)?shù)男阅埽⑶以撃P鸵验_源,,全球科技廠商可以利用它快速構(gòu)建自己的AI應(yīng)用,。相關(guān)AI芯片廠商也能針對該模型進行適配和優(yōu)化,充分利用AI芯片的性能,。Andrew Feldman在現(xiàn)場演示中展示了Cerebras的AI服務(wù)器執(zhí)行DeepSeek-R1的速度,,用Python語言編寫國際象棋游戲僅需1.5秒,而OpenAI的o1-mini模型則需要22秒才能完成相同任務(wù),。不過,,由于OpenAI模型是封閉系統(tǒng),無法直接在Cerebras硬件上測試,,因此難以完全對比,。
盡管如此,F(xiàn)eldman強調(diào)在數(shù)學(xué)和程序任務(wù)方面,,DeepSeek-R1的表現(xiàn)優(yōu)于OpenAI-o1,,用戶能更快獲得精確答案。然而,,由于R1由中國的大模型技術(shù)廠商DeepSeek開發(fā),,歐美各國基于政治因素以隱私安全等問題發(fā)難。美國國會已著手立法,,擬全面禁止來自中國的先進AI模型,。美國國防部、國會,、海軍,、NASA以及德克薩斯州已相繼禁止在政府官方設(shè)備上使用DeepSeek模型。
Feldman建議選擇美國企業(yè)托管的大型語言模型,,例如Cerebras,、Perplexity等。他承認DeepSeek確實存在一些潛在風(fēng)險,,但只要用戶保持基本判斷力,,謹慎使用即可。