近日,,《財富》雜志官網(wǎng)報道,Cerebras Systems宣布其晶圓級AI芯片在執(zhí)行700億個參數(shù)的DeepSeek-R1中型模型時,,速度比當(dāng)前最快的GPU快57倍,。Cerebras Systems的CEO Andrew Feldman表示,,企業(yè)客戶對DeepSeek最新推出的R1推理模型表現(xiàn)出極大的興趣,在該模型發(fā)布十天后,,公司迎來了需求激增,。
WSE-3芯片采用一整張12英寸晶圓制作,基于臺積電5nm制程,,擁有4萬億個晶體管,、90萬個AI核心和44GB片上SRAM,內(nèi)存帶寬為21PB/s,,結(jié)構(gòu)帶寬高達(dá)214PB/s,。這使得WSE-3具有125 FP16 PetaFLOPS的峰值性能,,相比上一代WSE-2提升了1倍。
DeepSeek-R1推理模型以較低的訓(xùn)練成本實現(xiàn)了與OpenAI等競爭對手最先進(jìn)的推理模型相當(dāng)?shù)男阅?,并且該模型已開源,,全球科技廠商可以利用它快速構(gòu)建自己的AI應(yīng)用。相關(guān)AI芯片廠商也能針對該模型進(jìn)行適配和優(yōu)化,,充分利用AI芯片的性能,。Andrew Feldman在現(xiàn)場演示中展示了Cerebras的AI服務(wù)器執(zhí)行DeepSeek-R1的速度,用Python語言編寫國際象棋游戲僅需1.5秒,,而OpenAI的o1-mini模型則需要22秒才能完成相同任務(wù),。不過,由于OpenAI模型是封閉系統(tǒng),,無法直接在Cerebras硬件上測試,,因此難以完全對比。
盡管如此,,F(xiàn)eldman強調(diào)在數(shù)學(xué)和程序任務(wù)方面,,DeepSeek-R1的表現(xiàn)優(yōu)于OpenAI-o1,用戶能更快獲得精確答案,。然而,,由于R1由中國的大模型技術(shù)廠商DeepSeek開發(fā),歐美各國基于政治因素以隱私安全等問題發(fā)難,。美國國會已著手立法,,擬全面禁止來自中國的先進(jìn)AI模型。美國國防部,、國會,、海軍、NASA以及德克薩斯州已相繼禁止在政府官方設(shè)備上使用DeepSeek模型,。
Feldman建議選擇美國企業(yè)托管的大型語言模型,,例如Cerebras、Perplexity等,。他承認(rèn)DeepSeek確實存在一些潛在風(fēng)險,,但只要用戶保持基本判斷力,謹(jǐn)慎使用即可,。
7月22日,,小范買了一個西瓜,請同事一起吃,。有同事評價:“這西瓜不好吃,,太甜了?!毙》兑灿型校骸艾F(xiàn)在的西瓜變得越來越甜,,甜得齁?!?
2024-07-23 14:21:00西瓜為啥越來越甜了?業(yè)內(nèi)解答