是全面落敗
,。
而在各種大廠手里的閉源模型,,那些大家耳熟能詳?shù)氖裁?GPT-4o 、 Claude 3.5 Sonnet 啥的,, V3 也能打得有來有回。
你看到這,,可能覺得不過如此,,也就是追上了國際領(lǐng)先水平嘛,值得這么吹嗎,?
殘暴的還在后面,。
大家大概都知道了,現(xiàn)在的大模型就是一個通過大量算力,,讓模型吃各種數(shù)據(jù)的煉丹過程,。
在這個煉丹期,需要的是大量算力和時間往里砸,。
所以在圈子里有了一個新的計量單位“GPU時”,,也就是用了多少塊GPU花了多少個小時的訓(xùn)練時間。
GPU時越高,,意味著花費的時間,、金錢成本就越高,反之就物美價廉了,。
前面說的此前開源模型王者,, Llama 3.1 405B ,訓(xùn)練周期花費了 3080 萬 GPU 時,。
可性能更強的V3,,
只花了不到280萬GPU時
。
以錢來換算,,DeepSeek搞出V3版本,,大概只花了4000多萬人民幣。
而 Llama 3.1 405B 的訓(xùn)練期間,, Meta 光是在老黃那買了 16000 多個 GPU ,,保守估計至少都花了十幾億人民幣。
至于另外的那幾家閉源模型,,動輒都是幾十億上百億大撒幣的,。
你別以為DeepSeek靠的是什么歪門邪道,人家是正兒八經(jīng)的有技術(shù)傍身的,。
為了搞清楚DeepSeek的技術(shù)咋樣,,咱們特地聯(lián)系了語核科技創(chuàng)始人兼CTO池光耀,他們主力發(fā)展企業(yè)向的agent數(shù)字員工,,早就是DeepSeek的鐵粉了,。
00后女孩謙謙在云南普洱太陽河森林公園工作,,她在網(wǎng)上發(fā)布了與白眉長臂猿的日?;樱l(fā)眾多網(wǎng)友點贊,。
2024-07-12 10:39:07女生在森林公園上班工作是巡山英偉達(dá)在GPU市場的主導(dǎo)地位持續(xù)增強,,人們期望AMD和Intel能展現(xiàn)出更強的競爭力
2024-12-13 15:38:56英偉達(dá)全球GPU市場占比90%