報(bào)告顯示,,如今絕大多數(shù)強(qiáng)大的人工智能模型是由工業(yè)界而非學(xué)術(shù)界開(kāi)發(fā)的,。這與21世紀(jì)初神經(jīng)網(wǎng)絡(luò)和生成式人工智能尚未興起的情況正好相反,。2006年之前,工業(yè)界開(kāi)發(fā)的著名人工智能模型不到20%,,2023年這一比例為60%,2024年則接近90%,。
美國(guó)仍然是強(qiáng)大模型的最大生產(chǎn)國(guó),,2024年發(fā)布了40個(gè)模型,中國(guó)發(fā)布了15個(gè),,歐洲發(fā)布了3個(gè),。但許多其他地區(qū)也在加入這場(chǎng)競(jìng)賽,包括中東,、拉丁美洲和東南亞,。塞爾曼說(shuō),2015年左右,,中國(guó)走上了成為人工智能領(lǐng)域頂尖參與者的道路,,他們通過(guò)教育投資實(shí)現(xiàn)了這一目標(biāo)。我們看到這開(kāi)始有了回報(bào),。
AI領(lǐng)域還出現(xiàn)了“開(kāi)放權(quán)重”模型在數(shù)量和性能上的驚人增長(zhǎng),,如DeepSeek和Meta的LLaMa。用戶可以自由查看這些模型在訓(xùn)練過(guò)程中學(xué)習(xí)到的并用于預(yù)測(cè)的參數(shù),,不過(guò)其他細(xì)節(jié),,如訓(xùn)練代碼,可能仍保密,。最初,,不公開(kāi)這些因素的封閉系統(tǒng)明顯更優(yōu)越,但到2024年初,,這些類別中頂級(jí)競(jìng)爭(zhēng)者之間的性能差距縮小到了8%,,到2025年初則縮小到了1.7%。
加利福尼亞州門洛帕克的非營(yíng)利性研究機(jī)構(gòu)SRI的計(jì)算機(jī)科學(xué)家、該報(bào)告的聯(lián)合主任雷·佩羅特說(shuō),,這對(duì)任何無(wú)力從頭構(gòu)建模型的人來(lái)說(shuō)肯定是好事,,包括許多小公司和學(xué)者。OpenAI計(jì)劃在未來(lái)幾個(gè)月內(nèi)發(fā)布一個(gè)開(kāi)放權(quán)重模型,。
2022年ChatGPT公開(kāi)推出后,,開(kāi)發(fā)人員將大部分精力投入到通過(guò)擴(kuò)大模型規(guī)模來(lái)提升系統(tǒng)性能上。這一趨勢(shì)仍在繼續(xù):訓(xùn)練一個(gè)典型的領(lǐng)先人工智能模型所消耗的能源目前每年翻一番,;每個(gè)模型使用的計(jì)算資源每五個(gè)月翻一番,;訓(xùn)練數(shù)據(jù)集的規(guī)模每八個(gè)月翻一番。
然而,,各公司也在發(fā)布性能非常出色的小型模型,。例如,2022年在MMLU上得分超過(guò)60%的最小模型使用了5400億個(gè)參數(shù),;到2024年,,一個(gè)模型僅用38億個(gè)參數(shù)就達(dá)到了相同的分?jǐn)?shù)。小型模型比大型模型訓(xùn)練速度更快,、回答問(wèn)題更迅速,,且能耗更低。佩羅特說(shuō),,這對(duì)各方面都有幫助,。
塞爾曼說(shuō),一些小型模型可以模仿大型模型的行為,,或者利用比舊系統(tǒng)更好的算法和硬件,。人工智能系統(tǒng)使用的硬件的平均能源效率每年提高約40%。由于這些進(jìn)步,,在MMLU上得分超過(guò)60%的成本大幅下降,,從2022年11月的每百萬(wàn)個(gè)token約20美元降至2024年10月的每百萬(wàn)個(gè)token約7美分。
盡管在幾項(xiàng)常見(jiàn)的基準(zhǔn)測(cè)試中取得了顯著進(jìn)步,,但該指數(shù)強(qiáng)調(diào),,生成式人工智能仍然存在一些問(wèn)題,如隱性偏見(jiàn)和“幻覺(jué)”傾向,,即吐出虛假信息,。塞爾曼說(shuō),它們?cè)诤芏喾矫娼o他留下了深刻印象,,但在其他方面也讓他感到恐懼,。它們?cè)诜敢恍┓浅;镜腻e(cuò)誤方面讓他感到驚訝,。
盡管喝西北風(fēng)不能填飽肚子,,但有強(qiáng)有力的證據(jù)表明能從空氣中吸收一些除氧氣之外的營(yíng)養(yǎng)物質(zhì)。
2024-11-20 14:49:40研究表明西北風(fēng)也有營(yíng)養(yǎng)