開源=最強(qiáng)大模型!Llama3.1發(fā)布,,405B超越閉源GPT-4o,扎克伯格:分水嶺時(shí)刻
7月23日晚,,Meta宣布推出開源大模型Llama 3.1系列,,該系列包含8B、70B及450B三種參數(shù)規(guī)模,,旨在縮小開源與閉源模型之間的差距,。尤其值得注意的是,450B參數(shù)的模型在多項(xiàng)基準(zhǔn)測(cè)試中超越了OpenAI的GPT-4o,,并可與頂尖閉源模型如Claude 3.5 Sonnet相抗衡,。
同期,Meta創(chuàng)始人兼CEO扎克伯格在其官網(wǎng)博客中強(qiáng)調(diào),,Llama 3.1的發(fā)布標(biāo)志著行業(yè)轉(zhuǎn)折點(diǎn),,預(yù)示著開源AI將成為未來(lái)的主流趨勢(shì)。英偉達(dá)高級(jí)研究科學(xué)家Jim Fan也對(duì)此表示祝賀,,認(rèn)為這是一個(gè)具有歷史意義的時(shí)刻,,開源技術(shù)正將GPT-4級(jí)別的能力帶入現(xiàn)實(shí)。
Llama 3.1在技術(shù)層面實(shí)現(xiàn)了顯著提升,,所有模型的上下文窗口擴(kuò)大至128K,,增加了對(duì)8種語(yǔ)言的支持。405B版本更是歷經(jīng)大規(guī)模訓(xùn)練,,使用了超過15萬(wàn)億個(gè)tokens,,并動(dòng)用了1.6萬(wàn)塊H100 GPU,成為首個(gè)達(dá)到如此訓(xùn)練規(guī)模的Llama模型。
Meta在官方博客中詳細(xì)對(duì)比了Llama 3.1與其他模型的性能,,旗艦?zāi)P?05B不僅在常識(shí)理解,、操作性、數(shù)學(xué)任務(wù)上表現(xiàn)出色,,能與GPT-4,、GPT-4o及Claude 3.5 Sonnet競(jìng)爭(zhēng),8B和70B的小型模型也在同類參數(shù)模型中保持競(jìng)爭(zhēng)力,。實(shí)際應(yīng)用中,,Llama 3.1 405B在人工評(píng)估中展現(xiàn)出優(yōu)于GPT-4o和Claude 3.5 Sonnet的整體性能。
此外,,Meta更新了開源許可,,首次允許開發(fā)者利用Llama模型的輸出優(yōu)化其他模型,并計(jì)劃將圖像,、視頻和語(yǔ)音功能融入Llama 3,,盡管這些功能仍在開發(fā)階段。據(jù)透露,,Llama系列至今下載總量已突破3億次,。
扎克伯格在另一篇博文中深入探討了開源AI的重要性,以Linux的成功為例,,指出開源有利于創(chuàng)新,、降低成本、增強(qiáng)安全,,并為開發(fā)者提供靈活,、高效的解決方案,同時(shí)強(qiáng)調(diào)開源AI對(duì)于推動(dòng)全球經(jīng)濟(jì)和安全具有重要意義,。
6月7日,阿里云在技術(shù)博客上宣布了一個(gè)重要進(jìn)展:他們發(fā)布了名為Qwen2-72B的開源模型,,這款模型在全球范圍內(nèi)以其卓越的性能脫穎而出
2024-06-07 10:49:47阿里云發(fā)布開源模型Qwen2