農歷除夕夜,在全球華人喜迎新春之時,紐約證券交易所的電子屏上,阿里巴巴股價在收盤前從漲幅1%快速拉升至6.7%。這一行情異動背后是一場技術奇襲,。
1月29日凌晨,阿里通義千問團隊悄然上線的大模型Qwen2.5-Max在多個權威基準測試中展現(xiàn)出與全球頂級模型比肩的性能。這是繼DeepSeek之后,,中國AI陣營在高性能、低成本技術路線上的又一重要突破,。市場人士分析稱,,此前過度聚焦DeepSeek,忽視了包括阿里通義在內的中國AI整體性追趕,。行業(yè)媒體認為,,若阿里Qwen-2.5-max的確性能超過V3,可以對其RL推理模型給予更大期待。
當阿里云展現(xiàn)出“強大模型+充足算力+完整云平臺”的組合優(yōu)勢時,,這是否印證了類似去年北美云計算服務商的投資邏輯,?如果美股因AI整體增值10萬億美元,中國AI資產的重估時機是否已至,?
Qwen2.5-Max采用超大規(guī)模MoE架構,,基于超過20萬億token的預訓練數據。在MMLU-Pro,、LiveCodeBench,、LiveBench和Arena-Hard等多個權威評測中,該模型均展現(xiàn)出與DeepSeek V3,、GPT-4和Claude-3.5-Sonnet比肩甚至領先的性能,。阿里團隊表示,隨著后訓練技術的不斷進步,,下一個版本將有望達到更高水平,。
Qwen2.5團隊同步發(fā)布了兩個創(chuàng)新型號:Qwen2.5-7b-instruct-1m和Qwen2.5-14b-instruct-1m。這些開源模型支持高達100萬token的上下文窗口,,成為業(yè)內首個達到此規(guī)模的公開可用模型,。這些模型使用稀疏注意力,處理百萬token輸入的速度比傳統(tǒng)方法快3到7倍,,輸出長度可達8000個token,。在測試中,14B型號和Qwen2.5-Turbo在查找非常長的文檔中的隱藏數字時都達到了完美的準確性,,較小的7B型號也表現(xiàn)良好,,只有輕微的錯誤。在RULER,、LV-Eval和LongbenchChat等要求更高的復雜的上下文測試中,,百萬token模型的表現(xiàn)優(yōu)于128K token模型,尤其是在超過64K token的序列中,,14B型號在RULER中得分超過90分,,持續(xù)擊敗gpt-4o mini。
DeepSeek的崛起在全球資本市場引發(fā)了一波科技浪潮。高盛,、德意志銀行,、美國銀行和貝萊德等外資機構紛紛表達了對中國資產和A股市場的樂觀態(tài)度,中國資產的價值重估成為不可忽視的趨勢
2025-02-11 12:08:49DeepSeek引發(fā)外資重估中國資產近段時間,,DeepSeek熱潮席卷全球,,在美股科技龍頭出現(xiàn)劇烈調整的同時,以美股中概股和港股為代表的中國資產卻逆勢上揚,。金山云、騰訊,、阿里巴巴等個股股價顯著攀升
2025-02-12 08:59:26DeepSeek或重塑AI產業(yè)格局