1月15日,MiniMax發(fā)布了新一代01系列模型,并將其開源。該系列包括基礎(chǔ)語言大模型MiniMax-Text-01和視覺多模態(tài)大模型MiniMax-VL-01,。據(jù)稱,,這些模型首次大規(guī)模實現(xiàn)了線性注意力機制,,使得傳統(tǒng)Transformer架構(gòu)不再是唯一選擇,。新模型的參數(shù)量達到4560億,,單次激活參數(shù)為459億,。其綜合性能可與海外頂尖模型媲美,,能夠高效處理長達400萬token的上下文,,這一長度是GPT-4o的32倍,也是Claude-3.5-Sonnet的20倍,。