中國公司DeepSeek在華爾街周一緊張評估“DeepSeek風暴”時,推出了新產(chǎn)品:開源的多模態(tài)大模型Janus-Pro,。這款模型在圖像生成基準測試中超越了OpenAI的DALL-E 3,。
除夕夜前夕,DeepSeek工程師們在“抱抱臉”平臺上發(fā)布了Janus Pro 7B和1.5B模型,,這是對去年10月發(fā)布的Janus模型的升級,。這兩個模型分別具有15億和70億參數(shù)量,可以在消費級電腦上本地運行,。與之前的版本一樣,,Janus Pro采用MIT許可證,在商用方面沒有限制,。
據(jù)介紹,,Janus-Pro采用了新穎的自回歸框架,統(tǒng)一了多模態(tài)理解和生成,。通過將視覺編碼分為“理解”和“生成”兩條路徑,,并使用單一的Transformer架構(gòu)處理,解決了以往方法的局限性,。這種設(shè)計不僅緩解了視覺編碼器在理解和生成中的角色沖突,,還提高了框架的靈活性。
從報告給出的數(shù)據(jù)來看,,Janus-Pro 70億參數(shù)模型在部分文生圖基準測試中表現(xiàn)優(yōu)于OpenAI的DALL-E 3和Stability AI的Stable Diffusion 3-Medium,。盡管DALL-E 3是2023年發(fā)布的老模型,且Janus Pro目前只能分析和生成較小規(guī)格的圖像(384 x 384),,但其性能仍然令人印象深刻,。
技術(shù)報告顯示,,Janus-Pro在視覺生成方面通過添加7200萬張高質(zhì)量合成圖像,使得真實數(shù)據(jù)與合成數(shù)據(jù)的比例達到1:1,,從而實現(xiàn)更具視覺吸引力和穩(wěn)定性的圖像輸出,。此外,新模型在多模態(tài)理解的訓(xùn)練數(shù)據(jù)方面參考了DeepSeek VL2并增加了約9000萬個樣本,。
作為多模態(tài)模型,,Janus-Pro不僅可以“文生圖”,還能對圖片進行描述,、識別地標景點(如杭州西湖),、識別圖像中的文字,并能介紹圖片中的知識(例如“貓和老鼠”蛋糕),。公司也在報告中展示了更多圖像生成的案例,。
近日,,美國多名官員對DeepSeek的影響表示擔憂,,稱其為“偷竊”,并正在對其展開國家安全調(diào)查
2025-01-31 11:49:55周鴻祎