剛看到小米的 MiMo 團隊開源了新模型,V2.5系列。


我覺得有意思的是他們用的MIT協議,這就很敞亮了,你拿去做商業產品、自己接著訓、隨便改,人家都不管你。
兩個模型也說一下。
Pro版是個純文本的MoE,總參數1.02萬億,但你不用慌,實際跑起來只激活420億,硬體壓力沒那麼大。它主要是給agent任務和寫代碼用的。ClawEval上的分數跟GPT-5.4它們差不多一個檔次,但有個數據挺吸引人,每條任務只花7萬token左右,比其他家省了一半還多。這就等於同樣的活兒,你付的token帳單能少一大截。
另一個是全模態版,3100億參數,激活150億,能看能聽能讀圖。配了專門的視覺和音頻編碼器。兩個都能一次性處理100萬token上下文,什麼長篇代碼、整本書都夠用了。
而且他們還搞了一個活動,30天內免費送100萬億token額度。個人、團隊、企業都能申請,過了就能拿去用在Claude Code、Cursor這些工具上。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言