![]()
智東西
作者 程茜
編輯 李水青
智東西12月17日報道,今天,小米發(fā)布并開源了最新MoE大模型MiMo-V2-Flash,總參數(shù)309B,激活參數(shù)15B。今日上午,小米2025小米人車家全生態(tài)合作伙伴大會上,Xiaomi MiMO大模型負責(zé)人羅福莉?qū)⑹仔悴l(fā)布主題演講。
![]()
該模型專為推理、編碼和Agent場景構(gòu)建,支持混合思維模式,允許用戶切換模型是“思考”還是即時回答。它能一鍵生成功能齊全的HTML網(wǎng)頁,并與Claude Code、Cursor和Cline等氛圍編碼框架協(xié)同。該模型提供256k上下文窗口,能夠完成數(shù)百輪Agent交互和工具調(diào)用的任務(wù)。
基準(zhǔn)測試結(jié)果顯示,MiMo-V2-Flash的性能基本與DeepSeek-V3.2相當(dāng),僅在不使用任何工具輔助的“人類最后一場考試”和創(chuàng)意文本生成評估ARENA-HARD中略遜色于DeepSeek-V3.2,但時延更小。
![]()
MiMo-V2-Flash能以每秒150個token的速度實現(xiàn)極其快速的推理,價格方面,其每百萬輸入token 0.7元、每百萬輸出token 2.1元。
![]()
小米已經(jīng)開源了MiMo-V2-Flash所有內(nèi)容,并向開發(fā)者社區(qū)SGLang貢獻了所有推理代碼,API限時免費。目前,用戶可以在網(wǎng)頁端免費體驗MiMo-V2-Flash。
開源地址:https://t.co/4Etm0yZKTL
體驗地址:https://aistudio.xiaomimimo.com/#/
技術(shù)報告:https://github.com/XiaomiMiMo/MiMo-V2-Flash/blob/main/paper.pdf
一、能寫長文、做精美網(wǎng)頁,但實測尚不穩(wěn)定
智東西先實測了下MiMo的網(wǎng)頁開發(fā)能力。
首先,智東西讓其生成了一個電商頁面,需要包含商品主圖輪播、規(guī)格選擇、價格、庫存等要素。代碼生成后,MiMo會在右側(cè)顯示預(yù)覽界面,除查看商品大圖功能需要在完整版使用,其他元素幾乎和真實的線上購物沒有差別。
![]()
然后加大難度,智東西讓其生成了一個網(wǎng)頁版迷宮闖關(guān)小游戲,需要包含四個難度,能通過鼠標(biāo)和鍵盤控制。在生成的網(wǎng)頁里,MiMo還增加了提示、積分、計時等功能,整個交互體驗更加完整。
![]()
智東西還讓其生成了“圣誕樹裝飾”交互網(wǎng)頁。網(wǎng)頁左側(cè)有彩燈、鈴鐺、星星、禮物盒、蝴蝶結(jié),可以拖動這些物品裝飾到右側(cè)的圣誕樹上,也可以一鍵清空或者直接生成隨機裝飾。整個畫面會不斷飄落雪花,還可以播放背景音樂。
![]()
對于聊天能力,智東西先讓MiMo“用程序員的語氣安慰一只失戀的貓”,MiMo會讓小貓“清理緩存”忘掉不開心的事,還讓小貓“升級硬件”,順便幫小米打了波廣告。
![]()
最后智東西讓MiMo生成了一部科幻懸疑題材的AI短劇劇本。一上來,MiMo就給出了深潛記憶提取頭盔、真理之環(huán)AI倫理防火墻兩個關(guān)鍵要素,通過檢索發(fā)現(xiàn),MiMo在后續(xù)劇情中將這兩大物體融入進去,直接作為推動劇情發(fā)展的關(guān)鍵。
![]()
此外,小米在官方博客也放出了不少案例。
首先是網(wǎng)頁生成能力上,其第一個官方案例是“用HTML生成一個漂亮、可用的macOS模擬操作系統(tǒng)”。在最終的生成界面中,包含了基本的macOS風(fēng)格桌面圖標(biāo),還可以切換背景、打開Finder。
![]()
其次是,打造“豪華互動圣誕樹”高保真3D網(wǎng)頁應(yīng)用,并要求視覺效果奢華,MiMo的生成結(jié)果能切換圣誕樹和混沌狀態(tài),支持手勢交互等。

第三個演示是用HTML創(chuàng)建交互式太陽系探測器。當(dāng)用戶點擊每個球體就會出現(xiàn)行星的簡介。
![]()
智東西也讓MiMo“用HTML創(chuàng)建一個教育性的交互式太陽系探索器”,不過最后的結(jié)果并不如官方演示的質(zhì)感。其第一次生成時行星無法選擇,重新生成后可選擇行星下面的選項直接不見了。
![]()
聊天能力方面,MiMo既能回答“大語言模型擁有知識嗎”這類硬核科普類知識。
![]()
MiMo還可以回答“要不要吃長生不老藥丸”,MiMo還會站在人類視角分析要不要吃、可能有哪些條件。
![]()
此外,該模型還具備長文本撰寫能力,其可以“寫一個關(guān)于誤送信件的憂郁愛情故事”。
![]()
MiMo還能寫深刻的非虛構(gòu)作品,如以一位獨居老人為中心,以他一周內(nèi)收到的郵件為主,探討現(xiàn)代社會中的孤獨。
![]()
二、專為推理、編碼和Agent構(gòu)建,與K2 Thinking和DeepSeek V3.2 Thinking相當(dāng)
在數(shù)學(xué)競賽AIME 2025和科學(xué)知識基準(zhǔn)GPQA-Diamond中,MiMo-V2-Flash的表現(xiàn)是開源模型中前二。在軟件工程能力的SWE驗證與多語言基準(zhǔn)測試中,MiMo-V2-Flash在所有開源模型中位列第一,與全球頂尖閉源模型齊名。
從總的基準(zhǔn)測試結(jié)果來看,MiMo-V2-Flash在大多數(shù)推理基準(zhǔn)測試中的性能可與K2 Thinking和DeepSeek V3.2 Thinking相當(dāng),同時保持高質(zhì)量開放式回答的競爭力。
在長上下文評估中,MiMo的模型超過了K2 Thinking。
![]()
在Agent任務(wù)中,MiMo-V2-Flash在SWE-Bench Verified中超越所有開源競爭對手,性能接近 GPT-5-High。在SWE-Bench多語版本中,MiMo-V2-Flash解決了71.7%的問題。
在搜索Agent評估方面,MiMo-V2-Flash在BrowseComp上得分為45.4,配合上下文管理進一步提升至58.3。
![]()
小米已經(jīng)共享所有推理代碼至SGLang并開源,社區(qū)實測單機結(jié)果如下:
在Prefill單機吞吐約50000 toks/s的條件下,不同Context Length都取得了優(yōu)越的TTFT性能。
![]()
得益于3層MTP,在16K的Context Length情況下,Decode可以做到單機吞吐5000 ~ 15000 toks/s的同時達到151~115 toks/s的單請求吞吐。
![]()
三、引入MTP訓(xùn)練,后訓(xùn)練階段提出MOPD
MiMo-V2-Flash的效率提升是因為其為高通量推理設(shè)計了創(chuàng)新架構(gòu)進步。
該模型全局注意力(GA)和滑動窗口注意力(SWA)的1:5混合結(jié)構(gòu)。小米MiMo研究團隊大量的實證結(jié)果表明,SWA簡單、高效且易于使用,在通用任務(wù)、長上下文負載和推理方面整體表現(xiàn)優(yōu)于線性注意力。
![]()
它還提供固定大小的KV緩存,便于與現(xiàn)有的訓(xùn)練和推理基礎(chǔ)設(shè)施集成。
研究人員重新定義了并行解碼,以實現(xiàn)極高的輸出token吞吐量:通過引入多詞元預(yù)測(MTP)訓(xùn)練,提升了基礎(chǔ)模型的能力,并在推理過程中并行驗證了MTP。
![]()
MiMo-V2-Flash利用MTP作為原生草稿模型進行自我推測解碼,實現(xiàn)了實際部署加速。
大語言模型的解碼過程本質(zhì)上受限于內(nèi)存,這是由其低運算密度特性決定的。業(yè)界通常采用批量級并行技術(shù)提升前饋網(wǎng)絡(luò)(FFN)的運算密度,但該方法對注意力計算環(huán)節(jié)并無增益,原因在于每個推理請求都需維護獨立的KV cache。
相比之下,MTP技術(shù)通過一次性生成多個草稿token,同步提升了前饋網(wǎng)絡(luò)(FFN)與注意力機制的運算密度,后續(xù)主模型可對這些草稿token進行并行驗證。這種方案能夠?qū)崿F(xiàn)token級并行計算,且不會增加KV cache的輸入輸出開銷。
在MiMo-V2-Flash模型中,MTP模塊采用稠密前饋網(wǎng)絡(luò)來控制參數(shù)量,同時使用滑動窗口注意力機制,從而降低KV cache與注意力計算的成本。
實測數(shù)據(jù)顯示,3層結(jié)構(gòu)的MTP模塊可達到2.8-3.6個token的有效接受長度,并實現(xiàn)2.0-2.6倍的推理速度提升。
![]()
MiMo-V2-Flash預(yù)訓(xùn)練使用FP8混合精度和原生32k序列長度,使用27T token進行訓(xùn)練。
在后訓(xùn)練階段,為高效拓展強化學(xué)習(xí)的計算規(guī)模,同時增強模型的推理能力與智能體自主決策能力,研究人員提出了多教師在線策略蒸餾(MOPD)。
該范式先通過監(jiān)督微調(diào)(SFT)或強化學(xué)習(xí)(RL)技術(shù)得到各領(lǐng)域的專家教師模型,再讓學(xué)生模型基于自身的策略分布進行采樣,并利用多個教師模型提供的稠密型token級獎勵信號完成優(yōu)化。
MOPD訓(xùn)練只需不到傳統(tǒng)SFT+RL流程的1/50計算資源,即可匹配教師模型的峰值表現(xiàn)。
此外,MOPD采用解耦設(shè)計,支持新教師與ORM(教學(xué)與學(xué)習(xí))的靈活整合,自然實現(xiàn)“教學(xué)與學(xué)習(xí)”閉環(huán)迭代,精煉學(xué)生模式可演變?yōu)楦鼜姷慕處煟瑢崿F(xiàn)持續(xù)自我提升的能力。
![]()
結(jié)語:小米大模型研發(fā)踩下油門
小米憑借混合注意力機制與MOPD等技術(shù)創(chuàng)新,大幅優(yōu)化大模型的研發(fā)成本與運行效率;同時開源全部相關(guān)成果,有效降低行業(yè)研發(fā)門檻。此外,近幾個月以來,Xiaomi MiMo大模型團隊踩下油門,發(fā)布數(shù)篇論文并開源多個模型。
12月5日,小米集團合伙人、總裁盧偉冰透露,公司AI大模型業(yè)務(wù)過去四個季度投入環(huán)比增速超50%,目前進展“已超出董事會預(yù)期”,并宣布將AI與“現(xiàn)實世界深度結(jié)合”列為未來十年核心戰(zhàn)略。同時,小米正式啟動全球人才招募計劃,單崗位薪酬上限開至千萬元級別,目標(biāo)“在最短時間內(nèi)補齊大模型尖端人才缺口”。





京公網(wǎng)安備 11011402013531號