近日,據百靈大模型公眾號,螞蟻百靈團隊發布并開源了Ring-mini-2.0推理模型。它是基于此前螞蟻百靈發布的基礎語言模型 Ling 2.0 架構,深度優化的高性能推理型 MoE 模型。它在總參數量16B、僅激活1.4B參數的情況下,即可達到10B級別以下dense 模型的綜合推理能力,尤其在邏輯推理、代碼與數學任務中表現卓越,并支持 128K 長上下文及 300+ token/s 的高速生成。
經過 Long-COT SFT、更穩定持續的RLVR以及RLHF聯合優化,Ring-mini-2.0復雜推理的穩定性與泛化性得到顯著提升。在多項高難度基準(LiveCodeBench、AIME 2025、GPQA、ARC-AGI-v1 等)中,在輸出長度相當的情況下,Ring-mini-2.0性能顯著超越10B以下dense 模型,甚至媲美更大參數量的MoE模型(如 gpt-oss-20B-medium),在邏輯推理方面尤為突出。
![]()
(Ring-mini-2.0性能表現)
據了解,Ring-mini-2.0繼承了Ling 2.0 系列的高效 MoE 設計,僅激活 1.4B 參數,通過 1/32 專家激活比、MTP 層等架構優化,達到約 7–8B dense 模型的等效性能。得益于小激活、高稀疏度的設計,Ring-mini-2.0 在H20 部署下實現 300+ token/s 的吞吐,結合 Expert Dual Streaming 推理優化后可進一步提升至 500+ token/s,大幅降低高并發場景下 Thinking 模型的推理成本。同時,借助 YaRN 外推可支持 128K 長上下文,長輸出場景下相對加速比最高可達 7 倍以上。
螞蟻百靈團隊表示將完整開放 Ring-mini-2.0 的模型權重、訓練數據和 RLVR+RLHF 訓練策略。憑借“小而優”的特點,Ring-mini-2.0 有望成為小尺寸推理模型的首選,為學術和工業界提供理想的研究與應用起點。





京公網安備 11011402013531號