7月28日晚間,智譜發布新一代旗艦模型GLM-4.5,一款專為智能體應用打造的基礎模型,該模型在HuggingFace與ModelScope平臺同步開源。
根據官方介紹:
GLM-4.5 在包含推理、代碼、智能體的綜合能力達到開源 SOTA,在真實代碼智能體的人工對比評測中,實測國內最佳;采用混合專家(MoE)架構,包括 GLM-4.5:總參數量 3550 億,激活參數 320 億;GLM-4.5-Air:總參數 1060 億,激活參數 120 億;兩種模式:用于復雜推理和工具使用的思考模式,及用于即時響應的非思考模式;高速、低成本:API 調用價格低至輸入 0.8 元/百萬tokens、輸出 2 元/百萬tokens;高速版最高可達 100 tokens/秒。融合推理、編碼與智能體能力,綜合性能進入全球前三
GLM-4.5 是智譜首次在單一模型中整合多種核心能力的嘗試,尤其面向真實智能體任務進行系統優化。在 MMLU Pro、MATH500、LiveCodeBench、TAU-Bench 等 12 項評測中,GLM-4.5 綜合排名全球第三,位列國產和開源模型首位。
![]()
模型采用混合專家(MoE)架構,提供兩個版本:
GLM-4.5:總參數 3550 億,激活參數 320 億;
GLM-4.5-Air:參數縮減至 1060 億,激活參數 120 億。
訓練數據覆蓋 15 萬億 tokens 的通用語料,另有 8 萬億 tokens 針對代碼、推理、Agent 任務的精調數據,并輔以強化學習進行能力增強。
智譜構建了涵蓋六大開發場景的 52 個編程任務,對 GLM-4.5 與 Claude Code、Kimi-K2、Qwen3-Coder 等模型進行對比測試。
結果顯示,GLM-4.5 在任務完成度與工具調用可靠性方面表現優異,雖然在部分維度仍略遜于 Claude-4-Sonnet,但已能勝任多數實際開發場景。
參數效率與生成速度實現突破,降低使用門檻
在參數利用率方面,GLM-4.5 相比 DeepSeek-R1 和 Kimi-K2 顯著精簡,在 SWE-bench Verified 榜單中表現出更優的性能/參數比。
![]()
調用價格方面,GLM-4.5 API 輸入價格為0.8 元/百萬 tokens,輸出價格為2 元/百萬 tokens。
![]()
高速版本支持最高100 tokens/秒的生成速率,可支撐高并發部署需求。
![]()
原生支持復雜 Agent 應用,多個交互樣本已開放體驗
為展示其 Agent 能力,智譜同步發布多個真實場景 DEMO,包括:
模擬搜索引擎:可進行搜索、分析與聚合展示
彈幕視頻平臺、微博平臺模擬器:具備內容生成與界面控制能力
可玩的 Flappy Bird 游戲:展示其前端動畫生成與邏輯控制能力
圖文自動排版的 PPT 工具:支持16:9演示文稿、社交媒體長圖等多種格式輸出





京公網安備 11011402013531號