11月10日消息,“這是又一次DeepSeek式的輝煌時刻嗎?開源軟件再次超越閉源軟件。”國際知名開源平臺Hugging Face聯合創始人Thomas Wolf在社交媒體上這樣評價Kimi K2 Thinking的發布。
11月6日,中國AI初創公司月之暗面(Moonshot AI)推出并開源了其最新生成式人工智能模型——Kimi K2 Thinking。這款模型在多項核心基準測試中超越了OpenAI的GPT-5和Anthropic的Claude Sonnet 4.5。

而更令人震驚的是,媒體援引據一位知情人士透露,Kimi K2 Thinking模型的訓練成本為460萬美元,這一數字不到GPT-3訓練成本的百分之一。
開源大模型正在全球AI領域掀起一場效率革命與成本風暴,而這場風暴的中心,正逐漸轉向東方。
訓練成本僅460萬美元?小成本模型實現大性能突破
Kimi K2 Thinking的出現,徹底刷新了業界對AI模型成本與性能的認知。這個擁有1萬億參數的混合專家模型,每次推理僅激活320億參數。
在技術設計上,它完美平衡了模型規模與計算效率,支持256k的上下文窗口,并采用原生INT4量化技術。

在權威基準測試中,Kimi K2 Thinking展現出了令人矚目的實力:在Humanity‘s Last Exam中取得44.9%的優異成績,在BrowseComp測試中獲得60.2%,在SWE-Bench Verified和LiveCodeBench v6兩個編碼評估中分別達到71.3%和83.1%。

Kimi K2 Thinking模型的核心優勢之一是它的Agent能力,能夠連續執行200-300次工具調用,無需人工干預即可解決復雜問題。

在編程實踐中,開發者只需一句指令,就能生成一個類似Mac OS的網頁操作系統,具備文本編輯器、文件管理器、畫圖工具等完整功能。
如果說性能表現令人贊嘆,那么Kimi K2 Thinking的成本控制則堪稱革命。460萬美元的訓練成本,放在動輒數億美元投入的大模型賽道,幾乎是一個可以忽略不計的數字。
這一數字甚至低于DeepSeek V3模型的560萬美元,更是與GPT-3等國際同類大模型高達數十億美元的訓練投入形成鮮明對比。
低成本的訓練并未犧牲性能,Kimi K2 Thinking在保持頂尖性能的同時,運行成本也大幅降低。
Kimi K2 Thinking團隊介紹,這種成本優勢源于多方面的技術創新。一方面,模型采用了改進的MuonClip優化器,在長達15.5萬億tokens的預訓練過程中實現了 “零損失尖峰” ,意味著訓練過程極其穩定。
另一方面,原生INT4量化技術不僅將推理速度提升了約2倍,還顯著降低了部署所需的GPU顯存,使模型對硬件更加友好。
Kimi K2 Thinking的API調用價格為每百萬token輸入1元(緩存命中)/4元(緩存未命中),輸出為每百萬token 16元,相比GPT-5低一個數量級。

月之暗面2025年7月11日發布初代Kimi K2模型;9月5日升級為Kimi K2-0905版本,強化Agentic Coding能力;11月6日發布Kimi-k2 thinking
以至于,有國外AI發燒友在X上直接@了 OpenAl 的 CEO 奧特曼拋出了一個極其尖銳的問題:“你(Sam)憑什么需要數萬億美元才能做出頂尖模型而現在來自中國的模型,只花了區區460萬美元就已經做得和你一樣好,甚至更好?這到底是為什么?”
有網友評論:這個問題,簡直是把所有的硅谷 AI巨頭們架在火上烤。它用一種無可辯駁的方式證明了:更聰明的算法、更專注的團隊以及站在巨人(開源社區)的肩膀上,完全可以以小博大。
同時,Kimi也升級了C端的會員計劃。

規則改寫:開源協議的反向輸出
Kimi K2 Thinking的發布,迅速引發了全球AI社區的強烈反響。Hugging Face聯合創始人Thomas Wolf的評價絕非個例,來自各方的反饋都肯定了這款模型的重要意義。
業內普遍認為,Kimi K2 Thinking極大地縮小了開源模型與閉源模型之間的差距,甚至在多個關鍵領域實現了反超。
開源的、可自由使用和修改的模型,首次在推理、編程和Agent能力等多個維度與頂尖閉源模型站在同一水平線上。
開發者社區對模型的實際表現給予了積極評價。有開發者測試后表示,Kimi K2 Thinking在創意寫作方面表現出色,能夠“將粗略的靈感轉化為清晰、動人且意圖明確的敘述”。
同時,其在處理復雜編程任務時展現出的邏輯性和完整性也令人印象深刻。
Kimi K2 Thinking引發廣泛討論的,不僅是其技術實力,還有其獨特的開源規則。
模型采用Modified MIT許可證,在保留標準MIT許可證絕大多數自由的基礎上,添加了一項關鍵限制:“如果此模型被用于超過一億月活用戶,或者2000萬美元月收入的商業產品中,需要注明商品底層使用了 Kimi K2模型”。
有美國的科技博主表示,Kimi K2為防止美國一些公司繼續白剽這些開源模型并套牌說是自己的,出現了比較“奇怪”的modifiedMIT License,并感嘆:“世界顛倒了,這可不好”。
這一條款為開源軟件協議帶來了新思路。對于絕大多數研究機構和企業應用,這只是一項輕量級的 attribution要求,不影響商業使用和衍生開發。
但當項目規模達到巨頭級別時,仍需保留對原始開發者的尊重和認可。
這種規則設計,可視為中國AI企業首次在開源協議中引入如此影響力的條款,開創了開源規則“反向輸出”的先例。
長期以來,中國科技企業更多是國際開源規則的接受者,而Kimi K2 Thinking的開源協議標志著這一格局正在改變。
以小博大,重塑AI競爭格局
DeepSeek-R1和Kimi K2 Thinking這類小成本模型的崛起,正在從根本上改變全球大模型行業的競爭規則和未來走向。
這些模型證明了,通過架構創新和工程優化,完全可以在控制成本的同時實現頂尖性能。
傳統的“規模至上”的發展模式遭到挑戰。過去,OpenAI及美國AI公司的核心護城河之一是強大的融資能力和大規模算力基礎。
而今,一個依賴數十億美元投入、指望高價API收回成本的商業模式,突然要面對一個性能接近、但API成本低10倍的競爭者。
獵豹移動CEO傅盛的評價就指出Kimi K2 Thinking的真正價值:“Kimi真正‘可怕’的地方不是性能的絕對超越,而是來自其極不對稱的性價比。”
他強調,當一個開源模型以極低的訓練成本達到了最先進模型90%的紙面能力和75%的實際能力時,整個戰局有徹底改變的可能。
行業已告別“比參數、比算力”的粗放階段,進入“比落地、比價值”的精耕時代。企業應用不再盲目追求模型的“大而全”,而是更關注“剛剛好”的智能——在成本、速度和隱私間找到平衡點。
更為深遠的是,小成本模型可能成為中國在全球AI競賽中的差異化路徑。
沒有人會再質疑——開源模型的“星星之火,可以燎原”。





京公網安備 11011402013531號