智通財經(jīng)APP獲悉,中信建投證券發(fā)布研報稱,海外GPT-5.1更新圍繞效率和個性化升級,國內(nèi)模型同樣加速迭代。百度(09888)文心5.0多模態(tài)理解能力較為突出,有望為后續(xù)模型迭代提供更豐富的數(shù)據(jù)語料。MiniMax M2和Kimi k2 Thinking接連榮登開源模型榜首,前者專為 Agent 和代碼而生,成本僅為Claude 3.5 Sonnet的8%;后者則將在token效率、情感表達等模型工程化方向不斷迭代,優(yōu)化模型表現(xiàn)。后續(xù)憑借國內(nèi)工程化優(yōu)勢,以及龐大用戶群體提供的使用反饋,國產(chǎn)模型及AI應(yīng)用產(chǎn)品存在趕超海外的基礎(chǔ)。
中信建投主要觀點如下:
GPT-5.1更新,圍繞效率和個性化升級。2025年11月13日,OpenAI發(fā)布GPT-5.1,包括GPT-5.1 Instant和GPT-5.1 Thinking兩個版本。據(jù)OpenAI官方公告,Instant比其前代產(chǎn)品“更熱情、更智能,也更善于遵循用戶指令”,Thinking則“更容易理解,處理簡單任務(wù)速度更快,處理復(fù)雜任務(wù)也更持久”。同時,OpenAI進一步升級GPT的路由能力,使其能根據(jù)問題復(fù)雜程度精準(zhǔn)地調(diào)整思考時間。此外,OpenAI還進一步優(yōu)化了GPT的風(fēng)格特征設(shè)置,目前除默認(rèn)設(shè)置外,還支持專業(yè)、友好、直言、古怪、高效、諷刺及書呆子等多種風(fēng)格。
GPT-5.1相較于OpenAI之前的模型更新更注重用戶偏好的提升(指令遵循、高效路由和風(fēng)格預(yù)設(shè)),這意味著OpenAI也開始注重模型的工程化。當(dāng)前全球頭部模型能力基本滿足大多通用場景需求,通過工程化提高效率和體驗成為了各廠商亟待重視的方向。
![]()
國內(nèi)模型加速突破,能力較國際前沿進一步看齊。近期國內(nèi)模型加速迭代,開源模型榜首多次易主,進一步反映國內(nèi)AI領(lǐng)域已逐步向海外前沿靠攏。后續(xù)憑借國內(nèi)工程化優(yōu)勢,以及龐大用戶群體提供的使用反饋,國產(chǎn)模型及AI應(yīng)用產(chǎn)品存在趕超海外的基礎(chǔ)。
百度:11月13日,文心5.0于2025百度世界大會發(fā)布,其采用原生全模態(tài)統(tǒng)一建模,支持文本、圖像、音頻、視頻等多種信息的聯(lián)合輸入與輸出,實現(xiàn)了原生的全模態(tài)統(tǒng)一理解與生成。在總參數(shù)規(guī)模上,文心 5.0 達到了系列最高的2.4萬億,并位列業(yè)界已公開模型之首,激活參數(shù)比例低于3%,在保持模型強大能力的同時有效提升推理效率。能力方面,文心5.0在多模態(tài)理解、指令遵循、創(chuàng)意寫作、事實性、智能體規(guī)劃與工具應(yīng)用等方面表現(xiàn)突出,擁有強大的理解、邏輯、記憶和說服力。在40余項權(quán)威基準(zhǔn)的綜合評測中,其語言與多模態(tài)理解能力與 Gemini-2.5-Pro、GPT-5-High 等模型持平,圖像與視頻生成能力與垂直領(lǐng)域?qū)>P拖喈?dāng),達到全球領(lǐng)先水平。11月8日,LMArena 大模型競技場最新排名顯示,文心模型 ERNIE-5.0-Preview-1022在文本任務(wù)評測中位列全球并列第二、中國第一,尤其在創(chuàng)意寫作、復(fù)雜問題理解等方面表現(xiàn)突出。
文心5.0從跑分看能力并不突出,但多模態(tài)理解的能力則較為突出。目前海外大廠中Gemini在視頻理解上布局較快,其他如OpenAI的GPT-4o單次只能理解音頻或視頻;國內(nèi)大廠亦推出了部分視頻理解模型,但尚未集成至統(tǒng)一的大模型之中。多模態(tài)理解能力有助于囊括更豐富的數(shù)據(jù)語料,幫助模型不斷迭代,踐行李彥宏 “智能本身是最大的應(yīng)用,而技術(shù)迭代速度是唯一護城河”的發(fā)展思路。
![]()
Kimi:Kimi k2 Thinking于11月6日正式發(fā)布,在人類最后的考試(HLE)、自主網(wǎng)絡(luò)瀏覽能力(BrowseComp)、復(fù)雜信息收集推理(SEAL-0)等多項基準(zhǔn)測試中表現(xiàn)達到 SOTA 水平,并在 Agentic 搜索、Agentic 編程、寫作和綜合推理能力等方面取得全面提升。具體而言,Kimi k2 Thinking共1TB參數(shù),激活32B,采用INT4精度(對推理硬件的兼容性更強,對國產(chǎn)加速計算芯片更友好),支持256K上下文窗口,訓(xùn)練成本僅460萬美元(CNBC,楊植麟后在社媒否認(rèn),稱訓(xùn)練成本很難量化,系大部分用于研究和實驗)。
Kimi團隊在Reddit的回復(fù)也透露出了更多信息:1)受模型的“長鏈?zhǔn)酵评頇C制”影響,k2 Thinking推理效果好但回復(fù)慢,后續(xù)將進一步優(yōu)化token效率。2)當(dāng)前k2 Thinking模型的“人性張力”不足,未來版本可能在情緒表達上更開放、更真實。
Kimi k2 Thinking繼MiniMax-M2后再次拿下開源模型寶座的位置,進一步反映國產(chǎn)模型迭代加速趨勢。k2 Thinking后續(xù)同樣會在token效率、情感表達上進一步優(yōu)化,驗證模型工程化重要性。
![]()
MiniMax:10月27日,MiniMax正式開源并上線了專為 Agent 和代碼而生的MiniMax M2模型,發(fā)布時Artificial Analysis (AA)的測評中取得全球第五、開源第一的成績。M2模型在使用工具和深度搜索的能力都非常接近了海外最好的模型,在編程上遜色于海外最好的模型,但也達到國內(nèi)最好的一檔。此外,M2使用了完全注意力架構(gòu),但稀疏程度進一步優(yōu)化(總參數(shù)230B,激活參數(shù)量10B),實現(xiàn)定價2.1人民幣(0.3美元)每百萬輸入Token,8.4人民幣(1.2美元)每百萬輸出Token,僅Claude 3.5 Sonnet的8%。
![]()
盡管MiniMax-M2只有230B參數(shù)量,激活10B,但這為其使用全注意力仍然實現(xiàn)低成本奠定了基礎(chǔ)。其將上下文窗口也從前代的100萬token縮減至20萬,但已能夠完成其主攻的智能體和代碼任務(wù),并能進一步優(yōu)化響應(yīng)速度。總體而言,M2仍然在踐行當(dāng)前模型一貫的迭代方向——更好性能和更低成本,其中注意力機制、Agent、泛化、數(shù)據(jù)等細(xì)節(jié)打磨還有較大空間,上述技術(shù)方向研究預(yù)計將促進模型迭代將進一步加速。
總結(jié):海外GPT-5.1更新圍繞效率和個性化升級,國內(nèi)模型同樣加速迭代。百度文心5.0多模態(tài)理解能力較為突出,有望為后續(xù)模型迭代提供更豐富的數(shù)據(jù)語料。MiniMax M2和Kimi k2 Thinking接連榮登開源模型榜首,前者專為 Agent 和代碼而生,成本僅為Claude 3.5 Sonnet的8%;后者則將在token效率、情感表達等模型工程化方向不斷迭代,優(yōu)化模型表現(xiàn)。后續(xù)憑借國內(nèi)工程化優(yōu)勢,以及龐大用戶群體提供的使用反饋,國產(chǎn)模型及AI應(yīng)用產(chǎn)品存在趕超海外的基礎(chǔ)。
投資建議:國內(nèi)模型加速突破,工程化為AI落地重要方向。





京公網(wǎng)安備 11011402013531號