21世紀經濟報道記者 彭新
近日,市場調研公司Gartner發布《2025年中國數據、分析和人工智能技術成熟度曲線》報告,解析中國AI市場未來走向。
生成式AI和代理型AI是報告的兩大核心主題,共同塑造了今年中國AI發展的主要趨勢。該報告顯示,此前AI市場“頂流”大語言模型(LLM)已越過市場期望頂峰,熱度趨冷并開始滑向“泡沫破裂低谷期”,在經歷“百模大戰”后,市場已趨于理性。
![]()
Gartner高級研究總監閆斌稱,對于中國的數據、分析和AI領域的領導者來說,現在比以往更需要在AI炒作的喧囂中認清AI的真正價值。他告訴21世紀經濟報道記者,從現實來看,大語言模型的能力已到天花板,性能的邊際提升有限,使得AI市場趨勢從“模型”向“智能體”轉移成為必然。
“到2027年,優先考慮準備AI就緒型數據而非生成式AI模型開發的中國企業中,80%實現的業務價值將是同行的兩倍。”閆斌表示,中國AI產業正從嘗鮮期進入價值兌現期,數據質量與治理能力將取代模型性能成為核心競爭力。
GPT-5反應平淡,2026年將進入“AI下半場”
閆斌表示,GPT-5的市場反應證明了大語言模型發展的重要拐點。市場曾期待GPT-5接近AGI(通用人工智能),但實際發布后效果有限。“這體現了現在大語言模型的能力——技術發展隨著時間推移確實有過快速飛躍,但到今天已經慢慢感覺到天花板了,上面仿佛一條無形的線壓著它,它上不去了。”他說。
根據國際AI模型評測網站Artificial Analysis數據,OpenAI從2022至2023年保持領先優勢,但已進入“Frog Leap”(青蛙跳)式混戰——某個模型跳過去領先一點,另一個模型馬上超過上來。國內的DeepSeek、千問、Kimi等模型已進入第一梯隊。
“現在模型排名第一、第二、第三,實際使用起來區別不大。”閆斌指出,各家模型性能提升空間有限,領先優勢微乎其微。這也解釋了為何大語言模型在Gartner成熟度曲線上從期望峰值掉頭向下。
閆斌表示,模型廠商數量正在減少,出現收購、并購和價格戰。未來模型的發展方向是從“?”轉向“精”,通過Small Language Model(小語言模型)和領域專業模型(DSLM)實現精細化、場景化突破。
Gartner強調,大語言模型并非萬能,未來更強的AI系統需要結合多種技術。“大語言模型就像汽車發動機,AI Agent是整車。”閆斌比喻,“發動機可以用大語言模型,也可以用其他技術,最后拼裝成整車,混合系統要比只依賴大模型好用得多。”
另一方面,Gartner調研數據顯示,中國企業將生成式AI部署到生產環境的比例從2023至2024年的6%至8%,在2025年暴漲至40%。“我相信現在已經漲到60%至70%。”閆斌判斷,2025年企業對生成式AI的“嘗鮮期”結束后,2026年將正式進入“AI下半場”。
閆斌強調,生成式AI時代對高質量數據有很高要求,企業若無法提供高質量的“上下文”數據,再強的模型也無法產生價值。Gartner預測,到2027年,優先考慮準備AI就緒型數據的中國企業,其實現的業務價值將是同行的兩倍。
對于傳統企業AI應用上,閆斌坦言仍面臨巨大挑戰。“有些企業光做數字化轉型就要三年。”他表示,AI是系統工程,涉及企業方方面面的改造。“如果企業的API(應用程序編程接口)根本不好用,要引入智能體,還得先把舊有系統做好數字化轉型。”
相比之下,互聯網和高科技企業將走得更快,因為系統架構新、API友好、數據管理規范、企業文化接受度高。
“Agent Washing”泛濫,多數產品名不副實
在AI Agent(智能體)方面,閆斌直言行業存在嚴重的“Agent Washing”(貼牌智能體)現象,即將普通的聊天機器人宣稱為智能體。
“昨天廠商的產品其實還是聊天機器人,今天搖身一變成了AI Agent,里面其實什么都沒變、只有名字變了。現在市面號稱的智能體,可能10個里面有8個其實并不是真正的。”閆斌表示。從資本市場來看,近期不少公司借助AI智能體概念進行宣傳炒作,但產品本質并未改變。
從演進路徑看,AI智能體已經歷了三個階段:聊天機器人(Chatbot)專注于在對話中給出答案,智能助手(Assistant)幫助完成任務,智能體(AI Agent)則要完成更復雜的目標。“從今天來看,我們可能剛剛跨入智能體的大門。”閆斌判斷,當前還有很多產品不是真正的AI Agent,處于從Assistant向Agent過渡的階段。
根據Gartner定義,真正的AI智能體需要具備三要素:感知世界、自主決策、執行行動,最終與環境形成閉環反饋。“以五分制評價,大模型在語言理解上可以打四星半,行動能力四星,但決策能力只有三星。”閆斌表示,大模型尤其是在針對企業復雜場景的決策能力仍然較弱。
從實際應用來看,閆斌透露,市面上很多所謂智能體,為了可靠性,仍然基于寫死的工作流程,難以做到智能化。“根本原因是智能體可靠性不足,完全依賴大語言模型做決策有點像算命的感覺,因為大語言模型還是基于概率的。”
觀察近期AI智能體技術進展,MCP(模型上下文協議)一詞頻頻被提及,MCP是AI智能體用來執行任務的一種通信協議或標準。
對此,閆斌認為MCP價值被高估,他解釋,MCP的理想狀態是互聯網中智能體和工具處于開放狀態,可以通過統一協議調用。但實際應用中來看,調用出錯時的異常處理、安全因素、性能因素都是問題。“對于企業來講,難點不在于用什么協議,難點是原來為軟件寫的API是否適合Agent調用。”他說,包括權限管理、調用頻率控制等都需要改造。





京公網安備 11011402013531號