
![]()
“實現商業閉環,提供「方便、易用、便宜」的算力是關鍵。”
作者丨劉伊倫
編輯丨包永剛
2025年12月12-13日,第八屆GAIR全球人工智能與機器人大會在深圳·博林天瑞喜來登酒店正式啟幕。
作為AI產學研投界的標桿盛會,GAIR自2016年創辦以來,始終堅守“傳承+創新”內核,始終致力于連接技術前沿與產業實踐。
13日「AI 算力新十年」專場的“如何從‘算力基建’到‘價值閉環’?”圓桌對話中,數位業內資深專家展開精彩對談與深度探討,拋出諸多極具啟發性的觀點:
參與本次圓桌論壇的嘉賓包括:
李東東(主持人):三豐投資創始合伙人
師天麾:清程極智聯合創始人、產品副總裁
徐永昌:朗特智能AI事業部(朗擎數科)CIO
“從幫客戶省錢,到幫客戶賺錢,是算力行業商業閉環的關鍵。我們對商業閉環的理解是,國內很多算力卡的流通效率是不高的,且機房空置率較高,所以我們投資了北京利舊科技公司,在算力卡回收業務上發力,核心是幫客戶極致節省采購成本、硬件成本,這也是一種節流的方式。”——李東東
“2025年,AI推理市場已步入爆發前夜。上半年中國MaaS市場規模已實現4-5倍增長,部分大廠管理層甚至預判明年增速有望達到10倍。文本大模型的效果已許久未出現突破性的震撼進展,但圖片領域幾乎每幾個月就有新的視頻或圖片生成模型引發社交平臺熱議,技術迭代速度顯著快于文本領域,未來潛力值得關注。”——師天麾
“AI眼鏡等各類硬件產品若能快速推向市場,并在未來兩三年內實現數億副的普及規模,將引發Token消耗的爆發式增長。屆時每個人日均采集或消耗的Token量,有望從當前的約1萬提升至十萬甚至幾十萬量級。當數億用戶以日均幾十萬Token的規模消耗時,整體Token消耗規模或將實現百倍乃至更高倍數的增長。”——徐永昌
三位深耕行業的資深實踐者,共同開啟這場關于算力基建價值重構與未來趨勢的深度對話。他們中,有人立足資本視角洞察產業脈搏,有人扎根技術前線打磨產品落地,有人坐鎮企業中樞統籌算力資源,不同維度的經驗碰撞,為算力行業的破局之路提供全新思考。
而這些觀點,恰恰聚焦于算力基建狂飆突進背后的關鍵拷問:價值閉環該如何構建?被寄予厚望的推理需求,究竟何時能迎來全面爆發,成為破解算力閑置的核心引擎?展望未來,算力產業還有哪些值得“押注”的核心方向?作者長期關注算力與芯片產業,歡迎添加微信YONGGANLL6662交流更多信息。
以下是圓桌對話的精彩內容,雷峰網作了不改變原意的整理與編輯:
李東東(主持人):各位嘉賓、同仁,下午好!我是本場圓桌主持人李東東。三豐投資深耕股權投資十余年,今年重點布局算力與能源領域,在AI算力領域我們投資了智算通、利舊科技等項目。今天有幸主持論壇,與大家探討大規模算力基建的價值閉環實現路徑。
當前算力賽道熱度高漲,但痛點顯著。信通院數據顯示,不少智算中心算力平均利用率不足40%,算力消納已成行業通病。尤其大模型訓練退潮后,增量需求轉向推理側,而推理場景分散零碎,如何破解這一困境,是行業核心議題。
今天我們有幸邀請到清程極智聯合創始人師天麾、朗擎數科CIO徐永昌兩位專家分享見解。首先,請兩位嘉賓做自我介紹。
師天麾:大家好,我是清程極智聯合創始人兼產品副總裁師天麾。公司聚焦AI Infra軟件層,去年推出八卦爐訓練系統,今年開源赤兔推理引擎,目前正打造大模型MaaS API一站式評測與調用平臺AI Ping。
徐永昌:大家好,我是徐永昌。目前聯合朗特智能控股打造液冷算力產品,深耕分布式架構,熟悉AI全棧技術棧。我已與英特爾、英偉達、華為海思、海光、阿里平頭哥、百度昆侖芯、摩爾線程、沐曦、燧原、壁仞、天數智芯、靈汐科技、中興通訊、銳捷、星融元等海內外芯片、網絡廠商深度溝通,逐步推進浸沒式液冷產品適配。
我們核心解決兩大問題:一是降低成本,公司液冷產品成本可控制在風冷水平;二是降低PUE至1.1。國家發改委、數據局明確要求新建智算中心PUE需低于1.3,而傳統風冷智算中心PUE普遍約1.5,2026年起風冷智算中心將逐步轉向液冷方案。
目前英偉達GB200及馬斯克20萬卡集群均采用冷板式液冷,不僅造價高昂,GPU滿載溫度仍達85℃。我們采用浸沒式液冷方案,可將GPU滿載溫度從80-90℃降至50-60℃,顯著降低設備故障率,降低維保成本。
設備故障率降低將大幅提升千卡、萬卡集群的MFU。當前全球萬卡集群平均MFU僅30%,采用我們的液冷方案后,有望將這一數值提升至50%以上,這是大模型預訓練對算力要求的核心指標,也是我們的核心技術優勢。
01
算力基建如何實現商業閉環?
李東東(主持人):今年算力行業的發展可以說是走到了新的高峰,當前行業內常說“算力是數字經濟的核心生產力”,結合兩位各自的從業背景,你們認為目前國內算力基建的發展走到了哪個階段?
師天麾:當前算力建設與以往核心區別在于,過去重建設、輕消納與使用;如今更強調性價比,核心是“建即用、用更好”。建設前需明確用戶與場景:是做MaaS模式下的PD分離、批量對外租賃,還是類似超算的Slurm分時復用。不同模式與場景,對硬件選型、組網及軟件平臺的功能、性能要求均不同。行業已轉向實用導向,需從應用場景與客戶需求倒推軟件搭建與算力中心建設,實現從“可用”到“好用、高性價比”的升級。
徐永昌:今年行業發展可分為兩個階段。上半年,DeepSeek-R1開源標志著其推理大模型已追平OpenAI-o1。短短一年半實現OpenAI八年的成果,核心并非算力或算法,而是數據——DeepSeek團隊以中文為核心Token,構建高質量數據集開展預訓練與后訓練。中文常用字僅數千個,遠少于英文百萬級單詞量,但漢字天然具備強關聯性與可預測性,英文需逐Token預測,中文則可由首字同步預測后續多字。這一特性為行業垂類模型帶來機遇:構建足量高質量數據,即可提升模型垂類問題解決效果。
下半年,對話機器人、Agent等垂類模型加速爆發。以華西第二醫院(全國婦幼綜合榜首)為例,院長日均接診僅10余人次(每次30-40分鐘)。我們將院長經驗轉化為高質量數據集與知識庫,通過后訓練打造AI分身,其在兒科呼吸領域診療水平已達院長90%。患者就診前先經AI醫生多輪預診,歸納常見問題并匯總至院長工作看板,使單次問診時長壓縮至5分鐘,日接診量提升至30人。
客戶無需自建機房,僅需一臺4090或5090服務器搭配我們1立方米的TANK箱,即可獲得本地私有化算力解決方案,實現軟硬件一體化落地。下半年起,客戶付費意愿顯著提升,核心是價值交換的達成:芯片+模型+Agent的組合切實解決實際問題、創造價值。預計明年,這類落地場景將迎來爆發。
李東東(主持人):徐總的觀點我非常認同,整個AI新基建核心就是算力、算法和數據。我們在投具身智能項目時有一個觀點,為什么要做“人形機器人”?核心原因就是人類世界有大量的數據可以供機器人學習,這是人型相對其他形態的數據優勢,中文世界也給中國反超世界AI,提供了很強的數據基礎。
我們今天核心探討“從算力基建到價值閉環”,能否請兩位分別定義一下:在你們的業務場景中,“算力價值閉環”的核心標志是什么?它需要滿足哪些關鍵條件?
師天麾:算力作為基礎設施,核心價值在于用戶能否便捷、低門檻地應用。行業實現盈利的前提,是落地場景具備實際價值。殺手級應用是價值核心載體,而其涌現需先實現應用“百花齊放”——唯有算力達到易用、低成本的標準,AIGC創作者才能充分發揮創造力,AI應用開發者也能結合場景推進落地。綜上,算力價值體現在“方便、易用、便宜”三大核心點。
我特別關注MaaS模式,它已基本解決算力可用性與易用性問題:用戶無需關注算力底座的芯片型號,也無需操心推理引擎的跨型號運行邏輯。芯片廠商可聯合軟件廠商,通過大規模EP并行、PD分離等優化技術,大幅降低成本、提升性價比,這是關鍵突破口。
徐永昌:價值閉環的核心是AI方案能在業務場景落地并實現盈利。以某年營業額數億的房地產銷售公司為例,其核心業務是為樓盤提供工具支持:初期通過MaaS模式接入豆包的多模態大模型API,將客戶與銷售的溝通語音轉化為文字,經微調大模型實時分析客戶成交意向,助力提升成交量,開發商因此愿意付費。
另有一家AI應用公司,Token消耗量從春節的10億快速增長至5月的40億,雖豆包MaaS團隊提出可承接超50億Token/日的需求,但該公司出于數據與策略的核心價值考量,提出私有化算力存儲需求。最終朗擎為其提供浸沒式一體機本地算力解決方案。
用戶付費意愿本質取決于兩點:一是AI能幫其盈利,二是能解決數據安全、效率提升及成本降低等核心痛點。唯有切實破解對方問題、助力其實現盈利,才能形成真正的價值閉環。
李東東(主持人):從幫客戶省錢,到幫客戶賺錢。上半年,我們其實也有自己的答案。3月份,我們跟北京愛收控股一起成立了合資公司智算通,我們對商業閉環的理解是,國內很多算力卡的流通效率是不高的,且機房空置率較高,所以我們這個被投企業在算力卡回收的業務上做了數億元的營收,核心是幫客戶極致節省采購成本、硬件成本,這也是一種節流的方式。
從技術落地層面來看,算力基建往往面臨算力適配性不足、調度效率低、數據與算力脫節等問題。請問師博士,清程極智在推動算力與AI應用場景深度融合時,最核心的產品和技術痛點是什么?您如何將高成本的算力轉化為客戶可感知、愿付費的產品價值?
師天麾:AI項目實際落地時,國央企客戶多為自建算力,硬件涵蓋英偉達新舊顯卡及多款國產型號,需求也呈多元化特征。其訴求并非僅部署DeepSeek等單一模型,而是聚焦多模態智能體應用,需兼容OCR、VAL、語音及圖文生成等多種模型。
面對底層硬件繁雜、上層應用多元的情況,不同應用與模型適配各型號顯卡的工作量極大。為此,我們在中間層搭載推理引擎,可實現底層多型號顯卡的便捷調用與上層多應用的順暢運行。
我們采用分階段服務:場景驗證階段,1-2臺服務器即可完成研發與AI效果評估;若需向多區域、多人員大規模落地,我們將進一步提供硬件選型指導及針對硬件、規模與應用的聯合優化,最大化提升性價比。
李東東(主持人):下一個問題請教一下徐總,從企業實踐層面來看,朗擎數科作為數字化服務提供商,必然會接觸到不同行業客戶的算力需求。您做為企業的技術決策者能否分享一下,企業在投入算力基建后如何衡量其投資回報率?以及最容易陷入哪些“價值陷阱”?比如盲目追求算力規模、忽視應用落地效果、缺乏可持續的商業模型等,您認為背后的核心原因是什么?
徐永昌:算力行業的行業應用落地,核心前提是做好技術選型,我接觸的客戶主要分為三類:第一類僅關注服務器TFLOPS算力參數,這類選型方式隱患極大;第二類會結合具體模型需求關注算力+顯存,比如為運行DeepSeek滿血版,會針對性核算一體機所需的1.4T顯存(或量化后700G顯存);第三類以自有軟件團隊的客戶為代表,需求更為精細,如華西第二醫院會明確CPU核數、主頻等細節,因單純部署開源模型與結合行業數據做微調訓練、強化學習的算力需求差異顯著。
某院所不到一千萬預算的項目,初期供應商推薦十幾臺4090,但PCIE協議不適合大模型訓練,后來又推薦H200方案,而我參與項目后結合客戶“科研類后訓練及先進驗證”的核心需求,推薦了B200,理由有三:一是Blackwell架構支持FP4精度,較H200Hopper架構以及4090只支持FP8精度更具未來三年的適用性;二是性價比更高,同成本下B200推理算力(FP4下144P)遠超H200(FP8下32P);三是浸沒式液冷方案改造費不超過50萬,與傳統風冷相當,卻能將GPU核心溫度從90-100℃降至60-70℃,大幅降低故障率、提升MFU。
另一案例是山東某年營收700億的石油煉化企業,計劃投建3000P算力中心以獲取政府電費補貼。我建議通過技術優化將PUE降至1.1,擺脫對補貼的依賴,硬件上無需強上國產GPU,直接選用B200即可滿足訓練+推理需求;同時提出將3000P拆分為10個300P項目,落地至不同區縣——既契合區縣智算中心的市場需求,又能結合多區縣“十五五”AI+產業落地政策。總結而言,算力選型的核心是“由應用場景及模型倒推”,而非盲目采購服務器。
李東東(主持人):這種現象挺常見的,甲方客戶的需求相對明確,但是甲方客戶自身并沒有很專業全棧解決方案認知,所以前置咨詢以及方案的溝通非常重要。這也引入了我們下一個問題,影響價值轉化的瓶頸,除了甲方對方案的不了解之外,還有沒有其他的點?比如商業模式、技術落地方案或其他的場景?
師天麾:與過往市場邏輯不同,此前行業普遍采用先采購服務器再規劃后續業務的模式,市場競爭陷入同質化內卷,整體利潤空間被嚴重擠壓。而隨著MaaS的爆發,市場格局已發生很大轉變。
我之所以高度看好MaaS,除其具備低成本、易部署的核心優勢外,更關鍵在于其清晰且短鏈路的盈利邏輯。MaaS模式恰好打通了技術與盈利的轉化路徑,中間無過多環節干擾,技術實力的每一次提升,都能直接帶動利潤率增長。因此,技術是當前MaaS市場的核心競爭力,預計明年該市場規模有望實現數倍甚至十倍的增長。
值得注意的是,盡管MaaS市場仍存在價格競爭,但與此前服務器市場的競爭邏輯已截然不同。過往服務器市場的競爭聚焦于硬件本身,企業多通過壓低設備售價搶占份額;而在MaaS領域,客戶核心關注點在于服務性能與綜合報價,對底層硬件配置并無過多關注。企業可借助軟件技術優化,在不依賴高端硬件的前提下,實現服務性能與性價比的雙重提升,從而有效控制成本,保障充足的利潤空間。綜上,在MaaS這一云服務場景中,技術已成為決定市場競爭力的關鍵要素。
徐永昌:非常認同師博士關于AI價值閉環痛點與瓶頸的觀點,我將其劃分為三大核心層面。其一,核心痛點聚焦于大模型本身:基座大模型的泛化能力、專業知識理解能力仍有提升空間;即便MoE架構的萬億參數模型已出現,但諸多場景中,當前小模型的基礎能力實則被高估。不過大語言模型發展存在明確規律,每半年左右,上一代大尺寸模型的核心能力便會遷移至更小尺寸的模型中。
以實際案例來看,千問2.5具備滿尺寸模型版本,而千問3的32B模型性能已比肩千問2.5的72B模型,這一能力遷移過程具有不可逆性。據此推測,半年后32B模型在多項核心能力上,或將達到年初DeepSeek 671B滿血版的基礎水平。因此,基座大模型能力的持續迭代是核心前提,無論是國外的OpenAI,還是國內的DeepSeek、MiniMax等企業,仍需布局GB200、GB300等先進算力,持續推進基座大模型的構建與優化。
其二,在基座模型成型后,行業模型后訓練階段面臨的核心問題是如何構建高性價比的算力及綜合解決方案。當前最優路徑指向超節點架構:類似英偉達GB200、GB300的方案,通過Scale-up模式將數十個乃至數百個GPU借助高速光互聯技術整合,在邏輯上實現單服務器化運行。這種架構可支持訓推一體(日間用于推理、夜間開展后訓練),大幅降低單Token生成的綜合成本。據英偉達案例顯示,H200與GB200在單Token生成成本上存在數倍差距。預計2026年起,眾多企業將逐步摒棄傳統4U、8卡服務器,轉向高速互聯的數百卡Scale-up超節點,這種架構的普及將縮短行業模型訓練周期、降低成本,加速價值轉化進程。
其三,特定垂類場景的突破,離不開高質量數據與行業專家資源對模型的持續優化。以華西醫院為例,其坐擁全國最大規模的100億條真實電子病歷庫,且匯聚了國內許多頂級醫學科學家,為醫療垂類模型優化提供了核心支撐。
唯有依托優質基座模型、適配垂類需求的超節點算力,疊加高質量行業數據與專家資源,才能推動AI Agent真正解決更多實際問題。這三大層面的問題需系統性突破,否則AI行業仍可能延續今年的現狀,市場熱度高漲,但具備實際應用價值的產品寥寥無幾,這正是我對當前AI價值閉環瓶頸的核心判斷。
李東東(主持人):師博士,清程極智在AI產品研發與算力調度優化方面有豐富經驗,你們認為要實現算力的高效價值轉化,在算力架構設計、算法與算力協同、數據治理等方面,有哪些關鍵技術舉措或關鍵指標能清晰體現算力投入給客戶帶來了真實的業務增長或效率革命?能否結合具體案例(比如某行業的AI應用落地)分享一下?
師天麾:正如前面講到的,AI模型真正落地時,亟需極致的全鏈路優化。以去年的合作案例為例:我們曾與清華系多模態大模型企業生數科技(專注于圖片、視頻類模型及產品研發)攜手,針對其一款To C圖片生成產品進行優化。該產品基于ComfyUI(圖片生成工作流工具)開發,當時單張圖片生成耗時達30秒,這速度雖在圖片生成領域處于可接受范圍,但顯著影響用戶體驗,雙方因此達成聯合優化共識。
我們全面掌握了該產品的底層硬件顯卡規模、上層運行的圖片大模型架構及具體工作流邏輯。基于對全場景的深度理解,我們在自有推理產品上為其提供定制化優化方案,并聯動其團隊開展算法與系統的聯合調優。最終,產品性能實現5-6倍的大幅提升。由此可見,未來AI模型落地過程中,這種覆蓋硬件、中間件至上層算法應用的全鏈路打通及聯合優化模式,將呈現持續增長的趨勢。
李東東(主持人):徐總,朗擎數科服務過眾多企業客戶,你們在幫助客戶搭建算力相關的解決方案時,是如何篩選核心應用場景、優先落地高價值項目的?有沒有一套可復制的“算力+應用”落地方法論?
徐永昌:我分享的算不上方法論,更多是實踐積累的經驗。在與客戶溝通時,無論是出資方,還是最終使用方,我們首要傳遞的是本輪AI浪潮的核心,大語言模型的基本特征,“算力、數據、算法模型”三要素,而非僅聚焦于所需的幾百P算力這類單一指標。
其次,要明確客戶的核心訴求:其引入模型基本上并非為了預訓練,關鍵是厘清其需求是模型后訓練還是單純的推理應用,這兩類需求對應的算力配置與解決方案截然不同。當我們向客戶完整呈現本輪AI的產業全貌后,即便當下未達成合作,未來其面臨 AI 相關規劃或項目時,也會優先咨詢我們。因此,與甲方溝通時需打破一些局限,展開更全面、更深入的交流。
第三,必須對接業務專家。業務專家深諳完整業務流程,比如為客戶搭建Agent系統時,需通過他們明確工作流中的優化節點,判斷哪些環節適合用大模型或多模態模型改造。僅與管理層溝通無法觸及核心問題,唯有與業務專家深入對接,精準采集需求與痛點,才能給出合理的評估與預期管理。預期管理尤為關鍵:既要避免客戶對AI短期價值產生過高預期,也要幫助客戶樹立中長期信心,AI必將引領行業變革,若不布局,同行的探索會使其陷入被動,短期與中長期預期的平衡能幫助客戶建立合理認知。
最后,AI全棧方案的輸出能力至關重要。以部分芯片公司為例,它們雖以GPU銷售為核心,但需構建完整的產業閉環:既要明確千卡集群的實際使用者,也要確定服務器資產的承載主體或落實供應鏈金融方案,還需對接服務器集成方完成芯片部署。所以AI產業鏈從業者與客戶溝通時,需具備全棧思維,不是在每個環節都做到極致專業,但必須能精準覆蓋各關鍵節點并清晰闡述。
總而言之,唯有以全棧視角、坦誠態度與客戶展開全方位交流,當客戶真正推進 AI 應用落地時,才會將我們作為首要合作選擇。
02
推理尚處爆發前夜?
多模態的「快速迭代」將改寫產業增長節奏
李東東(主持人):行業內普遍將殺手級應用的誕生、推理需求的爆發,視作破解算力閑置困局的關鍵抓手,也將其視為下一波算力需求增長的核心引擎。二位如何判斷推理需求全面爆發的時間節點與演進節奏?
師天麾:今年AI推理市場已步入爆發前夜。正如我在演講中提及,上半年中國MaaS市場規模已實現4-5倍增長,部分大廠管理層甚至預判明年增速有望達到10倍。但在我看來,真正的全面爆發仍依賴大模型能力的進一步突破。
當前落地成效較好的場景,多集中于純文本大語言模型的應用,且多為前一兩年可預見的領域,例如智能客服、聊天機器人、文本生成與整理等。但純文本場景的覆蓋面有限,AI的廣泛滲透更需依托視覺、圖片、視頻等多模態技術的成熟。目前多模態應用存在兩大核心痛點:效果不穩定且成本過高。
我曾與一位專注動態漫創作的導演交流,其業務核心是將小說轉化為漫畫并實現動態化。我提出AI可覆蓋其大部分創作流程,但他表示可行性較低,核心原因在于AI應用成本過高,僅能小范圍嘗試。事實上,AI具備完成這類任務的技術潛力,但高昂的成本形成了顯著壁壘。以圖片、視頻生成的“抽卡”機制為例,單張生成成本已偏高,而因效果不確定性,往往需生成4-10張才能篩選出符合需求的結果,這進一步加劇了成本負擔。
AI推理市場的全面爆發,首要前提是多模態應用效果的穩定化,這也是AI Infra領域的核心發力點。當模型結構基本定型后,通過針對主流顯卡、芯片的定向優化,可有效提升運行效率、降低成本,為全面爆發奠定基礎。因此,多模態技術的進展至關重要。
目前多模態領域的發展值得期待。文本大模型的效果已許久未出現突破性的震撼進展,但圖片領域幾乎每幾個月就有新的視頻或圖片生成模型引發社交平臺熱議,技術迭代速度顯著快于文本領域,未來潛力值得關注。
徐永昌:在我看來,2025年AI推理市場尚未進入全面爆發階段。這一判斷可從我們與頭部主流大模型企業的溝通中得到印證,其服務器采購、租賃訂單的增長態勢,直觀反映出當前市場的增長節奏仍較為平緩。
不過,孫正義曾預測,到2035年AI將滲透全球5%的GDP,對應形成每年9萬億美元的龐大市場規模。據此倒推,未來數年推理算力需求大概率將保持每年十倍以上的高速增長。對在座各位而言,核心問題在于如何切入這一藍海市場、搶占細分份額。
頭部大廠及大模型企業憑借龐大的用戶基數,自然占據算力需求增長的主要賽道。但對行業內的中小企業而言,突破口在于聚焦垂類場景與邊緣側算力服務。以我們自身為例,我們提供液冷服務器整體方案,并結合垂類模型服務,為醫院、工廠、科研機構等場景提供本地化部署支持,這種模式能切實幫助AI應用企業提升營業額。
比如我們與華西醫院體系控股公司的合作:對方輸出軟件能力,我們提供硬件支撐,共同打造軟硬件一體化方案,并依托華西的品牌優勢,在全國推廣“AI 醫聯體”項目。該模式對全國大量中小醫院、民營醫院具備極強的吸引力。這一案例或許能帶來啟發:中小企業要么融入成熟的垂類應用方案生態,成為其中關鍵環節;要么主動對接行業鏈主企業,聯合構建垂類AI Agent整體解決方案。企業需主動謀劃經營發展,而非被動等待市場成熟。
李東東(主持人):這一趨勢成為算力產業主流后,又將對當前的算力基建布局、技術路徑選擇及商業模式帶來哪些影響?
師天麾:生產力發展必然伴隨轉型陣痛,正如汽車普及導致黃包車夫失業,卻催生了司機這一新職業。AI對各行業的重塑亦是如此,在其全面爆發前,可能會涌現出諸多未曾預料的殺手級應用與全新玩法。這就像互聯網爆發初期,沒人能預見如今刷短視頻、看短劇會成為日常,也沒人想到最初為學習、看時政新聞而使用的抖音,最終走向了多元娛樂場景。人類難以想象未曾接觸過的事物,但可以確定的是,AI將深刻改變各行業生產方式:部分行業與職業會逐漸消失,同時也會催生大批新職業、新賽道。這些新賽道的具體形態雖難以精準預判,但值得高度期待。
徐永昌:AI的廣泛普及,首要前提是成本實現一個數量級的下降,每百萬Token的價格需再降低10倍以上。而這一目標的實現,核心在于全系統優化:機房層面可通過風冷改液冷提升效率;硬件端采用超節點架構,性價比遠高于傳統4U、8卡服務器;模型層面可依托大模型能力優化,減少小模型運行對算力與顯存的占用,從而自然壓縮成本。預計未來半年至一年,每百萬Token價格再降10倍具備較高可行性。這也從側面反映出算力行業的激烈競爭:每6-12個月,相關價格便可能腰斬甚至出現更大幅度下調。這種競爭對終端用戶、普通民眾及AI應用開發企業而言實為利好,將倒逼所有AI Infra企業深耕技術、優化服務。
03
算力、算法、數據「齊驅」,
百倍Token調用增長將成為現實
李東東(主持人):2025年算力市場涌現了政策支持、國產芯片突破、算力互聯落地等關鍵事件,這些動態正深刻影響行業走向。想請兩位嘉賓結合今年的產業實踐,聊聊哪些事件最具里程碑意義,以及它們將如何塑造2026年算力產業的發展格局?
師天麾:在我看來,DeepSeek的爆火是今年AI領域最關鍵的事件,它徹底重塑了大眾與行業對AI的認知。我印象尤為深刻的是,今年年初我母親也曾使用DeepSeek,借助其生成藏頭詩用于向親友、同事發送新春祝福,還稱贊其效果極佳。事實上,前一兩年的模型也具備類似能力,并非如今的模型性能有了顛覆性提升,核心差異在于此前大眾對AI的關注度不足、未形成應用意識。
DeepSeek的崛起,推動AI從行業層面走向全民應用:無論是普通民眾、個人用戶,還是國家與政府層面,都開始高度重視AI技術并主動實踐。同時,它也帶動了AI Infra領域的爆發。其在海外的走紅,核心原因在于海外市場意外發現,DeepSeek僅用少量硬件設備、以較低成本就訓練出了高性能模型,這背后既得益于模型架構的優化,更離不開AI Infra軟件的支撐。今年春節后,行業內甚至出現了“DeepSeek開源周”,其開源了大量Infra訓練與推理相關軟件,讓業界普遍意識到Infra軟件的核心價值。
對比去年,我們還需向投資人科普AI Infra的定義;而今年,投資人已主動洞察到其重要性,紛紛尋求合作與投資機會。此外,國產化進程的推進(如摩爾線程上市)、超節點技術的發展,也讓MaaS大規模并行優化的價值愈發凸顯。通過這類大規模優化,AI應用成本得以大幅降低,這些都是今年AI領域的關鍵突破。
徐永昌:我認同師博士剛才提及的幾個行業里程碑,我歸納為三大核心維度。
第一是模型領域,DeepSeek-R1的開源不僅引領了全球AI開源格局,更堅定了國內外各大模型企業加大基座模型研發的決心。我們與MiniMax、智譜等企業交流后了解到,其管理層認為無需過度糾結于用戶獲取成本,若基座模型足夠優秀,如DeepSeek-R1,有望在短時間內實現數億用戶的突破。這給行業同行帶來關鍵啟示:基座模型的核心能力是大模型企業的立身之本。
第二是算力領域的突破。過去,國內算力領域長期跟隨英偉達的技術路線,從A100、H100到GB200均是如此。令人欣喜的是,今年華為、阿里、百度、曙光等企業紛紛推出國產化超節點方案,標志著國內在超節點領域已逐步追平國際水平。值得關注的是,英偉達GB200采用冷板式液冷方案,GPU滿載溫度達85℃,而國產GPU若與全新浸沒式液冷方案結合,可將GPU溫度從85℃降至65℃,故障率也隨之從全年3%降至1%以下。這種軟硬件的協同優化,有望使國內超節點在算力維度實現突破,甚至在明年英偉達Rubin架構超節點推出時具備反超潛力。
第三是數據領域的里程碑。今年多款AI眼鏡產品陸續發布,涵蓋單目綠色AR屏、雙目全彩等多種形態,小米、阿里等大廠的入局更將催生數據維度的爆發。此前,通過手機移動采集現實世界數據存在諸多局限,如續航不足、操作不便等,而低功耗可全天佩戴的AI眼鏡,能夠實時抓取物理世界數據,這將極大加速世界模型的訓練進程。
綜上,AI“三駕馬車”(模型、算力、數據)各自誕生了標志性的里程碑事件。值得關注的是,當前AI眼鏡雖仍存在諸多技術瓶頸,但已有突破性進展值得期待:國內有家創業企業,其創始人是Google Glass第一代發明人,該企業正研發定價千元以內的雙目全彩AI眼鏡。這款產品可適配近視人群,能以不足千元的成本提供帶近視功能的雙目全彩AR眼鏡方案。
若該產品或同類產品能快速推向市場,并在未來兩三年內實現數億副的普及規模,將引發Token消耗的爆發式增長,屆時每個人日均采集或消耗的Token量,有望從當前的約1萬提升至十萬甚至幾十萬量級。當數億用戶以日均幾十萬Token的規模消耗時,結合現有Token消耗基數,整體規模或將實現百倍乃至更高倍數的增長。讓我們共同期待2026年這一行業圖景的實現!
李東東(主持人):最后請兩位嘉賓分別用一句話來總結一下2025年的算力市場,并用一句話或一個關鍵詞對2026年做一個展望或預測。
師天麾:2025年,國內AI從訓練走向推理有非常明顯的轉變,并且催生了MaaS市場進展迅速。明年,推理市場以及國產化的進一步增長趨勢是勢不可擋的。
徐永昌:若用一個詞總結2025年的AI行業,我認為是“推理”。無論是梁文鋒團隊推出的DeepSeek-R1推理大模型,還是行業對AI推理應用的廣泛探索,都印證了這一核心趨勢。
站在個人視角,我判斷2026年將聚焦兩大關鍵詞。其一為“國產”:2026年更多大廠及央國企將加速轉向國產芯片。其二為“液冷”:發改委明確要求新建智算中心PUE需低于1.3,而當前多數國產芯片采用風冷方案的PUE高達1.5,液冷技術成為必然選擇。因此,2026年或將成為國產芯片與液冷技術爆發的元年。





京公網安備 11011402013531號