2025年是AI應用爆發的元年,當全球AI競賽步入“中國時刻”,一場深刻的技術變革正悄然改寫產業格局。在此關鍵節點,行業面臨核心命題:如何跨越AI技術到規模化應用的鴻溝?下一個顛覆性的AI超級應用將誕生于何處?
4月18日,由主辦的2025 AI Partner大會于上海模速空間盛大啟幕。本次大會以“Super APP來了”為主題,聚焦AI應用對千行百業的顛覆性變革。大會分為“Super App來了”和“誰是下一個超級應用”兩大篇章,覆蓋“在AI世界中長大”“2025卷AI就卷超級應用”等七大話題,涵蓋10+場主題演講、3場圓桌對話與兩大優秀AI案例企業名冊發布環節,深度剖析AI技術如何重構商業邏輯、重塑產業格局,探索AI超級應用帶來的無限可能。
當日,無問芯穹首席解決方案架構師劉川林帶來了《以智能底座重構AI產業生態》的主題分享。
以下為劉川林演講內容,經整理編輯:
各位領導、嘉賓,下午好!非常榮幸受邀參與 36 氪的活動。作為專注支撐 AI 超級應用的AI算力運營商與基礎設施建造者,無問芯穹的技術能力覆蓋從算力優化、模型開發到算法調優的全鏈條,致力于為中國 AI 市場構建堅實的技術底座,助力更多創新應用破局而生。

無問芯穹首席解決方案架構師劉川林
今天的分享將圍繞三個核心展開:第一塊Infra 層的趨勢變革:探討模型開發、訓練、推理環節的技術演進;第二塊無問芯穹的實踐路徑:解析我們如何通過技術創新培育 AI 超級應用的生長土壤;第三塊未來展望:挖掘行業需求,推動跨時代 AI 原生應用的誕生。
回顧人工智能的發展歷程,每一次重大突破都源于關鍵要素的升級。自GPT-3橫空出世以來,在Scaling Law作用下,算法和算力都得到了空前的發展,而隨著公開可用的優質文本數據逐漸耗盡,Ilya就曾在去年預言,預訓練時代即將結束。
以GPT系列為例,從GPT-4到GPT-5的迭代周期顯著拉長,預訓練數據的稀缺性愈發凸顯。而DeepSeek的出現,帶來了全新的技術范式——通過R1強化學習,將訓練、推理、對齊形成閉環,實現模型性能的二次飛躍。其技術路徑可概括為:冷啟動階段:基于R1 Zero模型,結合Reward Model和對齊算法完成初步強化;數據優化階段:融入優質行業數據與通用數據集,提升模型泛化能力;閉環迭代:通過 “訓練 - 推理 - 對齊 - 再訓練” 的循環,持續優化模型表現。
這一變革對 Infra 提出了雙重挑戰:底層支撐:需構建適配強化學習的AI Infra系統,滿足大模型開發需求;應用賦能:通過Infra優化,幫助AI應用實現更低延遲、更高效率、更優成本,提升商業價(ROI)。
作為清華電子系孵化的企業,我們依托軟硬件聯合優化技術實力,構建了貫穿上下游的技術生態:算力層:融合多家國產芯片,通過異構計算提供多樣化算力支持;平臺層(PaaS):打造高效易用的算力管理平臺,提升資源調度效率;服務層(MaaS):提供穩定的模型即服務,降低應用開發門檻。
在云端服務中,我們堅持“三位一體”策略:多元異構適配:兼容不同架構芯片,保障算力彈性供給;軟硬協同優化:深度整合硬件與軟件,釋放算力潛能;服務效能提升:通過智能化調度,確保資源高效利用。
受中美技術博弈與國產芯片崛起的影響,未來3年,國產芯片將成為大模型訓練與推理的重要載體。為此,我們在上海等地落地千卡級異構混訓任務,攻克國產芯片兼容性難題,構建“國產算力 + 國產應用”的完整生態。通過統一調度框架,實現不同芯片間的協同計算,顯著提升訓練效率。
針對 DeepSeek 引發的計算范式變革,我們從三個維度優化工程架構:訓練框架創新:自研適配 LLM(語言模型)、MOE(混合專家模型)的訓練框架,支持更高性能訓練,并兼容多類型加速卡;通信效率優化:通過計算與通信的深度重疊,減少數據傳輸延遲,在 MOE 模型訓練中降低資源占用;動態資源分配:基于MOE模型特性,實現專家模型的智能調度與PD 分離,提升整體架構靈活性。
以生數科技為例,我們為其多模態模型訓練提供一站式服務:環境秒級啟動:快速部署訓練環境,縮短項目周期;自動化容錯:實時監控訓練過程,自動處理異常情況;推理效率優化:通過底層加速,提升模型部署后的響應速度。
目前,我們已在上海模速空間落地算力生態服務平臺,并在浙江省打造政企合作標桿項目,通過技術支持,降低AI企業的創新成本。
在AI應用場景中,推理效率直接影響用戶體驗與商業價值。我們針對大語言模型與文生圖模型,推出定制化解決方案:以DeepSeek R1為例,其MOE架構與FP8精度對部署資源要求極高。我們通過以下優化實現效率突破:工程化改造:重構服務框架,將推理速度提升至 30 Tokens / 秒;穩定性保障:優化調度算法,確保高并發場景下服務零中斷;效果對齊:在加速同時保持與官方模型的生成精度一致。用戶可通過我們的平臺一鍵調用R1服務,大幅降低部署門檻。
針對AIGC應用的流量波動問題,我們基于 ComfyUI 構建接口化服務。削峰平谷:動態分配算力資源,避免流量低谷期的資源浪費;架構解耦:通過標準化接口兼容新模型與框架,減少工程團隊重復開發;多模態支持:整合視頻、語音、圖文等多模態能力,實現全產業鏈無縫對接。實際案例顯示,某電商生圖企業采用我們的服務后,降低了成本,提升了推理速度,并且提升服務效能。
AI 技術的快速迭代中,唯有把握“變”與“不變”的平衡,方能搶占先機:變:技術架構、計算范式、模型形態持續演進;不變:用戶對高效、智能、個性化服務的核心需求始終存在。
我們期待與各行業專家深入交流,挖掘真實場景需求,共同推動 AI 原生應用的創新突破。正如今天分享的嘉賓們所展現的,無論是電商商拍、教育賦能還是具身智能,每一個細分領域都蘊藏著誕生超級應用的潛力。我們愿以算力基礎設施為舟,與合作伙伴攜手,駛向 AI 產業的深水區,打造跨時代的AI原生APP。





京公網安備 11011402013531號