文|富充
編輯|蘇建勛
當前,“算力不夠用”和“算力被浪費”正在同時發(fā)生。
36氪獲悉,近日舉行的2025AI容器應用落地與發(fā)展論壇上,華為公司正式發(fā)布AI容器技術——Flex:ai,通過三項技術創(chuàng)新提升算力資源利用率。同時,華為聯(lián)合上海交通大學、西安交通大學與廈門大學共同宣布,共同開源此項產(chǎn)學合作成果。
本次發(fā)布并開源的XPU池化與調(diào)度軟件Flex:ai,是基于Kubernetes(一個廣泛使用的容器管理平臺)構建。簡單理解,它通過對GPU、NPU等智能算力資源的精細化管理與智能調(diào)度,一邊把零散的算力統(tǒng)一成“資源池”,一邊把不同規(guī)模的 AI 任務智能分配進去。
具體而言,F(xiàn)lex:ai 主要有三項核心能力:
在解決小模型訓練推理場景資源浪費方面,華為與上海交通大學聯(lián)合研發(fā)的XPU池化框架,將單張GPU或NPU算力卡按10%的精度切分為多個虛擬算力單元,實現(xiàn)“用多少,切多少”,使此類場景下的整體算力平均利用率提升30%;
為了將集群里不同機器上的空閑算力聚合起來,華為與廈門大學研發(fā)的跨節(jié)點拉遠虛擬化技術,把集群內(nèi)各節(jié)點的空閑XPU算力聚合形成“共享算力池”,讓不具備智能計算能力的通用服務器也能通過網(wǎng)絡調(diào)用遠端GPU/NPU資源參與AI計算;
面對算力集群中多品牌、多規(guī)格異構算力資源統(tǒng)一調(diào)度的挑戰(zhàn),華為與西安交通大學共同推出的Hi Scheduler智能調(diào)度器,能夠感知集群里多品牌、多規(guī)格算力資源的狀態(tài),根據(jù)任務優(yōu)先級、算力需求等參數(shù),自動選擇合適的本地或遠端資源,實現(xiàn)分時復用和全局最優(yōu)調(diào)度,讓系統(tǒng)決策“哪塊卡該干哪份活”。
華為表示,此次Flex:ai的全面開源,將向產(chǎn)學研各界開發(fā)者開放所有核心技術能力,共同推動異構算力虛擬化與AI應用平臺對接的標準構建,形成算力高效利用的標準化解決方案。





京公網(wǎng)安備 11011402013531號