IT之家 12 月 12 日消息,英偉達正在為微軟的數據中心提供最新一代 Blackwell 芯片,而在今年初秋的部署過程中,英偉達一名員工注意到,微軟其中一處設施的冷卻方式顯得過于浪費。
隨著 AI 模型訓練與推理的算力需求迅猛攀升,英偉達正為微軟等科技巨頭大量部署 GB200 Blackwell 系統。
今年初秋時,英偉達基礎設施專家團隊的員工在內部郵件中,詳細描述了為 OpenAI 機群部署 Blackwell 機架的現場情況。作為 OpenAI 的云合作伙伴與最大投資方,此類部署由微軟負責。
《商業內幕》今天援引的英偉達內部郵件提到,此次安裝包括兩組 GB200 NVL72 機架,每組搭載 72 顆英偉達 GPU。由于如此高密度的 GPU 陣列會產生巨量熱能,微軟采用液冷技術將熱量從服務器周圍迅速帶走。
但郵件也指出,微軟在建筑層面的整體冷卻方式因規模過大且未使用設施級冷卻用水,看起來造成資源浪費,但確實帶來了良好的彈性與故障容忍能力。
美國加州大學的電氣與計算機工程副教授任紹雷(音譯)解釋說,數據中心通常采用“雙層冷卻結構”:服務器內部用液冷,而建筑本體需要另一套系統把整體熱量排到室外。
因此,郵件所說“浪費”的冷卻方式,或指微軟采用空氣冷卻作為建筑級散熱,而非使用水冷。任紹雷說,空氣冷卻雖然能源消耗更高,但不耗水。水資源可見性強,往往會引起公眾對用水問題的關注,使企業在能源消耗、水資源壓力與輿論反應之間必須進行權衡。
IT之家從報道中獲悉,微軟發言人回應說,“微軟的液冷換熱器單元是一個閉環系統,我們將其部署在現有的風冷數據中心中,以增強第一方和第三方平臺上的冷卻能力。該系統確保我們最大限度地利用現有的全球數據中心規模,同時促進高效散熱并優化電力輸送,以滿足 AI 和超大規模系統的需求。”
微軟方面強調在 2030 年前達成“碳負排放、凈產水與零廢棄”的企業目標,并表示下一代數據中心將采用零用水冷卻設計,同時推進芯片級冷卻技術。
郵件同樣強調,Blackwell 量產硬件品質明顯高于此前送給客戶試驗的早期樣品。兩組 GB200 NVL72 機架在特定計算性能測試中均達到 100% 通過率,反映出量產版本的穩定度與成熟度有所提升。
英偉達發言人表示,Blackwell 系統具備卓越性能、可靠性與能效表現,已被廣泛應用于多種計算場景。包括微軟在內的客戶已經部署了數十萬套 GB200 與 GB300 NVL72 系統,以滿足全球日益增長的 AI 算力需求。
![]()
▲ 今年 9 月,微軟 CEO 納德拉曾稱,將建立“世界最強”AI 數據中心





京公網安備 11011402013531號