皮衣戰(zhàn)神,又雙叒叕來「砸場子」了!在昨天剛剛過去的 GTC 2025 秋季場,黃仁勛的演講又一次讓英偉達(dá)坐穩(wěn)了芯片第一龍頭的位置,整場發(fā)布會(huì),堪稱火力全開。

芯片龍頭的實(shí)力,戰(zhàn)績可查
英偉達(dá)在大會(huì)上釋放出極其強(qiáng)勁的營收信號(hào),再次鞏固了其在全球 AI 計(jì)算領(lǐng)域的絕對(duì)領(lǐng)先地位。其中,Blackwell 平臺(tái)無疑是本次 GTC 的絕對(duì)焦點(diǎn),其大規(guī)模部署速度前所未有。
黃仁勛透露,Blackwell 平臺(tái)在開始生產(chǎn)的僅僅五個(gè)季度內(nèi),預(yù)計(jì)將出貨高達(dá) 600 萬個(gè)處理器單元,增長速度是上一代 Hopper 平臺(tái)的五倍,標(biāo)志著全球 AI 基礎(chǔ)設(shè)施的部署已進(jìn)入超高速增長期。
![]()
這樣驚人的出貨量,充分反映了市場對(duì) Blackwell 架構(gòu)高性能與高能效的迫切需求,尤其是在訓(xùn)練萬億級(jí)參數(shù)模型和大規(guī)模推理應(yīng)用中。
根據(jù)演示,Blackwell 平臺(tái)在運(yùn)行推理模型時(shí),相比 Hopper 實(shí)現(xiàn)了九倍的速度提升。這一性能飛躍將大型語言模型(LLM)的響應(yīng)時(shí)間大幅壓縮,極大提升了用戶體驗(yàn)并解放了計(jì)算資源。
在 AI 大規(guī)模應(yīng)用的運(yùn)營成本方面,英偉達(dá)承諾通過「極致協(xié)同設(shè)計(jì)」(extreme co-design)來顯著降低 AI token 的生成成本,解決 AI 工廠的核心運(yùn)營痛點(diǎn)。目前,Grace Blackwell NVlink 72 在生成 token 方面,成本是全世界最低的。性能提升10倍,同時(shí)成本降低10倍。
![]()
基于 Blackwell 平臺(tái)及其后續(xù)的 Rubin(Vera Rubin 超級(jí)芯片平臺(tái))的初期加速部署,英偉達(dá)預(yù)計(jì)到 2026 年,這兩個(gè)新平臺(tái)的累計(jì)營收將有望達(dá)到 5000 億美元。
如此雄心勃勃的財(cái)務(wù)目標(biāo),底氣來自于英偉達(dá)對(duì)于 AI 基礎(chǔ)設(shè)施的年度更新戰(zhàn)略,以每年一代的速度推出計(jì)算平臺(tái),以應(yīng)對(duì)業(yè)界對(duì)更大規(guī)模、更高性能 AI 模型訓(xùn)練和推理的需求。
![]()
黃仁勛強(qiáng)調(diào),這 5000 億美元的數(shù)字不僅代表著芯片單元的銷售,更反映了全球計(jì)算基礎(chǔ)設(shè)施正加速向英偉達(dá)的加速計(jì)算模型轉(zhuǎn)型,這標(biāo)志著一個(gè)萬億美元計(jì)算拐點(diǎn)的到來。
超級(jí)芯片的未來計(jì)算版圖
一方面,Blackwell 平臺(tái)正在推動(dòng) AI 浪潮;另一方面,英偉達(dá)的目光已投向更遠(yuǎn)的未來:下一代 Vera Rubin 超級(jí)芯片納入戰(zhàn)略版圖。
![]()
Vera Rubin 超級(jí)芯片延續(xù)了集成 CPU 和 GPU 的超級(jí)芯片設(shè)計(jì)理念,其中 Vera 作為定制的 CPU,而 Rubin 則作為下一代 GPU。
技術(shù)細(xì)節(jié)顯示,Vera Rubin 將帶來跨越式的性能飛躍:相比 Grace 平臺(tái),Vera 組件將提供 4.2 倍的內(nèi)存容量和 2.4 倍的內(nèi)存帶寬。
![]()
它將容納 6 萬億個(gè)晶體管,能夠提供高達(dá) 100 Petaflops (PF)的 AI 計(jì)算性能,并配備 2 TB 的高速緩存/快速內(nèi)存。這些核心參數(shù)表明,Vera Rubin 在應(yīng)對(duì)萬億級(jí)參數(shù)模型和極大規(guī)模 AI 推理任務(wù)時(shí),將實(shí)現(xiàn) Blackwell 代際無法企及的效率和速度。
作為 Blackwell 的繼任者,Vera Rubin 和 Blackwell 將共同構(gòu)成英偉達(dá)高達(dá) 5000 億美元的營收,象征著公司對(duì)未來計(jì)算架構(gòu)的持續(xù)迭代和投入。
在此宏大計(jì)算戰(zhàn)略下,英偉達(dá)同時(shí)公布了兩項(xiàng)重量級(jí)合作。首先是推出了 NVQ link 互聯(lián)架構(gòu),專為量子處理器(QPU)與英偉達(dá) GPU 超級(jí)計(jì)算機(jī)之間的高速混合模擬而設(shè)計(jì),實(shí)現(xiàn)了微秒級(jí)的計(jì)算延遲。
![]()
該技術(shù)已獲得 17 家量子計(jì)算機(jī)公司和八個(gè)美國能源部(DOE)國家實(shí)驗(yàn)室的支持,標(biāo)志著量子計(jì)算和經(jīng)典 AI 計(jì)算的深度融合。
6G 來了?給諾基亞重新「抬咖」
另外一項(xiàng)重量級(jí)合作,則是在通信基礎(chǔ)設(shè)施領(lǐng)域:英偉達(dá)宣布與電信巨頭諾基亞建立深度戰(zhàn)略合作伙伴關(guān)系,共同開發(fā)下一代 6G 技術(shù)。
![]()
諾基亞未來將采用英偉達(dá)的 ARC 平臺(tái) 作為其基站核心,該平臺(tái)兼容諾基亞現(xiàn)有的 AirScale 基站,意味著全球數(shù)百萬個(gè)基站可通過英偉達(dá)技術(shù)升級(jí)至 6G 和 AI 能力。
這項(xiàng)合作聚焦于兩大關(guān)鍵方向:其一是 AI for RAN(AI 賦能無線接入網(wǎng))。諾基亞擁有 7000 項(xiàng)基礎(chǔ) 5G 專利,結(jié)合英偉達(dá)的 AI 技術(shù),將利用人工智能和強(qiáng)化學(xué)習(xí)實(shí)時(shí)調(diào)整波束成形,優(yōu)化環(huán)境下的頻譜效率。
![]()
考慮到無線網(wǎng)絡(luò)消耗了全球約 1.5%至 2%的電力,提高頻譜效率不僅能增加數(shù)據(jù)吞吐量,同時(shí)也是一項(xiàng)至關(guān)重要的能源節(jié)約舉措。
另外,AI on RAN 則將無線網(wǎng)絡(luò)轉(zhuǎn)變?yōu)橐粋€(gè)「邊緣工業(yè)機(jī)器人云」。正如 AWS 建立在互聯(lián)網(wǎng)之上,英偉達(dá)和諾基亞正將云計(jì)算能力擴(kuò)展到基站邊緣,創(chuàng)造出一個(gè)全新的、超低延遲的計(jì)算環(huán)境。這對(duì)于需要實(shí)時(shí)決策和響應(yīng)的工業(yè)機(jī)器人、自動(dòng)駕駛車輛和邊緣 AI 應(yīng)用至關(guān)重要,開啟了一個(gè)潛力巨大的邊緣計(jì)算新市場。

AI 即工作,時(shí)代在召喚
「如同電力和互聯(lián)網(wǎng)一樣,人工智能是至關(guān)重要的基礎(chǔ)設(shè)施。」
這個(gè)觀點(diǎn)不新鮮了,但是黃仁勛又強(qiáng)調(diào)了一遍。他指出,當(dāng)前時(shí)代的變革始于一個(gè)關(guān)鍵觀察:Dennard 縮放定律(Dennard scaling)已停止近十年,晶體管的性能和功耗增益受到物理定律的限制,傳統(tǒng)摩爾定律的紅利正在消退。
![]()
這種現(xiàn)實(shí)使得加速計(jì)算這一全新計(jì)算模型成為必要,它通過 GPU 和 CUDA 編程模型,利用不斷增長的晶體管數(shù)量來實(shí)現(xiàn)并行計(jì)算,突破了通用 CPU 的性能瓶頸。黃仁勛強(qiáng)調(diào),CUDA 編程模型的兼容性維護(hù)是英偉達(dá)的「寶藏」,經(jīng)過近三十年的發(fā)展才得以實(shí)現(xiàn)如今的成就。
![]()
「AI 不是工具,AI 就是工作本身」(AI is not a tool. AI is work.),黃仁勛給出了大膽的論斷,暗示著, AI 已升級(jí)為直接的生產(chǎn)力要素,將注定是驅(qū)動(dòng)經(jīng)濟(jì)增長和創(chuàng)新的核心力量。





京公網(wǎng)安備 11011402013531號(hào)