2025 年 11 月 19 日,美國東部時(shí)間下午 5 點(diǎn),英偉達(dá)發(fā)布2026 財(cái)年第三季度財(cái)報(bào)。
這一季的數(shù)據(jù)很夸張:營收 570 億美元,同比增長 62%,環(huán)比多了整整 100 億美元(+22%),數(shù)據(jù)中心業(yè)務(wù)繼續(xù)飛奔,網(wǎng)絡(luò)、計(jì)算、汽車、專業(yè)可視化全部雙位數(shù)增長。但比數(shù)字更值得編譯和整理的,是管理層在電話會里給出的那套邏輯:
他們幾乎把所有關(guān)于“AI 泡沫”的質(zhì)疑,重新改寫成了一場“三次平臺大遷移 + 十年基礎(chǔ)設(shè)施周期”的故事。
基于這份電話會議記錄,本文對管理層的核心觀點(diǎn)做了一次系統(tǒng)的編譯和梳理。
一、成績單:
570 億美元的大頭,幾乎都來自 AI 工廠
先把關(guān)鍵數(shù)字捋清楚:
總收入:570 億美元,同比 +62%,環(huán)比增加 100 億美元(+22%)。
數(shù)據(jù)中心收入:510 億美元,同比 +66%,再創(chuàng)新高,幾乎就是整家公司。
網(wǎng)絡(luò)收入:82 億美元,同比飆升 162%,靠的是 NVlink、InfiniBand 和 Spectrum X 以太網(wǎng)。
計(jì)算部門:同比 +56%,核心驅(qū)動(dòng)力來自 GB300 GPU 的放量,Hopper 平臺本季仍貢獻(xiàn)了約 20 億美元收入。
游戲業(yè)務(wù):43 億美元,同比 +30%,主要是游戲玩家和本地 AI 需求的疊加。
專業(yè)可視化:7.6 億美元,同比 +56%,DGX Spark 被點(diǎn)名是關(guān)鍵貢獻(xiàn)者。
汽車業(yè)務(wù):5.92 億美元,同比 +32%,自動(dòng)駕駛解決方案是主力。
盈利能力同樣“變態(tài)”:
GAAP 毛利率:73.4%,
Non-GAAP 毛利率:73.6%, 都比之前的指引更高。Colette Kress 解釋,主要得益于數(shù)據(jù)中心產(chǎn)品組合、生產(chǎn)周期時(shí)間改善以及成本結(jié)構(gòu)優(yōu)化。
但也不是全是甜蜜,電話會一上來就坦白了三點(diǎn)風(fēng)險(xiǎn):
中國收入被“掐斷”:
由于地緣政治和本地競爭,本季度原本計(jì)劃的大額訂單沒有落地,直接影響了高端數(shù)據(jù)中心計(jì)算產(chǎn)品對中國的出貨。Colette 還明確表示,在 Q4 的指引里,“我們沒有假設(shè)來自中國的任何數(shù)據(jù)中心計(jì)算收入”。
投入成本在上升:
面向 2027 財(cái)年,內(nèi)存等關(guān)鍵元件價(jià)格抬頭,系統(tǒng)復(fù)雜度也在增加。公司一邊加大采購鎖價(jià),一邊強(qiáng)調(diào),仍會努力把毛利率“壓在 70% 中段”。
庫存和供應(yīng)承諾同步上揚(yáng):
庫存環(huán)比增加 32%,供應(yīng)承諾環(huán)比增加 63%。管理層的態(tài)度是:這是主動(dòng)為未來更大規(guī)模的增長“鋪貨”,而不是需求不行的被動(dòng)堆庫存。
展望第四季度,指引同樣激進(jìn):
Q4 收入指引:650 億美元,上下浮動(dòng) 2%,按中值算環(huán)比還要再漲 14%,主要由 Blackwell 架構(gòu)繼續(xù)放量帶動(dòng)。
毛利率指引:GAAP 和 Non-GAAP 都預(yù)計(jì)維持在 70% 中段,盡管投入成本上漲。
從這張“財(cái)務(wù)快照”可以看出一個(gè)核心事實(shí):
英偉達(dá)現(xiàn)在的財(cái)報(bào),其實(shí)就是一張全球 AI 工廠建設(shè)進(jìn)度表。
二、CFO 的視角:
三大平臺轉(zhuǎn)型 + 5000 億 Blackwell/Rubin 收入藍(lán)圖
在財(cái)務(wù)數(shù)字之后,CFO Colette Kress 用相當(dāng)長的一段話,把這季的增長放進(jìn)了一個(gè)更大的框架里:
“三大平臺轉(zhuǎn)型”還在早期
她強(qiáng)調(diào),客戶現(xiàn)在集中在三條主線做投入:
向加速計(jì)算遷移:
從傳統(tǒng) CPU 通用計(jì)算,轉(zhuǎn)向 GPU 加速計(jì)算,把原本跑在 CPU 上的大量數(shù)據(jù)處理、科學(xué)計(jì)算工作負(fù)載搬到 CUDA 平臺上。
向大模型/生成式 AI 遷移:
搜索、推薦、內(nèi)容理解、廣告排序,從傳統(tǒng)機(jī)器學(xué)習(xí)體系切換到大模型,重寫生產(chǎn)線。
向智能體(Agent)應(yīng)用遷移:
自主推理、規(guī)劃、調(diào)用工具的“智能代理 AI”,開始滲透到編程、醫(yī)療、金融、運(yùn)營等業(yè)務(wù)線。
她的判斷是:這三件事都還在早期階段,“會波及所有行業(yè)”。
Blackwell + Rubin:到 2026 年底要拿下 5000 億美元營收
Colette 給了一個(gè)頗具爭議、但已經(jīng)被資本市場廣泛引用的數(shù)字:
從今年開始到 2026 年年底,Blackwell 和 Rubin 兩代平臺,合計(jì)營收目標(biāo)是 5000 億美元。
電話會記錄里,她再次確認(rèn)這一目標(biāo)“正在推進(jìn)”:
部分收入已經(jīng)在過去幾個(gè)季度確認(rèn);
接下來還有幾個(gè)季度會持續(xù)兌現(xiàn);
而且,這 5000 億本身還有“上調(diào)空間”:比如當(dāng)天剛剛宣布的與沙特的合作,未來三年新增 40–60 萬塊 GPU;和 Anthropic 的協(xié)議,同樣是原先規(guī)劃之外的增量計(jì)算需求。
在她的敘事里,英偉達(dá)的角色很明確:
要在未來十年走向年均 3–4 萬億美元規(guī)模的全球 AI 基礎(chǔ)設(shè)施建設(shè)里,做“首選平臺”。
“云已售罄”:GPU 安裝基礎(chǔ)完全被吃滿
Colette 多次重復(fù)一個(gè)說法:“云服務(wù)已售罄(clouds are sold out)”;Blackwell、Hopper、Ampere 等幾代 GPU 的安裝基礎(chǔ)“全部在滿負(fù)荷運(yùn)行”。第三季度數(shù)據(jù)中心收入 510 億美元,就是在這樣的高稼動(dòng)率之上做出來的。配合這點(diǎn),她給出了一串“案例庫”,說明這些算力在被用在什么地方:
互聯(lián)網(wǎng)平臺:
meta 用基于 GPU 集群訓(xùn)練的 Gem 廣告推薦基礎(chǔ)模型,讓 Instagram 廣告轉(zhuǎn)化率 +5%,F(xiàn)acebook 信息流 +3%;用戶在 Facebook、Threads 等應(yīng)用上花的時(shí)間明顯上升。
基礎(chǔ)模型公司:
OpenAI:周活用戶 8 億,企業(yè)客戶超過 100 萬,毛利率保持健康;Anthropic:年化營收從年初的 10 億美元,漲到 70 億美元。其他名字還包括 Mistral、Reflection、Safe Superintelligence、xAI 等。
垂直場景:
RBC 用智能體 AI 把分析師寫報(bào)告的時(shí)間,從幾小時(shí)壓縮到幾分鐘;聯(lián)合利華通過 AI + 數(shù)字孿生,讓內(nèi)容創(chuàng)作效率提升 2 倍、成本下降 55%;Salesforce 工程團(tuán)隊(duì)使用 Cursor 后,新代碼開發(fā)效率至少提升 30%。
這些例子共同指向一個(gè)判斷:
AI 基礎(chǔ)設(shè)施的投入,已經(jīng)開始在真實(shí)業(yè)務(wù)里“找回報(bào)”,而不止停留在“創(chuàng)新預(yù)算”。
五百萬 GPU 的 AI 工廠計(jì)劃
本季英偉達(dá)還宣布了一串 AI 工廠和基礎(chǔ)設(shè)施項(xiàng)目,總量涉及約 500 萬塊 GPU,覆蓋:
公有云 CSP、主權(quán)國家數(shù)據(jù)中心;
制藥、制造等行業(yè)的“AI 工廠”;
標(biāo)志性項(xiàng)目包括:xAI 的 Colossus 2 —— 全球首個(gè)千兆瓦級數(shù)據(jù)中心;禮來(Eli Lilly)的 AI 工廠,用于藥物研發(fā);AWS + Humane 的擴(kuò)展合作:部署多達(dá) 15 萬臺 AI 加速器(包括 GB300),以及一座 500 兆瓦的旗艦 GPU 數(shù)據(jù)中心。
在這套敘事下,“570 億營收”只是起點(diǎn),真正讓市場緊張的是:
未來兩三年,這家公司打算吃下多大一塊 AI 基建蛋糕。
1
三、黃仁勛的“反泡沫”故事:三次平臺大遷移
輪到黃仁勛發(fā)言時(shí),他沒有先談估值,而是直接回應(yīng)了“泡沫”這個(gè)詞:
“關(guān)于人工智能泡沫的討論很多。從我們的角度來看,我們看到的是截然不同的情況。”
他的核心論點(diǎn),可以濃縮成一句話:
世界正在同時(shí)經(jīng)歷三次巨大的平臺級遷移,而英偉達(dá)剛好站在這三次遷移的交叉點(diǎn)。

第一次遷移:從 CPU 到 GPU 的加速計(jì)算
摩爾定律放緩,傳統(tǒng) CPU 性能/成本的提升越來越難;
大量原本跑在 CPU 上的非 AI 工作負(fù)載——數(shù)據(jù)處理、科學(xué)與工程仿真等——正向 CUDA GPU 遷移;
這一層遷移,本質(zhì)上是為了延續(xù)“算力通縮”:用更低的單位成本獲得更多計(jì)算。
黃仁勛把這部分定義為“基礎(chǔ)且必要的轉(zhuǎn)型”:
“在后摩爾定律時(shí)代,這是至關(guān)重要的。”
第二次遷移:從傳統(tǒng)機(jī)器學(xué)習(xí)到生成式 AI
第二層,是我們熟悉的那波浪潮:
搜索排序、推薦系統(tǒng)、廣告投放、內(nèi)容審核等,正在從傳統(tǒng) ML/深度學(xué)習(xí)體系,遷移到基于大模型與生成式 AI 的范式;
meta 的 Gem 模型就是典型案例:依托大規(guī)模 GPU 集群訓(xùn)練,把廣告推薦效果實(shí)打?qū)嵦Ц吡藥讉€(gè)百分點(diǎn),這直接體現(xiàn)在收入上。
在這層上,AI 不再只是“節(jié)約成本”的工具,而是直接帶來營收增量的引擎。
第三次遷移:向智能體和物理 AI
第三層,是“智能體 AI”和“物理 AI”:
這類系統(tǒng)具備推理、規(guī)劃和使用工具的能力;
從代碼助手(Cursor、Claude Code、GitHub Copilot),到醫(yī)療放射影像助手(iDoc)、法律助手(Harvey),再到自動(dòng)駕駛司機(jī)(Tesla FSD、Waymo),都被他歸類為“智能代理 AI”;
更往下,是與機(jī)器人、工廠、車隊(duì)、城市基礎(chǔ)設(shè)施深度耦合的“物理 AI”:利用 Omniverse 做數(shù)字孿生工廠的臺積電、豐田、富士康、Lucid 等;用 Jetson 平臺和 Cosmos 世界模型做人形/移動(dòng)機(jī)器人開發(fā)的 Agility Robotics、Amazon Robotics、Figure 等。
在他看來,這一層會帶來全新的應(yīng)用、產(chǎn)品、公司和服務(wù),是最具顛覆性的一層。
英偉達(dá)如何把三次遷移“捏”在一起?
黃仁勛的自我定位是非常“野心家”的:
在加速計(jì)算的遷移中
,CUDA + GPU 是最成熟的方案;
在生成式 AI 遷移中
,英偉達(dá)在訓(xùn)練、后訓(xùn)練(推理前的強(qiáng)化、微調(diào))和推理三個(gè)階段,都有一整套軟件棧和硬件組合;
在智能體和物理 AI 中
,從數(shù)據(jù)中心到機(jī)器人邊緣設(shè)備,一條鏈路都在用同一套架構(gòu)。
他說得很直白:
“無論是 AI 的每個(gè)階段,還是各種不同的計(jì)算需求,我們的架構(gòu)都是通用的。你可以投資一種架構(gòu),然后在所有這些階段和工作負(fù)載上放心使用。”
這就是他對“泡沫”質(zhì)疑的整體回應(yīng):
資本市場看的是市值曲線,而他強(qiáng)調(diào)的是:三條不同性質(zhì)的遷移曲線,正在同時(shí)發(fā)生,且都壓在英偉達(dá)的 GPU 上。
四、關(guān)鍵問答:
5000 億訂單、供給瓶頸與中國風(fēng)險(xiǎn)
電話會議的 Q&A 部分,補(bǔ)足了很多關(guān)鍵信息。挑幾個(gè)重點(diǎn)說。
5000 億 Blackwell + Rubin 收入,還靠譜嗎?
摩根士丹利的 Joseph Moore 追問:
GTC 上提的2025–2026 年 Blackwell + Rubin 5000 億美元收入預(yù)期,現(xiàn)在還有沒有變化?
Colette 的回答是:
目標(biāo)沒變,“我們正在按這個(gè)路徑執(zhí)行”;
5000 億中已經(jīng)有一部分在前幾個(gè)季度確認(rèn);
接下來到 2026 年底,還有幾個(gè)季度會持續(xù)貢獻(xiàn);
而且,“這個(gè)數(shù)字有上調(diào)可能”:和沙特的協(xié)議,在未來三年新增 40–60 萬塊 GPU;與 Anthropic 的合作,則帶來了高達(dá) 1 吉瓦算力承諾。
——這些,都還沒算在最初的 5000 億里。
供應(yīng)能不能趕上需求?ROI 會不會撐不住?
Cantor Fitzgerald 的 C.J. Muse 問了一個(gè)所有人都在想的現(xiàn)實(shí)問題:
一邊是大家擔(dān)心 AI 基礎(chǔ)設(shè)施建設(shè)太燒錢、ROI 與融資能力成問題; 另一邊是你們自己又在說“GPU 全部售罄、云都賣空了”。 那么未來 12–18 個(gè)月里,供應(yīng)會趕上需求嗎?
黃仁勛的回答重點(diǎn)有三:
供應(yīng)鏈規(guī)劃:
英偉達(dá)的供應(yīng)鏈覆蓋臺積電及其封裝、內(nèi)存供應(yīng)商、系統(tǒng) ODM 等,“我們和他們做了非常長周期的規(guī)劃”;“我們原本就計(jì)劃迎來一個(gè)大年”,而現(xiàn)在的需求增長,印證了他們對三個(gè)轉(zhuǎn)型的判斷。
需求結(jié)構(gòu):
不僅僅是“聊天機(jī)器人”在用 GPU,從數(shù)據(jù)處理到推薦系統(tǒng),從生成式 AI 到各種 agent 工具,哪一層都在吃 GPU,且增速都很快。
ROI
一部分投資來自通用計(jì)算遷移,本質(zhì)上是為了延續(xù)“算力通縮”;一部分投資來自生成式 AI 提升現(xiàn)有業(yè)務(wù)收入;還有一部分來自全新的 agentic & 物理 AI 應(yīng)用。
換句話說,他認(rèn)為需求是真實(shí)且多層次的,而不是單一領(lǐng)域炒作。
每吉瓦能賣多少錢硬件?誰來為三四萬億 AI 基建買單?
BofA 的 Vivek Arya 問得很具體:
在你口中的 5000 億里,你假設(shè)的“每 1 吉瓦數(shù)據(jù)中心對應(yīng)多少美元硬件”是多少?
到 2030 年,全球數(shù)據(jù)中心 3–4 萬億美元投資中,有多少需要靠供應(yīng)商融資,有多少可以由客戶自己現(xiàn)金流支持?
黃仁勛給出了一組有參考意義的量級(非精確指引):
在 Hopper 這一代,一個(gè) 1 吉瓦數(shù)據(jù)中心,相當(dāng)于大約20–25 億美元的英偉達(dá)數(shù)據(jù)中心產(chǎn)品;
到 Grace Blackwell/GB200,可能來到30 億美元以上;
Rubin 一代會更高,因?yàn)槊客咝阅苓M(jìn)一步提升。
關(guān)鍵句是這句:
“一個(gè)吉瓦數(shù)據(jù)中心就是一個(gè)吉瓦功率。你的每瓦性能,幾乎直接決定你的收入上限。”
這背后的邏輯是:
電力是剛性約束:一個(gè)園區(qū)就是 1 吉瓦電進(jìn)來,不會無限擴(kuò)張;
在同樣的 1 吉瓦電、同樣的機(jī)房面積下,誰的架構(gòu)性能/瓦更高,誰就能賣出更多的硬件票面;
因此,架構(gòu)效率不只是技術(shù)指標(biāo),而是收入天花板。
至于“誰來為 3–4 萬億買單”,他的回答更宏觀:
不能只盯著美國幾大云廠商;
每個(gè)國家都會為自己的 AI 基礎(chǔ)設(shè)施買單;
大多數(shù)行業(yè)的 agentic AI、物理 AI 才剛剛開始,未來會有一波又一波新的融資主體加入。
中國市場:短期清零,長期仍想“留門”
關(guān)于中國,Colette 的表態(tài)比較直接:
本季度原計(jì)劃的大額訂單并未落地,H20 銷售額僅約 5000 萬美元;
原因是地緣政治 + 中國本地競爭加劇;
因此公司在 Q4 指引中,假設(shè)來自中國的數(shù)據(jù)中心計(jì)算收入為 0。
但黃仁勛也強(qiáng)調(diào),英偉達(dá)會持續(xù)同中美兩國政府溝通,長期目標(biāo)仍然是:
“要在包括中國在內(nèi)的所有商業(yè)企業(yè)中,成為開發(fā)者和企業(yè)的首選平臺。”
這意味著,當(dāng)前對華高端芯片出口的限制,英偉達(dá)視為“節(jié)奏問題”,而不是長期放棄的市場。
ASIC vs GPU:為什么英偉達(dá)認(rèn)為自己“不可替代”?
Wells Fargo 的 Aaron Rakers 問到定制 AI ASIC 的競爭,問黃仁勛是否改變了看法。
他的回答可以總結(jié)為“五個(gè)維度的護(hù)城河”:
覆蓋所有轉(zhuǎn)型階段:
從通用加速計(jì)算,到生成式 AI,再到代理式 / 物理 AI,同一套架構(gòu)都能勝任。
覆蓋 AI 的每個(gè)階段:
預(yù)訓(xùn)練、后訓(xùn)練、推理這三步都極其復(fù)雜,尤其是鏈?zhǔn)剿季S等推理型推理,“事實(shí)證明推理是最難的”,而英偉達(dá)在三階段都有很強(qiáng)的系統(tǒng)方案。
覆蓋所有主流模型:
自回歸、擴(kuò)散、專家混合(MoE)、各種生物/物理模型—— “我們是唯一一個(gè)能把所有這些模型跑在一個(gè)平臺上的架構(gòu)。”
覆蓋所有云和邊緣形態(tài):
從公有云、私有云,到本地 DGX Spark 再到機(jī)器人和 PC,一套 CUDA 生態(tài)貫穿始終,這大幅降低了開發(fā)者的心智成本。
帶來真正的需求與多樣性:
對云廠商、新創(chuàng)云(CoreWeave、Lambda 等)乃至新公司(Humane)來說,把 GPU 算力“掛上架”后,背后是龐大的模型生態(tài)和開發(fā)者需求,而不是一個(gè)“孤立的 ASIC”。
他最后的總結(jié)是:
“這不是簡單往數(shù)據(jù)中心里塞一個(gè)隨機(jī) ASIC 的問題。需求從哪來?多樣性從哪來?韌性從哪來?英偉達(dá)的生態(tài)系統(tǒng),已經(jīng)證明它能把這些全部帶給客戶。”
這一次,泡沫沒有破裂。音樂繼續(xù)。
本文來自微信公眾號“硅星人Pro”,作者:硅基版





京公網(wǎng)安備 11011402013531號