奧特曼最近一次對外露面時,罕見地把話說得很直:“谷歌依然是最大的威脅之一,他們太強了。坦白講,如果他們在 2023 年就認真出手,我們當時可能會非常難受;在我看來,他們本來就有能力把我們直接擊碎。”
而就在不久前,談到 Gemini 3 的沖擊時,他還表示:“它對我們指標的影響,并沒有我們擔心的那么大。”
不過,奧特曼的愿景并不是在谷歌最擅長的領域與之正面競爭。谷歌的路線更像是把 AI 塞進現有的一切:搜索、Gmail、地圖、YouTube……幾乎每一個入口都在“加一層 AI”。奧特曼則認為,生成式 AI 終將改變我們使用軟件的方式,關鍵不在于給舊軟件打補丁,而在于重做一套“AI 原生軟件”。
在這套邏輯里,他最在意的不是“把 AI 接到多少產品上”,而是先把用戶留住,并讓他們形成依賴:先讓用戶進門,向他們展示能力邊界,再通過記憶、個性化和深度定制把“粘性”一點點加固。
他用“牙膏品牌”打了個比方:“從某種意義上說,AI 就像牙膏。大多數人一旦選定一個品牌,就會一直用下去;每次去超市都順手拿同一個,根本不會多想。”而 ChatGPT 已經擁有 8 億、甚至可能逼近 9 億的用戶;一些獨立報告也顯示,它在用戶使用時長等指標上仍處于領先位置。
除了“紅色警報”和谷歌威脅,這次訪談還拋出了幾顆更“刺”的釘子:所謂的GPT-6 不急著來,下一步反而更像“按人定制”的升級,大約會在明年 Q1 亮相;OpenAI 口中的“云”,不是要去當第二個 AWS,而是想把企業買 token、跑 agent、托管數據的需求打包成一套“AI 平臺”。這些判斷拼在一起,構成了 OpenAI 對模型、產品、基礎設施和商業化路徑的一次系統性表態。
本文翻譯整理自 Alex Kantrowitz 主持的一期播客節目。
1
如果谷歌認真過:OpenAI 早就被碾碎了
Alex Kantrowitz:OpenAI 已經成立 10 年了,ChatGPT 才三歲,但競爭已經在明顯加劇。最近這段時間,外界的感覺是 OpenAI 總部處于一種“紅色警報”狀態。Gemini 3 發布之后,你放眼望去,到處都是試圖削弱 OpenAI 優勢的公司。而這是我第一次感覺到,這家公司似乎不再擁有一個非常明確的領先優勢。所以我很好奇,你怎么看 OpenAI 會如何走出當下這個階段?
Sam Altman:先說“紅色警報”這件事吧。我們把這類情況視為相對低風險、但需要經常啟動的狀態。我認為,在潛在競爭威脅出現時,保持一點偏執、迅速行動,其實是件好事。過去我們也遇到過類似情況,比如今年早些時候 DeepSeek 出現的時候,當時也啟動過一次“紅色警報”。我覺得保持一點警惕是好的。
Gemini 3 至少到目前為止,并沒有產生我們原先擔心的那種影響。但它確實像 DeepSeek 一樣,暴露了我們在產品和策略上的一些薄弱點,而這些問題我們正在非常快速地解決。我不認為我們還會在“紅色警報”狀態下停留太久。歷史上看,這種狀態通常持續六到八周。能啟動它我反而感到高興。
就在今天,我們剛剛發布了一個新的圖像模型,這是一個非常棒的進展,也是消費者一直非常想要的東西。上周我們發布了 5.2 版本,反饋極其積極,增長速度也非常快。接下來我們還會發布一些其他新東西,同時也會持續做一些改進,比如提升服務速度。
我的判斷是,未來很長一段時間里,我們可能每年會啟動一次,最多兩次類似的“紅色警報”。這本質上就是確保我們在這個領域里能夠持續取勝的一部分。當然,也會有很多其他公司做得很好,我也為他們感到高興。但 ChatGPT 依然是市場上遙遙領先的聊天機器人,而且我預期這種領先優勢會隨時間擴大,而不是縮小。
模型本身在各個地方都會變得越來越好,但無論是對消費者還是企業用戶來說,大家選擇一個產品的原因,遠不止模型能力本身。我們其實已經預料到會出現今天這樣的競爭局面,所以一直在努力打造一個完整、連貫的產品體系,確保我們成為人們最想使用的那個產品。
我認為競爭是好事,它會推動我們變得更好。我相信我們在聊天產品上會做得很好,在企業市場也會做得很好。未來幾年里,我也期待我們在其他全新的產品類別中同樣能表現出色。
我覺得人們其實非常希望只使用一個 AI 平臺。就像在個人生活中,你用的是一部手機,大多數時候你也希望在工作中用同樣的那一部。我們正在 AI 上看到同樣的趨勢。ChatGPT 在消費者市場的強勢,正在非常明顯地幫助我們贏得企業市場。當然,企業需要不同的功能,但人們會想:“我知道 OpenAI,我也知道怎么用 ChatGPT 這個界面。”
所以我們的策略很簡單:打造最好的模型,在此基礎上構建最好的產品,并且擁有足夠的基礎設施去支撐大規模服務。
Alex Kantrowitz:確實存在一種“先發優勢”。今年早些時候,ChatGPT 的周活躍用戶大概在 4 億左右,現在已經到了 8 億,報道中甚至說接近 9 億。但另一方面,像 Google 這樣的公司也擁有巨大的分發優勢。所以我很好奇你的看法:如果模型最終趨同,那么真正重要的會是什么?是分發能力?是應用構建能力?還是我還沒有想到的其他因素?
Sam Altman:我并不覺得“商品化”是一個恰當的框架來理解模型。未來一定會存在這樣的情況:不同模型在不同領域各有專長。對于日常聊天這樣的普通用例,可能會有很多非常不錯的選擇;但在科學發現等領域,你會希望使用那種真正站在前沿、為科學深度優化的模型。
因此,模型會有不同的優勢。我認為,最大的經濟價值,仍然會由處在前沿的模型創造,而我們計劃始終領先于那個前沿。我們也非常自豪地認為,5.2 是目前世界上最強的推理模型,是科學家取得最多進展的模型。同時,我們也為企業客戶的反饋感到驕傲——他們認為這是完成企業各類任務時表現最好的模型。
當然,會有我們在某些領域領先、在另一些領域稍微落后的時候。但整體上來看,我認為“最智能的模型”即便在一個免費模型可以滿足大量基礎需求的世界里,依然會擁有巨大的價值。
產品本身非常重要,分發和品牌也非常重要。以 ChatGPT 為例,個性化是一個極具粘性的因素。人們非常喜歡模型隨著時間推移逐漸“了解自己”,你們會看到我們在這方面持續加碼。用戶和這些模型之間,會產生一些非常深刻的體驗,并且會將這些體驗與產品本身強烈地綁定在一起。
我記得曾經有人跟我說,人這一輩子大概只會選一次牙膏,然后就一直用下去——至少大多數人是這樣。ChatGPT 也是類似的情況。人們會有一次“魔法時刻”。醫療健康是一個很典型的例子:有人把血檢結果或者癥狀輸入 ChatGPT,然后發現了問題,去看醫生后真的被治好了。對這些用戶來說,粘性是極高的,更不用說再疊加上個性化能力。
產品層面還有很多事情。我們最近剛發布了瀏覽器,我認為這為我們指向了一種新的、非常有潛力的形態。設備還要更晚一些,但我對此非常期待。
在企業市場,競爭優勢的構成方式可能會有所不同,但邏輯是相似的。就像個性化對個人用戶非常重要一樣,對企業來說,也會存在一種“企業級個性化”:一家公司會與我們這樣的公司建立長期關系,把自己的數據接入進來,然后運行來自不同廠商的各種 agent,確保信息被以正確的方式處理。我預計這同樣會非常有粘性。
很多人仍然把我們主要看作一家消費者公司,但實際上我們已經擁有超過一百萬的企業用戶,而且我們會在企業市場上持續深耕。API 的采用速度也極其迅猛,今年 API 業務的增長速度甚至超過了 ChatGPT 本身。所以企業這塊,從今年開始,真的在發生。
Alex Kantrowitz:我想再回到剛才那個問題:如果不是“商品化”,而是說在日常使用層面上,模型對普通用戶來說感覺差不多。那么當 ChatGPT 和 Gemini 在日常體驗上趨同時,Google 那種巨大的分發優勢會構成多大的威脅?畢竟 Google 可以通過無數入口推送 Gemini,而 ChatGPT 需要為每一個新用戶而戰。
Sam Altman:我認為 Google 依然是一個巨大的威脅,它是一家極其強大的公司。如果 Google 在 2023 年真的認真對待我們,我們當時可能會處在一個非常糟糕的境地,他們是有能力徹底壓制我們的。
但那時他們在 AI 上的產品方向并不完全正確。他們也啟動過自己的“紅色警報”,但并沒有真正重視。現在大家都在搞“紅色警報”。
另外,Google 擁有整個科技行業里可能是最好的商業模式之一,我認為他們會非常謹慎,不愿輕易放棄這一點。我可能也會看走眼,但我并不認為把 AI 簡單“加”進搜索框里,會像徹底重新構想一種 AI 優先的產品那樣成功。
這其實是一個更廣泛的趨勢:把 AI 嵌進舊有模式里,效果通常不如從一開始就圍繞 AI 重新設計。這也是我們為什么想做消費者設備的原因之一,這個邏輯在很多層面上都成立。
如果你把 AI 加進一個即時通訊應用,讓它幫你總結消息、草擬回復,那確實是好了一點,但那并不是終極形態。真正的終局應該是:一個足夠聰明的 AI,作為你的 agent,去和其他人的 agent 交流,判斷什么時候該打擾你、什么時候不該打擾你,哪些決策它可以自行處理,哪些必須來問你。搜索、辦公套件也是同樣的道理。
我懷疑這一切會比我們想象中花更長時間,但我相信,在主要產品類別中,我們最終會看到完全圍繞 AI 構建的新產品,而不是在舊產品上“打補丁”。這恰恰可能是 Google 的一個弱點,盡管它擁有巨大的分發優勢。
2
聊天框贏了三年,但真正的戰爭在“界面重構”
Alex Kantrowitz:我和很多人討論過這個問題。ChatGPT 剛發布時,我記得 Ben Thompson 說過,你可能并不應該把 AI 塞進 Excel,而是應該重新想象你是如何使用 Excel 的。比如,你上傳數據,然后直接“和數據對話”。后來大家在實際開發中發現,這背后還是需要一個后端系統。那么問題就變成了:你是不是先構建一個新的后端系統,再通過 AI 去交互?如果是這樣,為什么不能直接疊加在現有系統上?
Sam Altman:你當然可以疊加,但我每天花大量時間在各種消息應用里:郵件、短信、Slack……我覺得這本身就是一個錯誤的界面。你可以在上面加 AI,讓它稍微好一點,但我更希望的是,早上我可以直接對 AI 說:今天我想完成哪些事情,我在擔心什么,我在思考什么,我希望發生什么。我不想一整天都在給人發消息,我不想讓你總結它們,我也不想看一堆草稿。能處理的事情你就自己處理。你了解我,了解這些人,也知道我想達成什么目標。每隔幾個小時,如果有必要,再批量給我更新。這和現在這些應用的工作流是完全不同的。
Alex Kantrowitz:我原本想問你 ChatGPT 在未來一年、兩年里會變成什么樣子。說實話,我原本以為,到現在這個階段,ChatGPT 的形態應該已經發生更大的變化了。你當時預期是什么樣的?
Sam Altman:我也說不上來。我只是覺得這個聊天界面不會走這么遠。最早它只是作為一個研究預覽被放出來,根本沒打算成為一個產品。雖然現在看起來好看了一些,但整體上和最初差別不大。我們知道文本聊天界面很好用,人們已經習慣了像給朋友發消息一樣交流。但我原以為,如果它真的會成為一個如此龐大、被用于如此多真實工作的產品,那這個界面本身應該會演進得更多一些。
我現在依然認為它應該繼續進化。但我低估了這種“通用性”界面的力量。我認為未來 AI 應該能夠為不同任務生成不同的界面。如果你在處理數據,它就應該用合適的方式展示數據,并讓你以不同方式交互。我們現在在 Canvas 等功能里已經看到了一點苗頭,但還遠遠不夠。它應該更具交互性,而不是簡單的來回對話。你圍繞一個對象持續思考,它就應該持續更新。
它也應該隨著時間變得更加主動,理解你當天想完成什么,在后臺持續為你工作,并給你更新。今年讓我最興奮的事情之一就是 Codex 真的變得非常好,這其實也指向了我心中未來產品形態的一部分。
老實說,這件事讓我感到驚訝。說“尷尬”不太準確,畢竟它已經極其成功了。但 ChatGPT 在過去三年里,界面變化之小,確實出乎我的意料。
Alex Kantrowitz:但界面確實好用。不過,底層變化很大。你剛才也提到了個性化和記憶,這也是我最喜歡的功能之一。記憶功能真的改變了體驗。我最近幾周一直在和 ChatGPT 討論一次即將到來的旅行,涉及很多規劃內容。即便我新開一個窗口,只說一句“我們繼續聊這次旅行吧”,它就能馬上接上,知道我和誰一起去、要做什么、甚至知道我在為這次旅行做健身計劃,并能把所有這些信息綜合起來。記憶能力究竟能強到什么程度?
Sam Altman:我覺得我們現在根本還沒有概念。人類哪怕擁有世界上最好的私人助理,也不可能記住你一生中說過的每一句話,不可能讀過你所有的郵件、所有寫過的文檔,不可能每天關注你所有的工作細節。人類沒有無限、完美的記憶。
而 AI 是可以做到這一點的。我們內部經常討論這個問題。現在的“記憶”還非常原始,非常早期,大概還處在 GPT-2 時代的水平。但當它真的能夠記住你一生中的每一個細節,并在此基礎上進行深度個性化,不只是事實,還包括那些你自己都未必意識到的小偏好——AI 卻能捕捉到——那將會極其強大。這也許不是 2026 年就能實現的事情,但這是我最興奮的方向之一。
Alex Kantrowitz:我之前和一位神經科學家聊過,他說你在大腦里找不到“思想”的存儲位置,而計算機是有存儲位置的,可以把一切都存下來。當這些機器人開始保存我們的思想時,當然會帶來隱私問題。但還有一點也很有意思:人們會和它們建立真正的關系。這是整個時代中被低估的一點。很多人已經開始感覺這些機器人像是陪伴者,在為他們著想。你怎么看這種親密感、陪伴感?有沒有一個“旋鈕”,可以決定人和 AI 的距離?如果有,你們如何去調節它?
Sam Altman:實際上,想要那種“親密陪伴”的人,比我原先以為的要多得多。我不知道該用什么詞來形容——“關系”不太對,“陪伴”也不太準確,但他們確實想和 AI 建立一種深度連接。而且在目前模型能力水平下,想要這種關系的人已經比我預期的多很多。
年初的時候,說自己想要這種體驗還被認為是很奇怪的事。現在可能很多人依然不會明說,但從行為上能看出來:人們希望 AI 了解他們、對他們溫暖、支持他們。這對很多人來說是有價值的,甚至包括一些口頭上說自己并不在乎的人。
我認為其中有些形態是非常健康的,也認為成年用戶應該擁有很大的選擇空間,決定自己在這個光譜上的位置。當然,也有一些形態在我看來是不健康的,但肯定仍然會有人選擇它。同時,也有一部分人只想要最干燥、最高效的工具。
我猜測,就像很多其他技術一樣,我們會不斷試驗,發現一些之前不知道的好處和問題。社會最終會慢慢形成共識:哪些地方應該如何設定那個“旋鈕”。而個人則會擁有非常大的自由,把它調到完全不同的位置。
Alex Kantrowitz:所以你的想法是,讓用戶自己來決定?
Sam Altman:是的,絕對如此。但我們并不清楚它究竟應該走多遠,也不清楚我們應該允許它走多遠。我們會給予用戶相當大的個人自由。當然,也確實有一些事情是其他服務可能會提供,但我們不會去做的。
嗯,比如說,我們不會——我們不會讓“RAI”(負責任 AI)去做那種事:比如試圖說服人們應該和它建立一種排他性的戀愛關系之類的。我們得把它保持在一個開放的狀態。
不過我相信,其他一些服務里肯定會發生這種事情。
Alex Kantrowitz:對,因為越“粘”,那項服務就越賺錢。這些可能性你一旦認真往深里想,就會覺得有點嚇人。
Sam Altman:完全同意。這確實是那種……我個人會覺得——你能看見它走向“嚴重翻車”的路徑。
3
消費者贏了,企業就容易了:ChatGPT 的反向 B2B 路徑
Alex Kantrowitz:你剛才提到了企業業務,我們聊聊 Enterprise。上周你在紐約跟一些新聞公司的編輯和 CEO 吃午飯時說,企業業務會是 OpenAI 明年的一個重大優先事項。我想聽你展開講講:為什么這會成為優先級?你覺得你們和 Anthropic 相比處在什么位置?很多人會說這像是 OpenAI 的一次轉向,因為你們一直更偏消費者業務。請你整體概述一下你們的企業計劃。

Sam Altman:我們的策略一直是消費者優先。主要有幾個原因。第一,過去模型還不夠穩健、也不夠“熟練”,無法滿足大多數企業場景的需求;但現在它們正在變得足夠好。第二,我們當時在消費者市場看到一個非常清晰的勝利機會,而這種機會既罕見又難得。我認為,如果你在消費者市場贏了,會讓你在企業市場的勝利變得容易得多——我們現在就正在看到這一點。
但正如我前面提到的,今年企業增長已經超過了消費者增長。考慮到模型目前所處的位置、以及它們明年會到達的水平,我們認為現在就是我們能非常快地做出一個規模可觀的企業業務的時間點。我們現在已經有企業業務了,但它還能增長得更多。
企業看起來已經準備好了,技術也看起來已經準備好了。
迄今為止最典型的例子當然是編碼,但還有其他方向也在快速增長,一些垂直領域現在增長得非常快。我們開始聽到越來越多企業說:“我其實就想要一個 AI 平臺。”
Alex Kantrowitz:是哪一個垂直領域?
Sam Altman:嗯,金融科學(finance science)是我個人眼下對所有進展里最興奮的一個方向。客戶支持做得也很不錯。但不過說到這個,我們還有一個叫GDP的東西。
Alex Kantrowitz:我正想問你這個。我能把關于它的問題直接拋出來嗎?好。我給 Box 的 CEO Aaron Levie 發了消息,我說我要見 Sam,我該問什么?他回復說:問問 GDP eval。
所以,這是一個衡量 AI 在知識工作任務中表現的指標。我就去翻了 GPT 5.2 的發布,去看你們最近放出來的那張 GDP-val 圖。當然,這是 OpenAI 自己做的評測。即便如此:GPT-5 thinking(也就是夏天發布的那個 thinking 模型),在知識工作任務中,以 38% 的比例“贏過 / 打平 / 接近人類知識工作者”(大概是 38.8%);而 GPT 5.2 thinking 在知識工作任務上,以 70.9% 的比例贏過或打平;GPT 5.2 pro 則達到 74.1%。并且它還跨過了“專家級”的閾值——看起來它能處理大約 60% 的專家級任務,也就是在知識工作上與專家差不多的水平。這些模型能做這么多知識工作的含義是什么?

Sam Altman:你剛才問“垂直領域”其實是個很好的問題,但我剛才之所以有點卡殼,是因為這個評測其實覆蓋了我覺得大概四十多個不同的“業務垂直任務”:做一份 PowerPoint、做法律分析、寫一個小 Web 應用等等。這個評測本質上是在問:對于企業必須做的許多任務,專家是否更喜歡模型輸出,相對于其他專家的輸出。
當然,這些都是小任務、范圍明確的任務,它不包括那種復雜、開放式、創造性的工作,比如“想出一個新產品”;也不包括很多團隊協作型的事情。但即便如此——如果你能把一個小時的任務交給一個“同事”,它給你返回的結果在 74% 或 70% 的情況下你會更滿意,而且你還能付更低的成本——這依然非常驚人。
如果你回到三年前 ChatGPT 剛發布的時候,有人說三年后我們會達到這個水平,大多數人都會說:絕不可能。所以當我們思考企業將如何整合這項能力時,現在早已不只是“它會寫代碼”了,而是一整套知識工作任務都可以分發給 AI 去做。企業要真正摸索出如何把它融入流程,可能需要時間,但它的影響應該會相當巨大。
Alex Kantrowitz:我知道你不是經濟學家,所以我不打算問你“宏觀就業的整體影響”之類的問題。但我想讀給你一段我在 Substack 上《Blood in the Machine》里看到的話,來自一位技術文案寫作者。他說:“聊天機器人進來之后,我的工作變成了管理機器人,而不是管理一支客服代表團隊。”這一點我覺得會經常發生。但他接著說:“一旦機器人被訓練到能夠提供足夠好的支持,我就出局了。”這種事情會不會更普遍?這會不會是“壞公司”更常做的事?因為如果一個人能編排許多不同的機器人,你可能會想留下他。我不確定。你怎么看?
Sam Altman:我同意你說的:很明顯,未來每個人都會在管理很多 AI,讓它們做各種不同的事。最終就像任何優秀的管理者一樣——希望你的團隊會越來越強,而你也會承擔更大的范圍、更大的責任。我不是那種“就業末日論者”。短期內我確實有些擔憂,我認為在一些情況下,轉型會很艱難。
但我們在人類層面上,我們似乎天生就太關注他人、在意他人做什么;我們似乎非常關注相對地位,總想要更多,總想要有用、能服務別人、表達創造力……這些驅動我們走到今天的東西,我不認為會消失。
當然,我確實認為未來的“工作”(甚至我都不知道還該不該叫“工作”)——到了 2050 年,我們每天在做的事情大概率會和今天非常不一樣。但我并不持那種“人生會失去意義、經濟會徹底崩塌”的觀點。我希望我們反而會找到更多意義;經濟結構會顯著變化,但我覺得你不能押注“進化生物學會輸”。
我經常想:我們如何把 OpenAI 的所有職能自動化;更進一步,我還會想:如果 OpenAI 有一個 AI CEO 會怎樣?這并不讓我不安,反而讓我很興奮。我不會抗拒。我不想成為那種死死抱著說“我手工做得更好”的人。
Alex Kantrowitz:讓 AI CEO 去做決策,指揮我們把資源投向“給 AI 更多能量和算力”之類的事情——這聽起來……你肯定會給它加護欄吧?
Sam Altman:當然。你顯然不希望一個完全不受人類治理的 AI CEO。但如果你設想一種版本——這個類比可能很瘋狂,但我還是說——如果世界上每個人都等效地坐在一家 AI 公司的董事會里,都可以告訴 AI CEO 該做什么,如果它做得不好大家還能把它開掉;也就是說,關鍵決策都有治理機制,而 AI CEO 負責盡可能執行董事會的意志——那么在未來的人看來,這也許是一個相當合理的系統。
4
GPT-6 先別急:下一步更像“定制升級”
Alex Kantrowitz:好,我們馬上會談基礎設施。但在離開“模型與能力”這一段之前,GPT-6 什么時候來?
Sam Altman:我不確定我們會在什么時候把某個模型叫作 GPT-6。但我預計,在明年第一季度,我們會發布一些相對于 5.2 有顯著提升的新模型。
Alex Kantrowitz:“顯著提升”指什么?
Sam Altman:我現在還沒法給你一個具體評測分數。總體上會是“面向企業”和“面向消費者”兩邊都會有提升:消費者側的模型會有很多改進,但消費者目前最想要的并不是更高的 IQ;企業仍然更想要更高的 IQ。
所以我們會針對不同用途、用不同方式來提升模型。我們的目標是:做出一個讓所有人都明顯更喜歡的新模型。
5
如果今天有雙倍算力,今天就有雙倍收入
Alex Kantrowitz:說到基礎設施:你們有大概 1.4 萬億美元的投入承諾,用來建設基礎設施。我聽過你很多關于基礎設施的表述。比如你說:“如果人們知道我們能用算力做到什么,他們會想要更多、更多。”你說:“我們今天能提供的東西,與 10 倍算力、100 倍算力相比,差距巨大。”你能不能再把它展開一點:你們要用這么多算力做什么?
Sam Altman:我前面稍微提過一點。我個人最興奮的方向,是用 AI 和大量算力去推動科學發現。我相信科學發現是讓世界對所有人變得更好的“最高位因素”。如果我們能把巨量算力投入科學問題,發現新的知識——現在已經開始有一點點苗頭了,當然非常早期、非常小的成果——但我對這個領域的歷史經驗是:一旦曲線開始出現、開始從 x 軸抬起來一點,我們就知道如何把它做得越來越好。但這需要極大量的算力。
所以我們正在把很多 AI 用在科學發現、治病,以及很多其他事情上。
最近一個挺酷的例子是:我們用 Codex 構建了 Sora 的 Android App,他們不到一個月就做完了。他們用了非常大量的 tokens——在 OpenAI 工作的一個好處是,你用 Codex 不會被限額。他們用掉了巨大 token 數,但做出了原本需要更多人、花更久時間才能完成的事情,Codex 基本上幫我們把大部分工作做了。你可以想象這進一步發展后,整個公司都可以用大量算力來構建產品。
人們也聊了很多:視頻模型最終會指向一種“實時生成的用戶界面”,那也會需要大量算力。企業要做業務改造,會用掉大量算力。醫生如果想提供真正個性化的醫療——持續監測每個病人的各種體征——你也能想象那會消耗大量算力。
現在要框定我們在全世界生成 AI 輸出已經用掉多少算力,其實很難。我接下來要說的數字非常粗糙,而且我也覺得這種說法不夠嚴謹,但我總覺得這種“腦內思想實驗”多少有點幫助,所以先原諒我這種粗糙吧。
假設一家 AI 公司今天,用前沿模型每天輸出大概 10 萬億 tokens 的量級。可能更高,但我不認為有人能達到每天 1000 萬億(quadrillion)tokens。假設世界上有 80 億人,假設平均每個人每天輸出的 token 數是 2 萬(我覺得這完全不對,但先這么假設)。嚴格來說,我們還得比較的是模型提供方“輸出的 tokens”,而不是“消耗的全部 tokens”。但你可以開始做一個對比:我們可能會看到某家公司每天輸出的 tokens,會超過全人類每天合計輸出的 tokens,然后再是 10 倍,再是 100 倍。
某種意義上這是個很傻的比較;但某種意義上,它能給你一個數量級的直覺:地球上“智力運算”的主體,究竟有多少來自人腦、多少來自 AI 腦——以及它們之間有趣的相對增長速度。
Alex Kantrowitz:所以我在想:你們是否真的知道這種算力需求是存在的?比如,如果 OpenAI 把投入到科學上的算力翻倍,我們就一定會有科學突破嗎?或者在醫療上,我們是否明確知道能用它去協助醫生?這里面有多少是你們對未來的推測,有多少是基于今天已經看到的明確趨勢?
Sam Altman:我們基于今天看到的一切判斷:這會發生。這并不意味著未來不可能出現某個瘋狂變量——比如有人發現一種全新的架構,帶來 1 萬倍效率提升,那我們可能短期內確實會顯得“建得太多”。但就我們現在看到的情況:模型在每個新層級上的進步速度、人們每一次都更想用它、每一次成本下降人們就更想用——這一切都在指向同一件事:需求會持續增加,人們會用它做很棒的事,也會用它做很傻的事。但整體來看,這就是未來的形狀。
而且這不只是“每天能輸出多少 tokens”的問題。還包括我們能多快地輸出。隨著這些編碼模型變得更強,它們可以想很久,但你不想等很久。所以還有其他維度,不只是 tokens 數量本身。
但在少數幾個關鍵維度上,對“智能”的需求會很大,而我們可以用這些能力做很多事。比如你有一個很棘手的醫療問題,你會用 5.2 還是用 5.2 Pro?哪怕后者要用多得多的 tokens——我覺得你會選更好的模型,我認為很多人都會。
Alex Kantrowitz:我們再往下追一層。你說科學發現,能不能給一個例子?不一定要是今天已經完全確定的那種“我有問題 X,只要投入算力 Y 就能解決”,但至少給個直觀的例子:今天有哪些問題是“我想解決但還做不到”的?
Sam Altman:今天早上 Twitter 上有一個討論:一群數學家互相回復。他們大概在說:“我原本非常懷疑 LLM 什么時候才能真的有用;但 5.2 是讓我跨過門檻的那個模型。”他們說它在一些幫助下做出了一個小證明,發現了一些小東西,但這已經在改變他們的工作流。然后更多人跟上來說“我也是”。有些人說 5.1 就已經到達了,但不多。
考慮到 5.2 才發布 5 天左右,就出現這種反饋——數學研究社區像是在說:“好像有件重要的事剛剛發生了。”
Alex Kantrowitz:我看到 Greg Brockman 也一直在他的動態里高亮各種數學、科學方向的用法。某種東西在這些圈子里,和 5.2 一起被“點亮”了。所以隨著進展推進,會發生什么很值得觀察。
Sam Altman:算力這件事還有個難點:你必須提前非常久去做規劃。你剛才提到的那 1.4 萬億美元,我們會在非常長的時間里逐步花出去。我希望能更快,我覺得如果我們能更快地投入,會有需求承接。但建設這些項目需要極其長的時間:數據中心的建設、供能、芯片、系統、網絡等等,一切都很耗時。所以這是一個長期過程。
不過,從一年前到現在,我們大概把算力翻了三倍。
我們希望明年再翻三倍,再下一年再翻一次。收入增長的速度甚至比這還略快一點,但大體上確實是跟著算力規模走的。所以我們從來沒有遇到過一種情況:我們沒法把已有的算力很好地變現。
換句話說,如果我們現在有雙倍的算力,我覺得我們的收入也會是現在的雙倍。
6
如果不激進投入,OpenAI 或許早就盈利了
Alex Kantrowitz:好,那既然你提到了數字,我們就聊聊數字。收入在增長,算力支出在增長,但算力支出的增長仍然快過收入增長。報道里有一些數字,說 OpenAI 可能會在現在到 2028/2029 年之間累計虧損大概 1200 億美元,然后到那時開始盈利。你能講講這個拐點是怎么出現的嗎?轉折點在哪里?
Sam Altman:隨著收入增長,隨著推理(inference)越來越成為算力資源中的主要部分,它最終會“蓋過”訓練成本。這就是計劃:訓練階段花很多錢,但之后賺得越來越多。
如果我們不繼續把訓練成本增長推得這么猛,我們會更早盈利得多。但我們現在押注的是:非常激進地投入訓練這些大模型。
Alex Kantrowitz:整個世界都在看:你們的收入能否匹配你們的支出。大家問的問題是:如果今年收入軌跡可能達到 200 億美元,而你們的投入承諾是 1.4 萬億美元——這到底怎么對得上?我覺得如果能一次性把這些數字的邏輯講清楚,會非常有價值。
Sam Altman:這很困難。因為人們很難在腦子里建立一個快速、可靠的心智框架去理解指數級增長。我自己肯定做不到,而且我見過的人里也極少有人能做到。你可以對很多數學問題有不錯的直覺,但對指數增長,人類通常就是做不好。進化讓我們擅長很多“腦內數學”,但建模指數增長似乎并不是其中之一。
我們的核心判斷是:我們還能在很長一段時間里保持非常陡峭的收入增長曲線。我們目前看到的一切都在表明:如果沒有足夠算力,我們根本做不到——我們一直都在被算力約束。
算力不足對收入線的影響非常直接、非常硬。所以如果未來某個節點出現“我們有一大堆閑置算力卻無法在單位算力上盈利變現”,那么人們質疑“這到底怎么運作”的確會非常合理。
但我們已經用很多種方式把賬算過了。我們當然也會在 flops per dollar 上變得更高效——我們在降低算力成本方面做的工作會逐步兌現。我們看到了消費者增長,也看到了企業增長,還有一堆我們甚至還沒發布的新業務類型,但都會上線。而算力就是支撐這一切的生命線。
所以,我們會設置一些階段性檢查點。如果我們對時機或數學估計稍微算錯了,我們也有一定的靈活性。但我們一直以來的狀態都是:算力永遠不夠。
它一直在限制我們能做的事情。很遺憾,我覺得這種情況可能永遠都會存在,但我希望這種限制能少一點,也希望隨著時間推移把它降到更低。因為我認為我們其實可以交付非常多很棒的產品和服務,這也會是一門非常好的生意。
Alex Kantrowitz:所以,本質上是這樣一個關系:訓練成本在絕對值上升,但在整體成本結構中所占的比例在下降。然后你的預期是,通過這些方式——比如推動企業級市場、比如有人愿意通過 API 為 ChatGPT 付費——OpenAI 能夠把收入增長到足以用收入來覆蓋這些成本。
Sam Altman:是的,這就是計劃。
Alex Kantrowitz:我覺得最近市場對這件事有點“失控”了。讓市場真正感到不安的,是“債務”開始進入這個等式。傳統上,你會在事情比較可預測的時候去舉債,然后公司拿著這筆債去建設,并且有相對可預測的收入。但這是一個全新的類別,它是不可預測的。你怎么看待債務進入這個領域這件事?
Sam Altman:首先,我覺得市場在今年早些時候就已經“失控”過一次了。你知道,我們可能只是去見了一家公司,那家公司的股價第二天就漲了 20% 或 15%,讓我覺得非常不健康。
說實話,我反而挺高興現在市場里多了一點懷疑精神和理性,因為之前看起來我們正一路奔向一個極其不穩定的泡沫。而現在我覺得人們多少恢復了一點紀律性。
所以我認為,事情是這樣的:之前大家太瘋狂了,現在在債務問題上反而更理性一些。我們大致知道一件事:如果我們去建設基礎設施,整個行業里總會有人能從中獲得價值。現在仍然非常早期,這點我同意。但我不認為還有人會質疑“AI 基礎設施不會產生價值”這件事。
所以我覺得,債務進入這個市場是合理的。我也認為未來還會出現其他類型的金融工具。我懷疑其中會有一些并不那么理性的創新方式,人們會在如何為這些東西融資上不斷“發明新花樣”。但比如說,借錢給公司去建數據中心,這在我看來是完全合理的。
Alex Kantrowitz:真正讓人擔心的是:如果事情不能按現在的速度繼續推進。比如有一種情形——你可能不同意——模型能力的進步出現飽和,那么這些基礎設施的價值就會低于此前的預期。那當然,這些數據中心對某些人來說仍然是有價值的,但也有可能被清算,然后被別人以折扣價買走。
Sam Altman:我確實也認為中間一定會出現一些繁榮與蕭條的周期,這類事情從來都不是一條完全平滑的直線。
首先,這一點在我看來是非常明確的,而且這是我愿意“拿公司去賭”的判斷:模型一定會變得好得多、好得多。我們對這一點有非常清晰的判斷窗口,我們對此非常有信心。
即便模型能力不再進步,我也認為世界上存在很強的慣性。人們需要時間去理解如何適應新事物。
我相信,5.2 這個模型所代表的潛在經濟價值,與目前世界實際挖掘出來的價值之間,存在著極其巨大的“懸空空間”。即便你把模型能力凍結在 5.2 的水平,問一句:還能創造多少額外價值、還能推動多少收入增長?我會賭一個“非常巨大”的數字。
事實上,你沒有問這個問題,但如果我可以稍微發散一下的話——我們過去經常討論一個 2×2 的矩陣:時間線是短還是長,起飛是快還是慢。我們會在不同時間判斷這些概率如何變化,并據此來理解這個世界應該優化怎樣的決策和戰略。
但在我腦海里,現在多出來了一條 Z 軸:能力“懸空空間”是小還是大。回頭看,我意識到我當時并沒有認真思考這一點。我大概隱含地假設,如果模型里蘊含著大量價值,世界會很快學會如何部署和使用它們。但現在看起來,在世界的大多數地方,這個“能力懸空空間”會大得驚人。
當然,會有一些局部區域,比如一部分程序員,通過采用這些工具會變得極其高效。
但總體來說,我們已經擁有了一個瘋狂聰明的模型,而老實說,大多數人問的問題,仍然和 GPT-4 時代差不多。科學家、程序員、不同類型的知識工作者,變化程度各不相同,但整體上仍然存在巨大的能力懸空空間。
而這一點會給世界帶來一系列非常奇怪的后果。我們還遠沒有完全想清楚它將如何展開,但這確實非常、非常不同于我幾年前的預期。
7
為什么模型這么強了,企業落地還不見成效?
Alex Kantrowitz:我想問你一個關于“能力懸空”的問題。基本上,模型能做的事情比它們現在被使用來做的事情多得多。我試圖理解,為什么模型已經這么強了,但很多企業在實際落地時,卻拿不到投資回報——至少他們是這么跟 MIT 說的。
Sam Altman:我對此有點困惑,因為我們又聽到很多企業說:“就算 GPT-5.2 的價格漲 10 倍,我們也愿意付費。你們現在的定價嚴重低估了價值,我們已經從中獲得了巨大收益。”
所以這兩種說法似乎對不上。
如果你去問程序員,他們也會說:“這東西太值了,我愿意付現在價格的一百倍。”
假設你相信那些 GDP 價值評估的數據——當然你也有充分理由不相信,可能它們是錯的——但假設它們是真的:對于那些定義清晰、周期不算特別長的知識工作任務,在 10 次里有 7 次,你對 5.2 的輸出會和人工一樣滿意,甚至更滿意。那么你就應該大量使用它。但現實是,人們改變工作流所花的時間,遠比我想象的要長。
人們已經非常習慣讓初級分析師去做 PPT 之類的事情,這種習慣的粘性比我預期的要強得多。說實話,我自己現在的工作流,也仍然和過去差不多,盡管我明明知道自己可以比現在多用得多的 AI。
8
閃電問答:一朵不想成為 AWS 的云,和一場并不興奮的 IPO
Alex Kantrowitz:好,我們還剩 10 分鐘。我還有四個問題,我們試著用“閃電輪”來過一遍。
你們正在做的那個設備。我們剛才說會回來繼續聊 OpenAI CEO Sam Altman。我聽到的說法是:手機大小、沒有屏幕。那為什么不能只是一個 App?如果它是一個沒有屏幕的“手機”,那為什么不是 App?
Sam Altman:首先,我們會做一個小型的設備家族,而不是單一設備。隨著時間推移……這不是猜測,我盡量不讓自己說錯,但我認為,未來人們使用計算機的方式會發生變化:從一種“愚鈍的、被動反應式”的東西,轉向一種非常聰明、非常主動的東西——它理解你的整個人生、你的上下文、你周圍正在發生的一切,非常清楚你身邊的人,無論是物理上的,還是通過你正在使用的計算機。
而我認為,現有的設備并不適合這樣一個世界。我一直非常相信一點:我們是在“設備能力的邊界”上工作。你有一臺電腦,它做出了一系列設計選擇,比如它是開著的還是關著的,但它不能處在一種狀態:一邊讓我專心聽這場采訪,一邊在我忘了問你一個問題時輕聲提醒我。也許那樣會很有用。
我們有屏幕,這就把我們限制在幾十年來圖形界面的那種交互方式里;我們有鍵盤,而鍵盤的設計初衷本來就是為了降低輸入信息的速度。這些假設已經存在了很長時間,而且它們確實有效。但現在出現了一種全新的東西,打開了一個全新的可能性空間。我不認為當前的設備形態會是這個全新能力的最優承載方式。如果真是那樣,反而會顯得非常奇怪。
Alex Kantrowitz:這個話題我們能聊一小時,但我們還是繼續下一個問題吧:云。你談到過要建設一個“云”。有一位聽眾給我們發來郵件:在他的公司里,他們正在從 Azure 遷移,直接集成 OpenAI,為產品提供 AI 能力。他們的目標是讓數萬億 token 在整個技術棧中流動,用來支撐 AI 體驗。這是不是你們想要打造一個巨大云業務的方向?
Sam Altman:首先,數萬億 token——那真的很多 token。你剛才問到算力需求和企業戰略,企業已經非常明確地告訴我們,他們想從我們這里購買多少 token。我們很可能在 2026 年再次無法滿足需求。
整體戰略是這樣的:大多數公司似乎都想來找我們,說:“我需要一個‘帶 AI 的公司’。我需要一個為我公司定制的 API,我需要為我公司定制的 ChatGPT Enterprise,我需要一個我可以信任、可以運行所有 agent、可以托管我數據的平臺。我需要把數萬億 token 注入我的產品。我需要讓所有內部流程更高效。”
而我們目前并沒有一個真正優秀的一體化方案,但我們想把它做出來。
Alex Kantrowitz:你的目標是成為像 AWS、Azure 那樣的存在嗎?
Sam Altman:我覺得這是一個不同類型的東西。我并沒有什么雄心要去提供你用來托管網站的那一整套服務。但我確實認為,未來人們會繼續擁有所謂的“Web 云”,同時還會有另一種東西:公司會說,“我需要一個 AI 平臺,用來支撐我內部的一切、我對外提供的一切服務。”
它在某種意義上仍然依賴物理硬件,但我認為它會是一個相當不同的產品形態。
Alex Kantrowitz:我們快速聊一下“發現”。你曾說過一件讓我印象很深的事:你認為模型——或者人與模型的協作——會在明年產生小發現,在五年內產生重大發現。那是模型本身,還是人與模型協作?你為什么對此這么有信心?
Sam Altman:是人使用模型。模型自己去提出問題,那種能力我覺得還要更遠一些。但如果世界能因為新知識而受益,那我們就應該感到非常興奮。整個人類進步的歷史,本質上就是:我們打造更好的工具,人用這些工具做更多事,然后在這個過程中再打造更好的工具。這是一種層層攀升的腳手架,一代又一代,一次發現接一次發現。問題是人提出來的,并不會削弱工具的價值。
說實話,我很開心。今年年初我以為小發現會在 2026 年才開始,但它們在 2025 年下半年就出現了。當然,這些發現非常小,我真的不想夸大它們。但“有一點”和“完全沒有”,在我看來是質的區別。三年前我們剛發布模型的時候,它是完全不可能對人類知識總量做出任何新貢獻的。
從現在到五年后的這段路,我懷疑這就是 AI 的常規爬坡過程:每個季度進步一點點,然后突然有一天我們會意識到——“哇,人類在模型增強下,正在做五年前完全做不到的事情。”
至于我們是把功勞更多歸因于更聰明的人,還是更聰明的模型,只要我們真的得到了科學發現,我對兩種說法都很滿意。
Alex Kantrowitz:明年 IPO?你想成為一家上市公司嗎?你看起來可以作為私營公司運營很久。
Sam Altman:這里面有很多因素在起作用。我確實覺得,讓公眾市場參與價值創造是一件挺酷的事情。從某種意義上說,如果你對比歷史上的公司,我們已經算是非常晚才上市了。做私營公司當然很棒,但我們確實需要大量資本,遲早會觸及各種股東數量限制。
我期待成為一家上市公司的 CEO 嗎?0%。
我期待 OpenAI 成為一家上市公司嗎?在某些方面是的,但在某些方面我也覺得那會非常煩。
Alex Kantrowitz:我非常認真地聽了你和 Theo Von 的那期訪談,很棒的一期。他真的很懂行,做了很多功課。你當時說,在 GPT-5 發布前,GPT-5 在幾乎所有方面都比我們更聰明。我當時想:這不就是 AGI 的定義嗎?如果這還不是 AGI,那這個詞是不是已經變得有點沒有意義了?
Sam Altman:這些模型在“原始算力”層面顯然非常聰明。最近幾天有很多關于 GPT-5.2 的討論,說它的 IQ 是 147、144、151,取決于你用的是誰的測試。你也能看到很多領域專家說它能做出驚人的事情,能提升他們的工作效率。我們也討論了 GDP 影響。
但有一件事你還沒有:模型目前還做不到這樣一件事——當它今天發現自己不會做某件事時,它無法自己意識到這一點,主動去學習、理解,等你第二天回來,它就已經把這件事做好了。這種持續學習能力,連幼兒都具備,而這似乎是我們需要構建的一個非常重要的部分。
那么,沒有這一點,你能否仍然擁有大多數人眼中的 AGI?我認為答案并不明確。很多人會說,我們現在的模型已經是 AGI 了。幾乎所有人都會同意,如果在當前智能水平之上再加上這種能力,那就毫無疑問是 AGI 了。但也許世界上的大多數人會說:“好吧,就算沒有那一點,它已經能完成大多數重要的知識工作,在大多數方面比大多數人都聰明,它已經在做小規模的科學發現了,那這就是 AGI。”
這說明的問題是:這個詞本身定義得太不清晰了。雖然我們都很難停止使用它。
有一件事我真的很希望我們當初做對:AGI 沒有被好好定義。而現在大家關注的新詞是“超級智能”。所以我的提議是:我們承認 AGI 就這樣“嗖”地過去了。它沒有立刻改變世界——或者說它會在長期改變世界——但好吧,我們已經在某個階段構建出了 AGI。現在我們處在一個模糊期,有些人認為我們已經到了,有些人不這么認為,慢慢會有更多人認為我們到了。然后我們該問:“接下來是什么?”
我給“超級智能”提供一個候選定義:當一個系統在擔任美國總統、管理一家大型公司、運行一個超大型科研機構時,做得比任何一個人都好,哪怕這個人還能借助 AI 的幫助。
這讓我想起了國際象棋的歷史。有一個階段,人類和 AI 結合在一起,比單獨的 AI 更強;再后來,人類反而成了拖累,最聰明的做法是完全不加人類的 AI。我覺得這是一個理解超級智能的有趣框架。當然,這還很遙遠,但我真希望這一次我們能有一個更清晰的定義。
Alex Kantrowitz:Sam,我已經每天使用你們的產品三年了,它們真的變得越來越好,幾乎無法想象接下來還能怎么進步。
Sam Altman:我們會盡力讓它們繼續快速變好。
參考鏈接:
https://www.youtube.com/watch?v=2P27Ef-LLuQ





京公網安備 11011402013531號