山自
AGI不是一個特別有用的詞。
8月11日清晨,OpenAI CEO Sam Altman在CNBC《Squawk Box》上輕描淡寫的一句話,直接把自家官網掛了6年的使命宣言確保通用人工智能(AGI)惠及全人類推進了語義回收站。
三天前,GPT-5剛剛上線;同一天,媒體爆料OpenAI正與Thrive Capital洽談以約5000億美元估值完成新一輪老股轉讓。一邊是史上最貴的AI公司,一邊卻是CEO帶頭拆臺行業圖騰。這一幕怎么看都像是科幻片里的反轉橋段。
Altman的改口并非即興發揮,而是OpenAI在技術、商業、監管三條戰線上同步換擋的外顯:
技術換擋:從全能神回到多面手,用分級能力框架替代AGI or not的二元敘事;
商業換擋:收入狂奔到年經常性收入(ARR)200億美元,卻仍堅持長期虧損,用資本杠桿對沖盈利壓力;
監管換擋:主動稀釋AGI概念,降低國會山對一家私營公司即將造出神的敏感閾值。
下文將用三條主線拆解這場祛魅運動背后的算盤與代價。
GPT-5沒有奇點,只有刻度,一場漸進式發布會
8月8日,GPT-5向所有ChatGPT用戶推送。OpenAI官方話術是:更聰明、更快、更有用,尤其寫作、編程、醫療問答三大場景。然而社交媒體上的高頻詞卻是就這?
南安普敦大學Wendy Hall教授直言:從各方面看,這是一次漸進升級,而非革命。
如果我們把歷次GPT模型按參數量×訓練效率×推理速度做一個簡化版的能力刻度尺,會發現:
GPT-3 → GPT-3.5:刻度+1,解鎖Few-Shot提示;
GPT-3.5 → GPT-4:刻度+2,多模態、邏輯鏈顯著增強;
GPT-4 → GPT-5:刻度+1.5,代碼一次性通過率從67%提到81%,醫療
執照考試從80%升到87%。
每一次都更好,卻沒有任何一次出現垂直陡增。Altman在內部全員會上承認,按照他個人定義(能夠持續自主學習并自我改進的系統),GPT-5離AGI仍有距離。
能力分級:OpenAI的新標尺
既然AGI已被宣布失效,OpenAI拿什么向客戶和投資人講故事?答案是能力分級。
去年11月FinRegLab AI研討會上,Altman首次提出用L1-L5框架取代AGI敘事:
L1 聊天機器人(Chatbot)
L2 推理者(Reasoner,人類水平的問題解決)
L3 代理(Agent,可執行多步任務)
L4 創新者(Innovator,可輔助科學發現)
L5 組織者(Organization,可完成整個組織的工作)
GPT-5被內部評估為L2+,即在某些子領域摸到L3門檻,但依舊缺乏長期記憶、自主規劃與環境交互的閉環。這套說辭的好處顯而易見:
對于客戶:采購決策不再押注全能神,而是可落地的能力模塊;
對于監管:把一步登天拆成五級臺階,減緩奇點恐慌;
對于投資人:把終局估值拆成里程碑估值,每一級都能再融資。
越賺錢,越虧錢,狂奔的ARR與燒錢的GPU
根據CNBC拿到的數據,OpenAI 2024年預計虧損50億美元,對應收入37億美元;而2025年ARR即將突破200億美元,虧損卻同步放大。Altman在鏡頭前直言:只要模型能力曲線繼續陡峭,理性選擇就是持續虧損。
把這句話翻譯成財務模型:
收入側:ChatGPT訂閱(20美元/月)、API調用(每1k token 0.06美元)、企業定制(年費百萬級)三線井噴;
成本側:訓練GPT-5一次性燒掉約6.3億美元,推理成本隨著用戶量指數級增加;
資本側:5000億美元估值=未來現金流折現+奇點期權,后者需要持續講故事。
換言之,OpenAI正在用虧損購買更大虧損的權利,只要故事不被證偽,資本就會繼續加注。
從非營利到半營利再到影子IPO
2015年,OpenAI是非營利;2019年,轉為封頂盈利;2025年,它正進行一次影子IPO不上市,卻讓老股東和新基金以5000億美元估值交易存量股。
這么做的好處:
1、避開SEC繁瑣披露,繼續把訓練數據、算法細節、安全風險留在黑箱;
2、避免公開市場季度財報對長期虧損的拷問;
3、用稀缺老股制造饑餓營銷,把估值錨定在最高一級。
Altman在采訪中笑稱:不上市真好。翻譯過來就是:只要還能用私募市場的無限子彈,就不會把自己放到聚光燈下。
把造神改寫成造工具華盛頓的AGI過敏癥
2024年夏天,美國參議院舉行了三次AI閉門簡報會,主題從AI安全升級為AGI治理。議員們最擔心的問題:如果OpenAI宣布實現AGI,是否意味著一家私營公司擁有了準國家級別的權力?
Altman在國會作證時,曾用AGI就像電網來打比方,試圖說明OpenAI會成為基礎設施而非權力本身。但顯然,這套說辭未能打消疑慮。于是,2025年我們看到OpenAI主動降格:
不再提AGI時間表;
用能力分級取代通用;
強調工具屬性,淡化主體意識。
歐盟AI Act的鏡像
歐盟AI Act把AI系統按風險分為最小、有限、高、不可接受四級。OpenAI的L1-L5與歐盟四級有微妙的映射關系:
L1-L2對應最小風險,只需自我聲明;
L3開始涉及高風險,需要第三方審計;
L5則觸碰系統性風險,面臨最嚴苛義務。
通過提前自我分級,OpenAI把監管博弈前置到標準制定階段,而不是等到產品上線后被追罰。
誰受益,誰受傷?
受益者
OpenAI自身:概念降級換來監管紅利、資本紅利、客戶紅利三殺;
微軟:Azure綁定OpenAI,5000億美元估值越穩,云收入越穩;
應用層開發者:不用再猜奇點哪天來,直接調用API做垂直場景。
受傷者
競品:Anthropic、Google DeepMind仍高舉AGI大旗,顯得不合時宜;
學術圈:AGI曾是AI倫理、AI安全領域最大的科研經費磁石,概念被稀釋后,部分項目面臨重新立項;
公眾:在狼來了敘事反復拉扯后,對AI的敬畏感下降,可能帶來新一輪AI疲勞。
當造神結束,造利開始
八年前,OpenAI用一篇《用強化學習打Dota2》的博客點燃了大眾對AGI的想象;八年后,Sam Altman親手把這段敘事收進博物館。
AGI的大旗被折疊收好,但AI的鐮刀和錘子仍在日夜轟鳴。歷史從來不是線性上升,而是在造神祛魅再造神的螺旋里曲折前行。下一次,當某家公司宣布已實現L4創新者時,但愿我們仍能記起2025年8月,Sam Altman在CNBC鏡頭前那句輕描淡寫的提醒:重要的不是名詞,而是刻度。





京公網安備 11011402013531號