![]()
新智元報道
編輯:KingHZ 桃子
OpenAI,亟需一場翻身仗!今天,全網最大的爆料:GPT-5基石實為GPT-4o。自4o發布之后,內部預訓練屢屢受挫,幾乎淪為「棄子」。
OpenAI核心預訓練,接連翻車?
傳言稱,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的預訓練版本,都被OpenAI放棄了!
![]()
這么說并非空穴來風,核心爆料恰恰來自權威SemiAnalysis的最新一文——
OpenAI頂尖團隊自GPT-4o發布之后,迄今尚未完成一次完整的,為下一代前沿模型設計的大規模預訓練。
![]()
![]()
文章中,高級分析師強調:谷歌正手持TPUv7這把利劍,向英偉達王座發起沖鋒,或將終結CUDA護城河。
眾所周知,OpenAI全棧模型是在純英偉達GPU上煉出的。
然而,圈內人的焦點,大都放在了大模型「推理」和「后訓練」的硬件之上。
殊不知,沒有前沿模型的預訓練,一切皆是「無米之炊」。恰恰這一環節,成為了AI硬件里最難、最耗資源的一關。
如今,一個不為人知的內幕爆出了:
事實證明,谷歌TPU徹底經受住了這一考驗;
相較之下,自2024年5月GPT-4o誕生之后,OpenAI的預訓練卻毫無進展.....
![]()
過去,兩年半的時間,OpenAI沒有真正Scaling預訓練的規模。
![]()
GPT的預訓練,或許在GPT-4o之后觸及了天花板,由此也解釋了GPT-5性能未達業界預期的關鍵原因。
有網友表示,那不正是Ilya離開的時候嗎.....
恰在昨天,Ilya最新發文稱,Scaling不會停,但某個重要的東西仍然會缺失。
![]()
![]()
OpenAI預訓練,大潰敗
還記得去年底,那場鋪天蓋地的「Orion」傳聞嗎?
這一秘密項目,原定以GPT-5面世,但因訓練未達預期,最終被降級為GPT-4.5發布。
![]()
在前沿模型預訓練上,OpenAI的研發似乎陷入了僵局——
如今第五代旗艦模型GPT-5,包括最新GPT-5.1,其「技術根基」本質或仍未突破GPT-4o的范疇。
SemiAnalysis去年底一篇文章,曾對外公開了Orion訓練的困境。
當前,算法的進步使得模型每年所需的物理計算量減少約三分之一,因此,訓練運行時間很少超過3個月。
甚至,行業中大多數預訓練通常僅需要1-2個月。
然而,OpenAI的Orion大規模預訓練,卻打破了這一常規,其訓練時間超過了3個月。
另據Information同一時間爆出,Orion不會像前代實現巨大的飛躍,相較于從GPT-3到GPT-4的迭代,改進幅度要小得多。
![]()
不僅如此,Orion性能提升也基本局限在——語言能力上,其代碼能力甚至不如舊模型,且成本更高。
如今再回看2月,GPT-4.5的誕生,基于代號Orion的模型,OpenAI追求的是:
更強的語言能力+更穩的對話體驗+更大知識庫
![]()
情商,成為了GPT-4.5的關鍵詞。代碼雖有提升,但并非主菜。
這一切的一切,從側面印證了,此前外媒關于「Orion遇挫」爆料的準確性——
LLM有提升,但不大。
![]()
GPT-4o,成Scaling主線?
今年8月,GPT-5的那場發布,奧特曼將其定調為「博士級AI,是通往AGI又一里程碑」。
實則,業界對于GPT-5的反響,唏噓一片。
大家原本以為,GPT-5會是全面超越前代的一次飛躍,但實際發布后,更像是GPT-4.5的進一步優化版,不是「顛覆版」。
![]()
但至于GPT-5真正基于哪一款GPT打造,還有待證實。
正如之前傳聞的猜測,有可能是GPT-4o,還有Reddit網友稱是GPT-4.1....
![]()
但不論是哪一款,都證明了GPT-5,沒有在全新前沿模型的大規模預訓練上淬煉。
搞笑的,那個曾將OpenAI三顆「焊在」名字中的大佬,如今改成了三個。
他表示,這已經不是什么秘密了——
GPT-4.5將預訓練推向極致之后,OpenAI加倍投入了推理范式,主打o系列+RL。
不同的是,谷歌和Anthropic仍在Scaling預訓練,并增強了強化學習。
![]()
OpenAI主動放棄了這一范式,為勁敵讓出了一條速通道。
![]()
![]()
![]()
奧特曼:這事兒瞞不住了!
Gemini 3發布后,谷歌和OpenAI攻守之勢易形——
Gemini 3來勢洶洶,而OpenAI這次終于坐不住了!
![]()
據泄露的內部備忘錄,奧特曼坦言:「近期, 從各方面來看,谷歌在大語言模型表現出色」,特別是預訓練。
這番表態標志OpenAI的重大轉變——它終于承認,一個重新崛起的競爭對手與逐漸降溫的企業需求,已徹底打破了其「天下無敵」的光環。
所謂預訓練,是訓練生成式AI模型(無論是文本還是圖像)過程中的第一階段。在這一階段,研究人員會用網頁等大量數據「投喂」模型,讓它掌握數據之間的各種關聯。
![]()
大語言模型(LLM)開發與訓練流程概述:預訓練和后訓練是關鍵
在預訓練領域,谷歌取得了新突破,給Gemini 3帶來了空前的推理深度。
![]()
這讓不少AI研究者頗感意外——
畢竟,OpenAI去年曾屢屢碰壁,而谷歌自己過去也曾陷入瓶頸。
![]()
正因如此,在一段時間內,OpenAI選擇將更多精力轉向另一種新型AI架構——「推理模型」,這種模型雖然計算量更大,但有望輸出更優質的回答。
在推出GPT-5之前,OpenAI團隊曾嘗試對預訓練階段做出一系列調整,這些方法在小模型上有效,一旦模型變大就失效了。
GPT-5發布第二天,西班牙與波蘭Talan公司AI應用負責人Javier Alba de Alba表示:
(GPT-5)整體觀感頗為失望:
這是個優秀的模型——響應迅捷、價格親民、能力全面,但遠非人們基于OpenAI過往發布會所預期的代際飛躍。
![]()
GPT-5帶來了不少提升——
編程能力顯著提升、推理能力進階、幻覺現象減少、醫療領域表現優化,甚至免費用戶也享有更長的默認使用時長。此外命名體系全面簡化:GPT-4o/4.1/turbo/mini等繁雜名稱悉數消失,統一更名為GPT-5。
不過,Javier Alba de Alba提醒:「千萬不要被名稱迷惑:GPT-5并非新一代產品。」他解釋道:
技術層面而言,它更像是GPT-4o的功能增強版,即便命名為GPT-4.2也毫不違和。
OpenAI此舉雖完成了必要的名稱統一,但整場發布會未能達到預期,讓技術社區頗感失落。
GPT-5發布后,Epoch AI也發現了其中的異常:
相比前代GPT-4.5,GPT-5很可能消耗了更少的訓練算力。
雖然具體數值尚未公開,但GPT-4.5使用的訓練算力極有可能超過GPT-5。
![]()
預訓練并未消亡,它依然是勝負關鍵。
![]()
在內部會議中,奧特曼鼓舞士氣,稱在未來幾個月,OpenAI將重新奪回優勢。其中關鍵舉措之一,就是打造一款代號為「Shallotpeat」的新一代大語言模型。
![]()
據知情人士透露,該模型的設計目標之一,就是專門修復OpenAI在預訓練過程中遇到的種種「疑難雜癥」。
OpenAI:內部的風向變了
GPT-5發布的實質是什么?
對現有ChatGPT用戶而言,GPT-5是個好消息,但這并未開啟新時代。
它只是進化歷程中的一小步,而非革命性飛躍。
既然更多算力通常意味著更強性能,為何OpenAI會反其道而行?這對未來模型發展意味著什么?
在與a16z合伙人Martin Casado對話中,OpenAI平臺工程負責人Sherwin Wu,深度拆解了OpenAI當前平臺架構、定價邏輯與未來方向。
![]()
在這次訪談中,他們深入探討了為何開發者往往會長期依賴某個「值得信賴」的模型系列,信任感是如何建立的,以及為什么行業已經逐步放棄了「一個模型通吃所有任務」的幻想。
Sherwin還講解了從提示詞工程到上下文設計的演變過程,以及企業如何借助OpenAI的微調(fine-tuning)和RFT API,利用自有數據定制模型行為。
共識已變
幾年前,OpenAI內部認為:未來會有一個「統治一切」的超級模型。但現在行業共識已經轉變為「模型的專業化和多樣化」。
雖然會有強大的通用模型,但也需要針對特定任務(如編程Codex、視頻Sora)的專用模型。
![]()
文本、圖像、視頻背后的技術堆棧各不同。目前,在后臺。這些模型往往是分開優化的獨立系統,很難簡單地「一鍋燉」。
順便提一句,正是DALL-E 2的出現讓Sherwin決定加入OpenAI,因為那是他第一次感受到AI的魔力。
![]()
而微調(Fine-tuning)也悄然進化——
早期的微調,主要用于調整「語氣」或「指令遵循」。 現在的重頭戲,是強化學習微調(Reinforcement Fine-Tuning) 。
這允許企業利用其龐大的專有數據(Data Treasure Troves),將較小的模型在特定領域訓練至SOTA水平。這是解鎖企業數據的關鍵。
也就是說,企業擁有大量內部數據,但與ChatGPT「毫無關系」,對企業專屬AI而言卻是黃金。
他們多次提到AI代碼編輯器Cursor作為建立在 OpenAI API 之上的成功產品案例,證明了:
即使OpenAI自己有競品,開發者依然可以建立偉大的垂直應用。
Agent開發模式
從第一天起,奧特曼和Greg Brockman就確立了「App+ API」的雙軌戰略。
這樣做是為了盡可能廣泛地分發AGI的利益——
如果只做 API,你就無法觸達普通消費者;如果只做應用,你就無法賦能各行各業的開發者。
在這次對話中,他們重點談論了智能體開發工具「Agent Builder」。
![]()
Sherwin認為,智能體(Agent)并非一種全新的模態,而是AI的一種新使用方式。
本質上,智能體是一個能夠代表用戶、在較長的時間跨度(Long Time Horizons)內執行一系列操作并完成任務的AI系統。
OpenAI曾推出了可視化的「Agent Builder」(節點式構建),但發現對于開發者而言,這種方式可能過于受限。
訪談中,Sherwin和Martin將智能體清晰地劃分為兩類,這解釋了為什么目前市面上的Agent產品形態各異——
探索型/非定向工作 (Undirected/Exploratory Work)
流程型/SOP導向工作 (Procedural/SOP-oriented Work)
![]()
在對話中,第二類Agent開發可能更像傳統的軟件工程或游戲開發中的NPC(非玩家角色)邏輯。
與其讓模型完全自由發揮,不如通過代碼給予它明確的邏輯框架和標準操作程序(SOP),特別是在受監管的行業(如客戶支持、金融)。
也就是說,邏輯必須寫死在代碼里,而不是提示詞里。
![]()
這就是Agent Builder想要解決的問題:為那些必須控制智能體行為的行業和場景,提供一個簡單、清晰、可驗證的解決方案。
One More Thing
2025年度壓軸大戲,谷歌Gemini 3 Pro無疑打了一場勝仗,但OpenAI不會袖手旁觀。
內部已確認,圣誕節前夕,一連串發布連番轟炸。
![]()
據傳,一系列新模型,在路上了——
Image Gen v2
IMO和IOI金牌多模態模型
GPT-5.2 Codex
![]()
12月,AI圈一定非常熱鬧。
![]()
參考資料:
https://www.newsbreak.com/winbuzzer-com-302470011/4359574113974-leaked-memo-sam-altman-sees-rough-vibes-and-economic-headwinds-at-openai
https://the-decoder.com/as-google-pulls-ahead-openais-comeback-plan-is-codenamed-shallotpeat/
https://x.com/jasondeanlee/status/1994616079751286855?s=20
https://x.com/koltregaskes/status/1994836507694436628?s=20
秒追ASI
?點贊、轉發、在看一鍵三連?
點亮星標,鎖定新智元極速推送!





京公網安備 11011402013531號