![]()
新智元報道
編輯:KingHZ
AGI并非明天到,但也不是海市蜃樓。Karpathy直言:通往 AGI 的路已出現(xiàn),卻布滿硬骨頭——強化學(xué)習(xí)信號稀薄、模型崩塌風(fēng)險、環(huán)境與評估匱乏、系統(tǒng)集成與安全難題等。他給出一個「樂觀而不煽情」的時間表:10年。
昨天,OpenAI的創(chuàng)始元老、特斯拉前深度學(xué)習(xí)負(fù)責(zé)人Karpathy,公開表示:AGI仍有十年之遙。
Karpathy批評業(yè)界高估了當(dāng)前的AI的智能水平,但同時他認(rèn)為通向AGI之路已經(jīng)出現(xiàn),但這條路并非坦途。
Karpathy解釋了實現(xiàn)AGI的眾多難題:
為什么強化學(xué)習(xí)很糟糕(不過其他方法更糟)、
為什么模型崩塌會阻止大語言模型像人類那樣學(xué)習(xí)、
為什么AGI只會融入過去約2.5個世紀(jì)以來每年約2%的GDP增長趨勢、
為什么自動駕駛花了這么久才被攻克。
這些問題很難,所以大概實現(xiàn)AGI還需要10年。水。
馬斯克點名Karpathy迎戰(zhàn)Grok 5
馬斯克認(rèn)為,Karpathy的確有些觀點不錯。
但隨后,馬斯克話鋒一轉(zhuǎn),點名卡帕西和Grok 5來場編程大戰(zhàn),類似于國際象棋大師卡斯帕羅夫與深藍(lán)的對決時刻。
![]()
不過,Karpathy拒絕了馬斯克的挑戰(zhàn),并表示
我寧愿與Grok 5合作,也不愿與它競爭
![]()
考慮到馬斯克認(rèn)為目前Grok 5實現(xiàn)AGI的概率只有10%,但要Grok 5在編程上挑戰(zhàn)Karpathy。
或許,AI初創(chuàng)Yuchen Jin的推文很好解釋馬斯克為何如此做:
馬斯克在用他的「現(xiàn)實扭曲立場」,在推動xAI團隊實現(xiàn)「不可能的目標(biāo)」。
![]()
智能體工程師Dan Mac表示,Karpathy在斷言,現(xiàn)在正處于LLM炒作的「幻滅低谷期」。
![]()
這更像一種現(xiàn)實主義:與其擺擂臺,不如把工具打磨好。
看起來,Karpathy有力支持了LLM懷疑論者——那些人可能正在慶祝「AI無用論」的勝利。
這令人沮喪。尤其是當(dāng)你關(guān)心AI,并看到了它真正緩解人類苦難的潛力時。
但Dan Mac指出,故事還未結(jié)束,接下來要發(fā)生的都是好消息:啟蒙的斜坡——生產(chǎn)力緩慢但平穩(wěn)地上升,到達(dá)最終瓶頸之前還很長。
![]()
其實,Karpathy把整期播客又看了一遍。
他先自我檢討:有時「口比心快」,所以有些解釋我講砸了;有時也會緊張,擔(dān)心自己跑題太遠(yuǎn),或者在次要細(xì)節(jié)里拐得太深。
![]()
下面,是Karpathy的補充觀點和自我辯白。
Karpathy的辯白
整體看,10年應(yīng)當(dāng)是對AGI很樂觀的時間表,只是與當(dāng)下的炒作相比,它看起來沒那么「提氣」。
![]()
10年很短
關(guān)于通用人工智能(AGI)時間線,這是目前討論里最受關(guān)注的部分。
「智能的十年」(the decade of agents)對應(yīng)的是他之前關(guān)于OpenAI Operator智能體的推文:
![]()
![]()
![]()
2025年,的確是智能體的元年,但未來10年都是「智能體時代」。
大體上,Karpathy認(rèn)為他比舊金山「AGI時間線」悲觀大約 5–10 倍;但相對于近期興起的否定派和懷疑論者,又仍然偏樂觀。
這里并不矛盾:
1)這幾年大語言模型(LLM)確實取得了巨大進展;
2)同時距離「在世界上任意崗位都更想雇它而不是雇人」的那個實體,還有大量工作要做:苦活累活、系統(tǒng)集成、連接物理世界的感知與執(zhí)行、社會層面的協(xié)同,安全與防護(越獄、投毒等),以及進一步的研究。
整體看,10年本應(yīng)是非常樂觀的AGI時間線;只是和當(dāng)下的炒作氛圍一對比,才顯得「不夠樂觀」。
人工幽靈智能:AGI=Artifical Ghost Intelligence?
Karpathy懷疑是否存在「一條極其簡單的算法,讓它丟進世界就能從零學(xué)到一切」。
若有人真造出這種東西,他就錯了——那將是AI史上最驚人的突破。
在他心里,動物并不是這種例子——動物由進化「預(yù)裝」了大量智能,后天學(xué)習(xí)總體上很有限。比如,斑馬一出生就能跑。
![]()
LLM是一種不同的形式的智能
從工程角度說,我們不可能重做一遍進化。
LLM是另一條「預(yù)裝智能」的路:不是靠進化,而是靠在互聯(lián)網(wǎng)上「預(yù)測下一個Token」把大量知識塞進網(wǎng)絡(luò)。
這會誕生一種不同于動物的智能形態(tài),更像「幽靈/靈體」。
當(dāng)然,我們完全可以、也應(yīng)該逐步讓它們更「像動物」,很多前沿工作本質(zhì)上就在做這件事。
強化學(xué)習(xí)不是全部答案
在博客中,Karpathy說,現(xiàn)在強化學(xué)習(xí)就像「通過吸管吸取監(jiān)督」 ——
模型嘗試幾百種方法,只得到一個「對錯」信號,然后把這個信號廣播給成功路徑的每一步,包括那些純屬運氣的錯誤步驟。
![]()
你瞎猜猜中了答案,然后把猜的過程也當(dāng)成「正確方法」強化,這能學(xué)好嗎?
他還提到一個更荒誕的例子:有個數(shù)學(xué)模型突然開始得滿分,看起來「解決了數(shù)學(xué)」。但仔細(xì)檢查發(fā)現(xiàn),模型輸出的是「da da da da da」這樣的完全胡言亂語,卻騙過了LLM評判者。
這就是用LLM做評判的問題——它們會被對抗樣本攻擊。
之前,Karpathy多次評議過RL,這是他一貫的觀點:
RL會繼續(xù)帶來階段性成果,但不是全部答案。
首先,RL的signal/flop(信號/算力)比很差。它還很嘈雜;反過來,一些極有洞見的 Token 可能「被懲罰」(因為后面步驟失誤)。
Karpathy認(rèn)為會出現(xiàn)替代性的學(xué)習(xí)范式。
他長期看好「智能體式交互」(agentic interaction),但看空「傳統(tǒng)RL」。
文本數(shù)據(jù)和監(jiān)督微調(diào)的對話對,不會消失,但強化學(xué)習(xí)時代,環(huán)境才是主角。
與前兩者不同,環(huán)境讓 LLM 有機會真正進行互動——采取行動、觀察結(jié)果等等。這意味著你可以期待比統(tǒng)計專家模仿做得更好。它們既可用于模型訓(xùn)練,也可用于評估。
但和以前一樣,現(xiàn)在的核心問題是需要大量多樣化且高質(zhì)量的環(huán)境集,作為 LLM 的練習(xí)對象。
![]()
近期有不少論文在找對了方向,比如他稱之為「系統(tǒng)提示詞學(xué)習(xí)」(system prompt learning)的方法:
系統(tǒng)提示學(xué)習(xí)雖然設(shè)置類似強化學(xué)習(xí),但學(xué)習(xí)算法不同(編輯操作 vs 梯度下降)。
通過這種范式,LLM 系統(tǒng)提示的大部分內(nèi)容都可以自動生成,就像 LLM 在為自己撰寫解決問題的指南手冊。若成功,這將形成全新且強大的學(xué)習(xí)范式。當(dāng)然還有許多細(xì)節(jié)待探索。
不過,arXiv上的點子與一家前沿實驗室真正能大規(guī)模、普適地落地之間,仍有不小的鴻溝。
他總體樂觀,覺得這條線很快會見到實質(zhì)進展。
例如,ChatGPT 的記憶功能等,已經(jīng)是新學(xué)習(xí)范式的「原始部署樣本」。
認(rèn)知內(nèi)核與「反事實」練習(xí)
長期依賴,Karpathy主張把LLM的「記憶」剝離或至少「加阻尼」,逼它們少靠死記硬背、多做抽象與遷移。
「認(rèn)知核心」作為 LLM 個人計算的核心,默認(rèn)常駐于每臺電腦中。它的特性正逐漸明晰:
支持原生多模態(tài)的文本/視覺/音頻輸入與輸出。
采用套娃式架構(gòu),可在測試時靈活調(diào)節(jié)能力大小。
推理能力,帶調(diào)節(jié)功能(系統(tǒng)2) 積極使用工具。
設(shè)備端微調(diào)LoRA插槽,用于實時訓(xùn)練、個性化和定制化。
人類記不住那么多細(xì)節(jié),這反而像一種「正則化」——限制了記憶,泛化更好。
對應(yīng)地,他也寫過
模型尺寸的趨勢是「先大后小」:先堆到足夠大以承載能力,再在架構(gòu)、訓(xùn)練范式和數(shù)據(jù)上做減法與蒸餾,向「更小、更專注的認(rèn)知內(nèi)核」收斂。
再做個「反事實」練習(xí):如果把33年的算法進步,帶回1989年的LeCun實驗室,能把當(dāng)年的結(jié)果提升到什么程度?
這能幫我們拆因:究竟是算法、數(shù)據(jù)還是算力在「卡脖子」。
在任何時代,正確地定位約束項,才談得上有效地投資與推進。
關(guān)于LLM智能體(Agents)
行業(yè)里很多工具假定「全自治團隊并行協(xié)作、自動寫萬行代碼、人類只當(dāng)監(jiān)工」。
Karpathy更偏向「協(xié)作式中間態(tài)」:
以人腦能裝得下的「塊」為單位迭代;
讓模型解釋自己在寫什么、為什么這么寫;
主動引用 API/標(biāo)準(zhǔn)文檔自證正確;
不確定就問,少做拍腦袋的假設(shè);
讓人類在循環(huán)中學(xué)習(xí)與增能。
否則我們會迎來「代碼沼澤」和安全面擴大。
與范圍編程相比, AI輔助編程重點在于嚴(yán)格約束這位熱情過度的「天才實習(xí)生——AI擁有軟件百科全書般的知識,卻總是滿嘴跑火車,勇氣過剩但對好代碼幾乎毫無品味。
關(guān)鍵在于保持緩慢、防御性、謹(jǐn)慎、多疑的態(tài)度,始終抓住嵌入式學(xué)習(xí)機會而非委派任務(wù)。目前許多環(huán)節(jié)仍顯笨拙且手動操作,現(xiàn)有工具尚未明確支持或優(yōu)化這些流程。
我們?nèi)蕴幱谠缙陔A段,AI編程助手的用戶體驗還有巨大改進空間
他希望工具的雄心與當(dāng)下模型的真實能力匹配。
工作自動化與物理學(xué)教育
放眼各行各業(yè),哪些崗位更易被自動化,取決于:輸入輸出是否標(biāo)準(zhǔn)化、錯誤代價是否可控、是否有客觀標(biāo)注與可驗證性、以及是否存在高頻重復(fù)決策回路。
以放射科為例,現(xiàn)實數(shù)據(jù)往往顯示「人機互補優(yōu)先于完全替代」——把模型當(dāng)作第二讀片者、質(zhì)控器或分診器,反而提升了整體質(zhì)量與吞吐。
他主張在基礎(chǔ)教育里更早、更系統(tǒng)地教物理,并不是為了培養(yǎng)物理學(xué)家,而是因為物理最像「給大腦刷底層系統(tǒng)」的學(xué)科:建模、量綱、守恒、近似與推理,把可計算的世界觀種進去。
「物理學(xué)家是智識的胚胎干細(xì)胞」——這是Karpathy想認(rèn)真展開的一篇長文的主題。
參考資料:
https://x.com/cb_doge/status/1979677376138330461
https://x.com/daniel_mac8/status/1979707653573255668
https://x.com/karpathy/status/1979644538185752935
https://x.com/_philschmid/status/1979486732044185942
https://x.com/daniel_mac8/status/1979721662107885725
https://x.com/karpathy/status/1882544526033924438
https://x.com/karpathy/status/1921368644069765486
![]()





京公網(wǎng)安備 11011402013531號