在“AGI 近在咫尺”的熱潮中,這位 AI 領域的核心人物選擇踩下了剎車。Andrej Karpathy,曾任特斯拉 AI 總監、OpenAI 創始成員的硅谷頂尖技術專家,近日在 Dwarkesh Patel 的播客中發表了一場長達兩個多小時的深度對話,并在隨后發布的長文中系統闡述了他對人工智能發展的思考。
從 AGI 時間表、強化學習的局限、智能體的真實能力,到教育與人類未來的圖景,Karpathy 系統地提出了一個核心觀點:“AGI 仍需十年。但這是一個樂觀、但需要冷靜面對的十年。”
他以自動駕駛的十年征途、代碼生成的缺陷、以及“無聲崩潰”的模型現象,為當前整個行業對未來的狂熱預期校準了表達方式。
![]()
(youtube @ Dwarkesh Patel)
近年來,隨著大型語言模型(LLM)能力的飛躍,從“AI 元年”到“AGI 元年”的口號不絕于耳,行業內的普遍預期似乎已將 AGI 的實現壓縮到了短短幾年之內。Karpathy 對此持有保留態度。他認為,當前行業中彌漫著過度預測的傾向,而這種過于激進的期待忽視了現實層面的復雜性和偶然性。他強調,更加準確的表述應該是我們正步入“智能體的十年(Decade of Agents)”。
從業二十年的經驗告訴 Karpathy,當前被寄予厚望,認為可以替代實習生、甚至是正式員工工作的的智能體,目前來說“根本還跑不通”。他指出了當前智能體存在的根本性認知缺陷(Cognitive Deficits)——缺乏真正的持續學習能力。也就是說,你無法真正教會它們某件事,它們的多模態能力仍處初級階段。在 Karpathy 看來,這些問題無疑是棘手的和困難的,但也是可以克服的。但解決這些問題,至少需要一個十年的尺度。
但這并不代表 Karpathy 正在唱衰 AGI 的未來,相反,他想強調人類確實在過去幾年里取得了 LLM 帶來的驚人進展,但距離能在任意崗位上取代人類的通用智能,仍有漫長的系統集成與現實約束需要克服,包括對物理世界的感知、執行、社會協調、安全與防護等層面。
Karpathy 的“十年之論”很大程度上源于他領導特斯拉自動駕駛五年的深刻教訓。他指出,自動駕駛領域存在一個巨大的演示(Demo)到產品(Product)的鴻溝。盡管在 1986 年就存在過卡車自動駕駛的演示,Karpathy 本人在 2014 年體驗 Waymo 時,也獲得了近乎完美的駕駛體驗,但縱觀過去十年,自動駕駛行業仍步履蹣跚。
Karpathy 使用了三個“九”來形容這一過程:實現 90% 的可靠性(第一個九)相對容易,但從 90% 到 99%(第二個九),再到 99.9%(第三個九),“每增加一個九,都需要投入與之前同樣多的工作量”。在特斯拉的五年里,他們可能只推進了兩到三個“九”。相同的增長曲線也存在于 AI 智能體的發展中,尤其是涉及高風險的軟件工程領域。一個表現近乎完美的 AI 程序員,如果每七年(相當于自動駕駛的平均事故間隔)犯一個重大錯誤,就可能泄露數億人的社保號碼,其后果是災難性的。
目前,行業對 AGI 路徑的最大賭注之一是“AI 自動化 AI 研究”,即 AI 智能體通過編寫代碼實現遞歸式自我改進。然而,Karpathy 以自己構建 nanochat(一個 ChatGPT 的極簡復刻版)的親身經歷,對此提出了反對意見。他發現,在編寫這種智力密集型的、非樣板化的新代碼時,現有的 AI 編程助手幾乎沒有幫助。他將當前的代碼 AI 斥為殘次品(Slop)。
具體而言,Karpathy 認為 AI 的認知缺陷表現在三個層面:
第一是無法理解“定制化”:當 Karpathy 沒有使用 PyTorch 標準的 DDP(分布式數據并行)容器,而是編寫了自己的同步程序時,AI 助手完全無法理解,并非常焦慮地試圖讓他用回標準庫;
第二是“臃腫與過時”:Karpathy 認為,AI 助手傾向于過度防御,編寫大量“try-catch”語句,試圖構建生產級代碼庫,導致代碼臃腫,并且頻繁使用“已棄用的 API”;
第三是“高昂的溝通成本”:他發現用自然語言向 AI 解釋自己想要什么(Vibe Coding)效率極低,遠不如自己定位到代碼,輸入前幾個字母,讓自動補全來完成。
一言以蔽之,Karpathy 認為整個行業都高估了 AI 的自主性。他更認同于自動滑塊(Autonomy Slider)的比喻:AI 目前更像是一個更好的編譯器或語法高亮(highlight),而不是一個自主的程序員。人類正在緩慢地提升自己的抽象層次,但遠未到被取代的時刻。
同時,Karpathy 多次批評強化學習(RL),認為它是用吸管吸監督信號的低效方式。在他看來,RL 的信號稀薄且嘈雜存在著錯誤答案可能被獎勵(誤打誤撞),和正確推理可能被懲罰(后續出錯)的情況。他看好的是新的學習范式,比如系統提示學習(System prompt Learning)與基于智能體交互的學習(Agentic Interaction)。
這些思路試圖讓模型通過持續交互和任務驅動形成學習閉環,而不是靠脆弱的獎勵函數。
他認為,ChatGPT 的記憶系統就是這種新型學習范式的早期原型。
除此之外,Karpathy 還提出了 Cognitive Core(認知核心)的概念,即通過剝離模型的記憶能力,讓它更好地泛化。他指出,人類記憶有限,反而形成了強大的抽象與推理能力;
而 LLM 記憶過多,傾向于復述,而非理解。因此,有意限制模型記憶,可能是一種“正則化”。他還提出,一個反直覺的趨勢是:“模型必須先變得更大,然后才能變得更小”——先獲得足夠的多樣性,再提煉出核心結構。
對于業界最關心的AGI 是否會帶來經濟爆炸問題,Karpathy 給出了最出人意料的答案:不會。
他預測,AGI 的到來,將平滑地“融入”過去數百年 2% 的 GDP 年增長曲線中。Karpathy 認為,AI 并非一種全新的、能打破規律的技術,它從根本上是計算的延伸。縱觀歷史,無論是計算機的發明、互聯網的普及,還是 iPhone 的誕生,這些“革命性”技術都沒有在 GDP 曲線上造成一個突兀的“尖峰”。它們的影響是巨大的,但擴散是緩慢的、漸進的,最終都被平滑地吸收到 2% 的增長中。
“我們已經處于一場智能爆炸中數十年了,”Karpathy 說,“只是我們在以慢動作的方式經歷它”。從工業革命開始,自動化和遞歸式自我改進就一直在發生。編譯器是早期的軟件自動化,Google 搜索、IDE,乃至今日的 AI,都只是這條平滑曲線上的最新一步。AGI 不會改變這條曲線的斜率,它只是“使我們能繼續保持在 2% 增長軌跡上”的原因。
![]()
(X @Andrej Karpathy)
在為行業的狂熱降溫后,Karpathy 也分享了自己的下一步——創辦教育項目“Eureka”。他坦言,他最恐懼的未來不是 AGI 失控,而是《機器人總動員》(WALL-E)或《蠢蛋進化論》(Idiocracy)中的景象:人類被 AI 剝奪了權力,淪為無用的旁觀者。
他將自己的項目比作“星際艦隊學院”(Starfleet Academy),一個旨在培養人類精英、駕馭前沿技術的機構。他認為,教育是一個構建知識坡道的、高難度的技術問題。Karpathy 描繪了一個“AGI 之后”的教育圖景。屆時,教育的目的不再是有用(為了賺錢),而是有趣(for fun)。他將其比作去健身房:現代人不需要強大的體力來搬運重物,但人們依然健身,因為它“有趣、健康,而且‘六塊腹肌’看起來很性感”。
他相信,當 AI 消除了學習的“摩擦力”(那種因為太難或太簡單而“碰壁”的痛苦感),學習本身將成為一種樂趣和自我實現。在 Karpathy 的設想中,人類的未來不是被機器取代,而是借助技術,實現“超人化”的認知繁榮。
參考資料:
1.https://www.dwarkesh.com/p/andrej-karpathy
2.https://x.com/karpathy/status/1979644538185752935
運營/排版:何晨龍





京公網安備 11011402013531號