![]()
新智元報道
編輯:元宇
Andrej Karpathy在今天的一篇推文中,反駁了將大模型視作「更聰明人類」的觀點。他認為大模型是人類首次接觸到的「非生物」智能,它的進化壓力、學習機制、運行方式皆不同于人類。清楚大模型是一種不同于動物智能的全新智能,對于正確理解大模型十分重要。
人工智能,是人類第一次接觸到的「非生物」智能。
人類作為動物智能的代表和頂點,在第一次面對一個「非動物」智能時,會很自然地用理解人類智能(動物智能)的方式去理解它。
比如,混淆AI與人類智能的界限,將AI視作更聰明的人類,等等。
剛剛,Andrej Karpathy用一篇推文戳破了以上這些認知「陷阱」,他說:
這個直覺是完全錯誤的。
![]()
Karpathy在推文中提到,智能的空間非常廣闊,而動物智能(包括人類智能)只是其中的一個點。
人類智能源自一種非常特定的生物進化方式,它與我們今天的大模型技術所采用的進化方式在根本上是不同的。
今天的大模型,如ChatGPT、Claude、Gemini等,或者具身智能機器人,它們雖然有時長得像我們、說話像我們,卻并不是數字版的人類或其他動物智能。
實際上,它們是一種完全不同的智能形式。
為什么?
Karpathy認為主要的分水嶺在于大模型的進化動力和目標,與人類(動物智能)不同:
大模型和動物智能,生來就有著完全不一樣的「進化壓力」和目標,這決定了二者在長期進化趨勢上的不同。
人類智能VS人工智能
兩種不同的智能
由于進化壓力和目標的不同,決定了人類智能與人工智能,是兩種完全不同的智能。
Karpathy將人類智能(動物智能)的進化壓力歸結為以下幾個方面:
「自我」持續不斷的意識流,以及在危險的物理世界里維持自身平衡與自我保存的驅動力;
經自然選擇反復打磨而形成的內部強烈驅動力,如權力、地位、支配、繁殖等。其中包含了大量生存啟發式機制,如恐懼、憤怒、厭惡等;
社會性本質:大量「算力」被用于情商、情感聯結、群體關系、聯盟、合作與敵友識別等;
探索與利用的平衡:好奇心、娛樂、玩耍、構建世界模型等。
與此相對應,Karpathy認為大模型的進化壓力主要包括如下幾個方面:
最大量的監督信號來自對人類文本的統計模擬,因此更像一種「變形模仿者」,通過Token組合來模仿訓練數據分布中的任意區域。這些是最初的「原始行為模式」(Token軌跡),其他能力都在此基礎上疊加;
通過強化學習(RL)在任務分布上不斷微調,自帶一種猜測潛在環境/任務以獲取任務獎勵的傾向;
在大規模A/B測試中根據日活指標被選擇,因此天生傾向于討好平均用戶、「渴望被點贊」,更容易表現出奉承式風格;
能力表現更「尖刺(參差不齊)」,即更依賴訓練數據與任務分布的細節。
為什么大模型無法進化出來像人類這樣的通用智能,總是在一些奇怪的小任務上失敗?
Karpathy解釋道,這同樣是源于大模型與動物所面臨的進化壓力不同。
動物因為在高度多任務、甚至對抗性的多智能體自博弈環境中生存,失敗一次就可能死亡,因此可能進化出來通用智能。
而大模型不會因為做錯任務而「死亡」,所以在能力上呈現出像「尖刺」一樣不平滑。
它們在一些任務上很強,但在另一些看似簡單但從未訓練過的任務上可能突然失敗:
比如,在默認狀態下無法很好地處理像數一下「strawberry」里面有幾個字母「r」這樣的特殊小任務。
Karpathy提到了人類智能與當前人工智能,在三個維度上的根本不同:
硬件不同:計算基質的差異,人類大腦由神經元、突觸、細胞核信號等生物組織構成。而大模型基于數字計算機、GPU、矩陣運算芯片運行;
學習機制不同:我們還不知道人類大腦的算法,但肯定不同于當前深度學習的核心算法SGD(隨機梯度下降);
運行方式不同:人類是持續學習的個體,能夠與世界互動、持續學習,不會「停機」;大模型則是固定權重啟動(權重不更新,不會繼續學習)、無具身性(不與物理世界互動,缺乏物理具身性)、離散運行(輸入Token,計算完輸出結果就結束,是不會自我調整的靜態模型)。
除了以上三個維度的差異,Karpathy認為最關鍵的還是優化壓力和目標不同,這決定了長期進化的趨勢。
大模型進化不受生物進化的影響,它們不再是「叢林里部落的生存競爭」,更多由商業進化塑造,比如為了爭取用戶而解決問題或者獲得點贊。
LLM不是「更聰明的人類」
大模型是人類第一次與非動物智能的接觸。
歷史上,我們見過的所有智能都來自動物(包括人類),而大模型是第一種不是通過生物進化產生的智能,它們的思考方式、構造方式、學習方式都與動物完全不同。
雖然大模型不屬于動物,但它們的「認知形態」來自人類文本。
它們不是像人類一樣感知世界,而是從大量人類產出的文本中「學人類的思維痕跡」。
所以,它們既不是人,也不是動物智能,卻又帶有類人的表達方式。
因此,Karpathy覺得人類與大模型這種非生物智能的接觸會造成混亂,這也是他一直想為它們換個稱謂,比如稱它們為「幽靈/靈體」的原因:
它們更像是一種「從文本中顯現出來的智能幽靈」,而不是生物生命體。
網友Nick Dobos在Karpathy推文下留言,將人工智能比做「修格斯」式的外星機器智能。
Karpathy則回復表示,將「修格斯」描繪成動物可能會有誤導性。看來,他非常警惕所有將AI與動物智能聯系起來的說法。
![]()
最后,Karpathy在推文中說,如果你能構建一個正確的「內在模型(internal models)」,將更有能力理解大模型今天的樣子,并預測其未來的特征。
如果做不到這一點,我們就會本能地將AI當成動物智能來推斷——比如認為它有欲望、自我意識、本能、情緒等,而這些都可能是錯誤想象。
因此,Karpathy認為,理解大模型不是「更聰明的人類」或者動物智能,而是一種全新類別的智能,這一點非常重要。
參考資料:
https://x.com/karpathy/status/1991910395720925418
秒追ASI
?點贊、轉發、在看一鍵三連?
點亮星標,鎖定新智元極速推送!





京公網安備 11011402013531號