![]()
新智元報道
編輯:桃子 好困
LeCun不忍了,三周后從meta「提桶跑路」,臨走前狠扇了硅谷所有人一巴掌:你們信奉的大模型全是泡沫,根本通往不了AGI!
大模型是一條死路,無法通往AGI!
在今天的最新一期深度訪談中,LeCun直言不諱指出:
所謂的ASI路線——不斷訓練LLM,用更多合成數據喂模型,雇上幾千人在后訓練階段「管教」系統,再折騰出一些RL的新技巧。
在我看來,完全是胡說八道!
這條路根本行不通,而且永遠都不可能成功。
![]()
任職12年,即將暴走meta的65歲圖靈獎得主,在公眾場合的觀點愈加偏激了。
這場近2小時的對談中,LeCun的觀點一針見血——
硅谷對不斷「堆大」LLM的癡迷是一條死路;
搞AI最難的問題在于,它依舊是「阿貓阿狗」的智能,而非類人的水平。
如今,他正把一生的學術聲譽押注在一條截然不同的AI路線之上,即「世界模型」。
訪談中,LeCun還分享了創業公司AMI(Advanced Machine Intelligence)正在構建的「世界模型」——
在抽象表征空間中進行預測,而不是簡單地像素級輸出。
幾天前,LeCun在與谷歌DeepMind大佬Adam Brown一場激辯中,同樣提出他的經典論點:
LLM沒那么聰明,畢竟一只貓或一個孩子僅用少得多的數據就能理解世界。
Token預測全是泡沫,物理世界才是真相。
有網友辣評道,「meta在AI領域失敗,LeCun是罪魁禍首」。
還有人表示,「LeCun很聰明,在meta保持沉默現在開始發聲了」。
![]()
65歲創業,再造一個FAIR
播客開場,主持人問道,「從meta這樣大公司跳出來,從0起步,是什么感覺」?
LeCun坦言,雖然他此前也參與過創業,但這次的AMI意義非凡。這次的獨特之處在于一種新現象,即投資者也愿意為其買單。
這要是放在以往,是不可能的。
歷史上,像貝爾、IBM、施樂PARC這樣的大實驗室,都一同壟斷了企業的財力。
如今,行業風向正在轉變。FAIR通過開源推動了生態的發展,但近年來越來越多實驗室選擇閉源,OpenAI、谷歌,甚至meta也不例外。
在LeCun看來,這種閉源趨勢,不利于真正突破性的研究。
因此,他決定在meta外部創辦AMI,專注于「世界模型」,并計劃延續開放研究的傳統。
除非你把論文發表出來,否則就不能稱之為真正的研究。要不然,你很容易陷入一種自欺欺人的狀態。
![]()
看得出,LeCun這番言論一定程度上,暗示28歲上司Alexandr Wang的做法——
此前曾爆出,FAIR實驗室想要發論文,必須經過MSL批準后才可以。
![]()
LeCun再次強調,「如果真的想要突破,需要讓你的員工發表論文。沒有別的辦法。這是目前很多行業正在遺忘的事情」。
![]()
下一步,AMI的目標不僅是研究,還會打造實際的產品,比如與世界模型、規劃有關的,并成為智能系統的核心供應商。
接下來的話題,又回到了LeCun老生常談的事情。
LeCun放話:LLM走不通
他明確表示,當前的LLM或基于LLM的AI智能體,處理語言尚可,但在可靠性、數據效率、多模態處理上遠遠不足。
我已經說了快十年了,世界模型才是解決這一問題的「正確方法」。
![]()
「世界模型」能夠預測一個動作或一系列動作的后果,然后系統通過優化得出一系列動作,即找出哪一系列動作能最好地完成設定的任務,這就是「規劃」。
因此,LeCun認為,智能的一個重要部分是能夠預測行動的后果,然后將其用于規劃。
「世界模型」是設計用來處理,高維、連續和嘈雜的模態數據,LLM完全不行。
![]()
真正有效的方法是,學習一個抽象的表示空間,消除關于輸入的不可預測的細節,并在表示空間中進行預測。
這就是,JEPA(聯合嵌入預測架構)的想法。
![]()
論文地址:https://arxiv.org/pdf/2509.14252
將近有20年的時間,LeCun一直確信,構建智能系統的正確途徑是通過某種形式的「無監督學習」。
他回顧了自己的研究歷程——
早在2000年代初中期,便開始探索無監督學習,并嘗試通過自編碼器(Autoencoders)來學習表示,但發現表示包含關于輸入的所有信息是個錯誤。
后來,他意識到需要「信息瓶頸」(Information Bottleneck),限制表示的信息量。
2015年,ResNet(殘差網絡)出世,徹底解決了深層網絡架構訓練問題,也是從這時起,LeCun開始重新思考:
如何推動實現人類水平的AI?
他意識到,強化學習等方法,基本上無法scaling,且樣本效率極低,于是開始聚焦「世界模型」。
最初嘗試,他在像素級預測視頻,但發現這行不通,真正的突破在于表示層(Representation Level)進行預測。
JEPA的發展克服了早期孿生網絡(Siamese Networks)的模型坍塌(Collapse)的問題,通過Barlow Twins、VICReg優化表示空間。
最近的Latent Euclidean JEPA,進一步推進了這一思路。
![]()
論文地址:https://arxiv.org/pdf/2511.08544
對于LLM局限背后的原因,LeCun分享了數據質量方面的「苦澀的教訓」(Bitter Lesson)。
訓出一個性能還不錯的LLM,需要互聯網上大約30萬億Token(約10^14字節)的文本數據。
LLM需要巨大的內存,來存儲這些孤立的事實。
相較之下,這僅相當于大約15,000小時的視頻——YouTube上30分鐘的上傳量。
一個4歲孩子醒著時看到的視覺信息,大約是16,000小時。
去年發布的V-JEPA 2模型,就是在相當于一個世紀時長視頻數據上訓練的,雖然字節數更多,但視頻數據的冗余性正是自監督學習所需的。
現實世界數據的結構比文本豐富得多,這也是為什么LeCun堅稱,只靠文本訓練永遠無法達到人類水平的AI。
關于理想化的「世界模型」,LeCun回應了主持人對《星際迷航》全息甲板(Holodeck)的比喻:
人們誤以為,「世界模型」必須重現世界所有的細節,這不僅錯誤,還會有害。
「世界模型」是在抽象表示空間中的模擬器,只模擬現實中相關的部分。
![]()
不僅如此,LeCun相信合成數據很有用。但有些基本概念是我們通過經驗習得的,而不是天生的。
然而,LLM并不真正理解這些,只是被微調出來給出正確答案,更像是「反芻」而非真懂。
炮轟硅谷單一文化
針對硅谷LLM狂熱的文化,LeCun的批評尤為尖銳。
他指出,AI行業存在一種危險的「羊群效應」——
競爭太過激烈,大家都害怕走偏路線而落后,于是OpenAI、谷歌、meta、Anthropic等科技巨頭幾乎都在做同一件事。
那便是,瘋狂堆疊LLM。
![]()
這導致,硅谷形成了「單一的文化」,甚至這背后多少帶著點優越感。
LeCun警告,一旦深陷「戰壕」,就只能拼命往前沖,因為誰也承擔不起被競爭對手甩開的風險。
但更大的風險是,被完全不同方向、出乎意料的一套技術顛覆,它甚至可能解決完全不同的問題。
JEPA的理念,即所謂的「世界模型」,恰恰與這條主流路線完全不同,能處理LLM很難應付的數據。
LeCun甚至毫不客氣地說——
如果你不想變成硅谷口中「被LLM洗腦了」(LLM-pilled)的人,便不會相信這樣一條路徑:
只要不停地訓練LLM,用更多合成數據,去授權更多數據,再雇上成千上萬的人來做后訓練,在強化學習(RL)上不斷加點新花樣,你就能一路走到ASI。
我認為這完全是扯淡,這條路根本不可能成功!
![]()
「沒錯,你必須逃離那種文化」。
他還透露,即使在硅谷的各家公司內部,也有不少人心里很清楚:這條路走不通!
![]()
![]()
因此,擺脫這種單一文化,正是LeCun創辦AMI的動因之一。
他透露,AMI這家公司是全球性的,總部將設在巴黎,其全球其他幾個地方,包括紐約設立分辦公室。
AGI是胡扯
「類人AI」還需5-10年
當被問及AGI時間線,LeCun先澄清:不存在「通用智能」這種東西!
這個概念完全沒有意義,因為它是被設計用來指代人類水平的智能,但人類智能是超級專業化的。
所以AGI這個概念完全是胡扯。
![]()
話又說回來,他還是認為,我們會擁有在所有領域都和人類一樣好或更好的機器。
「但這不會是一個單一事件,這將是非常漸進的」。
他樂觀地預測道,如果未來兩年,能在JEPA、世界模型、規劃等方向取得重大進展。
我們可能在5-10年內,看到接近人類智能,也許是狗的智能水平的AI。
但這已是極度樂觀。
更現實的是,AI歷史上多次出現未預見的障礙,需要我們發明新概念實現超越。
那可能需要20年,甚至更久。
![]()
有趣的是,LeCun認為最難的部分不是從狗到人類,而是達到狗的水平——
一旦你達到了狗的水平AI,你基本上就擁有了大部分要素。
從靈長類動物到人類,除了大腦的大小差異之外,還缺的是「語言」。
語言基本上由韋尼克區(Wernicke area)以及布羅卡區(Broca area)處理。
而LLM已經在語言編碼/解碼上表現不錯,或許能充當大腦的韋尼克區和布羅卡區。
![]()
LeCun稱,我們現在正在研究的是前額葉皮層,那是「世界模型」所在的地方。
離職meta,三周倒計時
訪談中,LeCun還談及了meta AI的重組。
他表示,Alexandr Wang并非接替他的位置,而是統管meta所有AI相關研發和產品,包括四個主要部門:
FAIR(長期研究)
GenAI Lab(專注前沿LLM構建)
AI基礎設施
模型轉化為實際產品的部門
重磅的是,LeCun透露,自己將在meta再待三個星期。(估計1月初,正式告別meta了)

FAIR現在由紐約大學Rob Fergus領導,正被推向「更短期的項目」——
較少強調發表論文,更多專注于協助GenAI Lab進行LLM和前沿模型的研究。
GenAI Lab也有一個首席科學家,專注于LLM,其他組織更像是基礎設施和產品。
看得出,meta重組重心完全放在了LLM,這也是LeCun選擇出來創業的部分原因。
此外,LeCun還點評了一些大模型公司,包括SSI、Physical Intelligence、Thinking Machines等。
Ilya創立的SSI,甚至包括他們的投資人,都不知道這家公司要做什么。
![]()
給年輕人的建議:別學CS
訪談的最后,主持人問道,「如果你今天重新開始AI職業生涯,會專注哪些技能和方向」?
LeCun的回答直擊要害,學習那些「保質期長」(long shelf life)的知識,以及能讓你「學會如何學習」的東西。
因為技術演變得太快了,你需要具備快速學習的能力。
他開玩笑地說,「保質期長的東西,往往不是計算機科學」。
所以,作為一個計算機科學教授,我勸大家別學計算機科學。
![]()
不過,LeCun還是給出了一些具體的建議,其中包括:
深入學習數學(微積分、線性代數、概率論)、建模基礎,尤其是能與現實世界聯系的數學(工程學科中常見);
電氣工程、機械工程等傳統工程專業,能提供控制理論、信號處理、優化等對AI極有用的工具;
物理學也是絕佳選擇:物理學的核心就是「如何表征現實以建立預測模型」——這正是智能的本質;
計算機科學只需學到能熟練編程和使用計算機的程度(即使未來AI寫代碼,你仍需懂底層);
別忘了學點哲學。
LeCun強調,這些基礎能讓你在AI快速變化中始終站穩腳跟,而不是被短期熱點牽著鼻子走。
參考資料:
https://x.com/ziv_ravid/status/2000654377258745912?s=20
https://www.the-information-bottleneck.com/ep20-yann-lecun/
https://youtu.be/ykfQD1_WPBQ
秒追ASI
?點贊、轉發、在看一鍵三連?
點亮星標,鎖定新智元極速推送!





京公網安備 11011402013531號