文 | 塔猴
作為深度學習領域的靈魂人物、OpenAI前首席科學家,Ilya Sutskever的名字在硅谷幾乎等同于“風向標”。
在離開OpenAI并創立以安全為核心的SSI(Safe Superintelligence)后,他近期的一場萬字訪談,無異于向火熱的AI賽道投下了一枚深水炸彈。
Ilya在訪談中不僅系統性地復盤了AI發展的路徑,更拋出了一個令行業震顫的論斷:過去幾年主導AI發展的“Scaling Law”(規模化法則)即將觸碰到天花板。
這意味著,依靠堆砌算力、喂養數據的“暴力美學”時代正在落幕,AI行業必須從“資源競賽”重返“范式創新”的硬核科研時代。
“高分低能”的悖論:強化學習的“詛咒”
盡管大模型在各類Benchmark(基準測試)中的分數屢創新高,但在實際的經濟生產中,AI的落地應用卻顯得步履蹣跚。Ilya將這種“看起來很強,用起來很傻”的現象歸結為強化學習(RL)帶來的系統性偏差。
目前的訓練機制存在嚴重的“獎勵黑客”(Reward Hacking)現象。為了讓模型在發布時獲得漂亮的“跑分”,研究人員往往針對評測標準進行過度優化。
這導致AI變成了一個只會背誦題庫的“應試專家”——它能完美解答見過的題型,卻在面對從未見過的復雜現實任務時束手無策。
Ilya指出,人類之所以強大,不在于“刷題量”,而在于基于常識的推理與判斷力。
當前的AI研發走入了一個誤區:我們在制造“做題家”,而不是培養擁有真實理解力的“通才”。
賽道切換:當“數據金礦”枯竭
訪談中最具沖擊力的觀點,莫過于對Scaling Law(規模化法則)的看衰。
Ilya將AI的發展劃分為兩個截然不同的階段:
? 2012-2020年(探索時代): 從AlexNet到Transformer,這是由奇思妙想驅動的“研究時代”。
? 2020-2025年(規模化時代): GPT-3之后,行業發現了“大力出奇跡”的捷徑——只要投入更多算力和數據,模型效果就會線性提升。
然而,這條低風險、高回報的路徑正在走到盡頭。
根本原因在于高質量數據的稀缺性。
目前的互聯網數據幾乎已被“挖掘”殆盡,即便未來將算力規模再擴大100倍,如果沒有新的數據范式,模型能力也不會產生質的飛躍。
“這就像所有人都在同一個枯竭的礦坑里挖掘。” Ilya比喻道,在過去幾年,AI公司的競爭邏輯是誰的“挖掘機”(GPU算力)馬力更大;而在未來,競爭邏輯將回歸本質——誰能發現新的礦脈。
這意味著,AI行業的競爭壁壘將從資本密集型(拼算力)轉向智力密集型(拼算法突破)。
安全博弈:超級個體的“瞬間合體”
當行業被迫重返“研究時代”,Ilya認為核心突破口在于讓AI學會“持續學習”。但這將帶來更深層的安全隱患。
不同于人類需要花費數十年精通一門技能,AI能夠實現經驗的**“瞬間融合”。
一個精通外科手術的AI和一個精通飛行的AI,可以通過數據合并,瞬間成為全能的超級個體。面對這種潛在的失控風險,Ilya提出了“增量部署”的安全策略。他反對將超級AI關在實驗室里直到完美,認為這種“真空中的安全”是虛幻的。
相反,應該有控制地將越來越強的AI逐步釋放到現實世界,通過真實反饋來校準其行為邊界。
更有趣的是,Ilya提出了構建AI“同理心”的技術路徑。他認為,與其制定冷冰冰的規則,不如通過底層架構設計,讓AI具備類似人類鏡像神經元的能力,使其作為一個“有情生命”去本能地關愛人類。這或許是解決對齊問題(Alignment)的終極解法。
終局思考:人類不應成為“旁觀者”
在訪談的最后,Ilya對人類在AI時代的終局給出了極其冷靜甚至殘酷的預判。
他明確反對那種“每個人都有全能AI助手包辦一切”的烏托邦愿景。
在Ilya看來,這種舒適區將是人類文明的陷阱——一旦人類失去了對事務的理解和參與,將徹底淪為被動和脆弱的附庸。
為了避免這種局面,Ilya提出了一個長期均衡方案:人類必須通過神經連接等技術,讓自己成為“超級智能”的一部分。 只有當AI的認知能力能夠完整傳輸給人類,實現人機共生,人類才能保持“完全參與”的主體地位。
Ilya Sutskever的這次發聲,不僅是對技術路線的糾偏,更是對資本市場的一次預警:那個靠“堆顯卡”就能講好AI故事的時代,已經結束了。





京公網安備 11011402013531號