
編輯:KingHZ
全球AI軍備競賽燒掉3000億美元,但真正在防止「終結者」的科學家,竟不足千人!Anthropic核心成員Benjamin Mann揭秘:當人形機器人覺醒,缺的只是一個「大腦」——而這一天,最早可能在2028年到來。
1億美元,還是守護人類?
當扎克伯格揮舞九位數支票瘋狂「挖墻腳」時,OpenAI前安全大將Benjamin Mann只是淡淡一句:「錢能買模型,卻買不到安全。」
最近的播客,Anthropic聯創Benjamin Mann揭秘了為何OpenAI安全團隊出走,為什么他對1億美元堅決說「不」。

頂尖AI人才是時代英雄,
真值1億美元
最近,扎克伯格砸錢挖頂級AI人才。

這是時代標志,這些人才打造的AI極有價值。
Benjamin Mann表示,團隊流失并不嚴重:
在meta,最好的結果是「賺到錢」;但在Anthropic,最佳結果是「改變人類未來」。后者更值得。
對Mann來說,這個選擇并不難:絕不接受meta的天價offer。
我們正處于前所未有的Scaling時代,且只會更瘋狂。
Anthropic每年資本開支增長一倍,速度驚人。
這就是行業現狀——好模型就是印鈔機。
但在Anthropic,meta的「鈔票攻勢」并未掀起大風浪。除了使命感,還有兩大秘訣:
團隊氛圍——「這里沒有大佬光環,大家只想做對的事。」
自由選擇——「有人為家庭接受天價offer,我也理解。」
Benjamin Mann確認,1億美元的簽約費確實存在。
Mann算了一下賬:如果推理效率提升5%,整個推理棧成本將節省數億美元。一億美元換來這改進,回報驚人。
往后看,幾輪指數級增長后,可能會達到萬億級數字。那時,我們很難想象這些這些驚人回報的意義。
畢竟,他表示AI發展沒有停滯,Scaling Law依舊有效,進展持續加速。

Scaling Law未死:每月一個「新物種」誕生
第一,模型發布節奏在加速:
過去,我們可能一年發布一個模型;
而現在,通過后訓練,幾乎每個月或每三個月就會發布一個模型。
為何感覺進展慢了?部分原因在于,普通人覺得新模型不如老模型聰明。
實際上,Scaling Law依然有效,但為了繼續延續Scaling Law,需要從預訓練轉到強化學習。
另外,某些任務上,模型智能已接近飽和。

新基準測試發布后,6-12個月內性能就飽和了。

所以,關鍵限制可能是測試本身:更優的基準和更具雄心的任務,才能展現模型真正的智能突破。
這也引發了Mann對AGI定義的思考。
經濟圖靈測試
奇點風向標
他認為AGI這個字情感色彩強烈,他更喜歡使用「變革性AI」(transformative AI)這個詞。
變革性AI關注是否能在社會和經濟中帶來變革。
具體的衡量標準就是經濟圖靈測試(Economic Turing Test):
在某個特定職位上,試用了1到3月,最后決定雇用某個人,最終發現實際上他是機器而不是人,那AI就通過了經濟圖靈測試。
換句話說,AGI不是考試分數,而是老板的聘用郵件!
AI能通過約50%(按薪資計算)工作崗位的經濟圖靈測試時,就意味著變革性AI的到來。
因為社會制度和組織具有慣性,這種變化開始會非常緩慢。
Mann和Dario Amodei都預見到,這可能導致高達20%的失業率,尤其是在白領工作中。
從經濟的角度來看,失業有兩種:技能不足或崗位徹底消失。未來會是這兩者的結合體。
如果我們未來擁有安全對齊的超智能,那么就像Dario所說,我們將擁有一群在數據中心工作的天才,推動科學、技術、教育和數學的積極變革。那多么令人驚嘆!
但這也意味著,在一個勞動幾乎是免費的世界里,無論你想做什么,都可以讓專家為你做。那么,工作將是什么樣子?
因此,最可怕的是,從今天人們還擁有工作的世界,到20年后那樣一個世界的過渡非常迅速。
但正因為它的變化如此劇烈,這才被稱作「奇點」——因為這個時間點無法輕易預測。

物理學上,奇點是一個體積無限小、密度無限大、引力無限大、時空曲率無限大的點,在這個點,目前所知的物理定律無法適用
那時候的變革極快,根本無法預見。
隨著AI能力的提升,許多原本由人工完成的任務正被AI取代,尤其是那些重復、簡單、標準化的工作。
這一變化對職場的影響迅速且深遠。
例如,在軟件工程方面,Claude Code團隊用Claude完成了95%的代碼。但是,從另一個角度來看,這意味著同等人力可以寫出更多的代碼。
相似的情況也出現在客服領域。AI工具可以自動解決82%的客戶請求,從而人類員工能夠專注于更復雜的問題。
但對低技能、提升空間有限的崗位,替代仍會非常劇烈。社會必須提前應對。

未來生存指南
未來的職場會是怎樣的呢?
即便身處這場變革的中心,Benjamin Mann認為自己也逃不過被AI取代的風險。
總有一天,這將影響到到所有人。
但接下來的幾年至關重要。目前,還沒有到可以完全替代人的階段。
現在還處在指數曲線的起點——平坦的那一段,這里還只是開始。

所以擁有優秀的人才仍然極其重要,這也是Anthropic積極招聘的原因。
主持人換個了問法,繼續追問:「你有兩個孩子。那你覺得給什么樣的教育,下一代才能在未來立足?」
Mann認為,當前的教育傳授知識和技能,但未來這些傳統標準可能不再適用。

與其讓孩子只為考試做準備,不如培養她的好奇心和解決問題的能力。
他希望女兒能探索自己感興趣的領域,培養獨立思考和創造力。
在AI主導的世界里,創造力和情感智力將成為與機器競爭的關鍵。
未來充滿不確定性,擁抱變化、不斷學習和適應,將是成功的關鍵。
內幕:OpenAI第一次分裂
眾所周知,在2020年底,Benjamin Mann和另外八位同事離開了OpenAI,創辦了Anthropic。
是怎樣的經歷讓他們決定自立門戶?
當時,Mann是OpenAI GPT-2、GPT-3項目成員,是GPT-3論文的第一作者之一。

論文鏈接:https://arxiv.org/abs/2005.14165
他向微軟演示了很多技術,給OpenAI拉來了10億美元投資。同時他還負責把GPT-3技術遷移到微軟的系統,便于在Azure上部署和提供服務。
在OpenAI,他既參與研究,也參與產品落地。

當時,奧特曼總是說:
OpenAI三大「陣營」需要彼此制衡:安全陣營、研究陣營和創業陣營。
Mann認為這很荒謬——安全應是全員核心目標,而非某個「陣營」的職責。
畢竟,OpenAI的使命是「讓通用人工智能安全、惠及全人類」。
2020年底,安全團隊發現:
?安全優先級持續降低;
?邊界風險被忽視。
最終整個安全負責人團隊集體出走。這就是他們離開的根本原因。
理由很單純:AI要把安全放到第一優先級,但同時要站在研究最前線。

被爆出「賽博舔狗」之類的問題,很難說OpenAI真的在意安全——
安全研究人員持續在流失……

而Claude很難犯這類錯誤,因為Anthropic投入了大量精力進行真正的對齊,而不僅僅是試圖優化用戶參與度指標。
人生使命:AI安全
世界上真正致力于AI安全問題的人非常少。
即使現在,全球一年在AI基礎設施上的資本開支已達3000億美元,但真正全職研究「對齊問題」的人,Mann估計不到一千。這更堅定了他們「專注安全」的決心。
Mann曾擔心,只要追求商業速度,就得犧牲安全。
但在Opus 3發布后,他意識到對齊研究反而讓產品更具人格魅力,兩者呈「互相加速」的凸性關系——越專注安全,模型越受歡迎。

Anthropic的絕招是「憲法式AI」:他們把聯合國人權宣言、蘋果隱私條款等原則寫成自然語言清單,內嵌進模型。比起傳統人工標注,讓AI的價值觀更系統,也減少了偏見。

初衷
把AI安全作為AI領域中一切工作的核心,這也和Mann閱讀大量科幻小說有很大關系,這讓他習慣于用一種面向未來、長期視角來看待世界。
但真正讓意識到這件事情的現實緊迫性,是在2016年左右他讀了Nick Bostrom的《超級智能》(Superintelligence)。

那本書讓他第一次深刻意識到,AI安全并不簡單,可能是未來人類命運最關鍵的議題之一。
讀完之后,他立刻決定加OpenAI,付諸行動。
最初,OpenAI并不清楚如何實現AGI。當時甚至設想過,或許需要一群強化學習(RL)智能體在一個孤島上展開競爭,最終意識會自發地出現。
但自從語言模型取得了進展后,實現AGI的路徑變得更加明確。
書中更多討論的是:如何將「上帝」關在盒子里,避免它從盒子里逃脫。
現在,Mann覺得現實更諷刺:很多人反過來,主動把「上帝」請出盒子,還把銀行賬號交給它。

未雨綢繆
他并非全盤否定。Mann的安全哲學像「強制性登機檢查」:
概率再小≠零:「1%墜機率的航班你敢坐嗎?」
ASL-5警報:將AI風險分級為「致人死亡→滅絕人類」,對標核武器管控;
自曝家丑:Anthropic定期發布模型「犯罪記錄」,哪怕暴露弱點——「行業進步需要真實代價」。
他的核心邏輯:「我們希望AI是救世主,但必須按它會是終結者來防備。」
現在的AI只是運行在計算機上,可能僅限于在網絡上搜索東西,其潛在危害相對較小。但當AI進入到機器人和自主智能體時,才是最大的危險。
如果我們沒有做好準備,問題就會變得極其嚴重。
奇點將至,Mann認為留給人類的時間不多了:
2024-2026:硬件成本驟降,人形機器人只剩兩萬美元,缺的只是大腦」;
2027-2028:按照最新報告《AI 2027》,奇點節點可能推遲到2028——但也只多爭取了一年;
2030以后:若成功安全對齊,人類將進入「數據中心里的天才國度」;否者,后果難以估量;


真正的瓶頸:硅、算法與電
當同行沉迷于RLHF(人類反饋強化學習)時,Anthropic已升級到RLAIF:讓AI自我批判與修正,效率超人工千倍——但若「自查機制」有盲區,等于「蒙眼開火箭」。
而當前最大瓶頸竟是物理限制:
算力饑荒:若有10倍電力,GPT-5明天就能問世;
硅的詛咒:7nm芯片的物理極限逼近,算法進步開始「擠牙膏」;
數據荒漠:高質量語料即將耗盡,AI可能陷入「自我抄襲循環」。
通過算法、數據和效率的改進,行業中單位智能的成本下降了10倍。
因此,擁有更多能做出更好研究的研究人員,找到如何進一步提升模型表現的路徑,也是一個瓶頸。
參考資料:
https://www.youtube.com/watch?v=WWoyWNhx2XU&t=1078s





京公網安備 11011402013531號