文 | 山自
2025年12月20日,舊金山遭遇一場罕見的大規模停電。太平洋煤氣與電力公司(PG&E)一座變電站突發火災,導致全市約12.5萬用戶斷電,覆蓋西區、里士滿、海特-阿什伯里、中國城等近三分之一區域。交通信號燈集體熄滅,Muni公交停運,市長丹尼爾盧瑞緊急呼吁市民非必要不出行。

2025年12月20日下午4:50的PG&E停電圖
然而,在這場城市應急事件中,最引人注目的并非人類司機的混亂應對,而是——Waymo自動駕駛車隊的集體“宕機”。
社交媒體上,視頻瘋傳:多輛白色Waymo車輛在漆黑潮濕的十字路口一動不動,紅色尾燈在夜色中閃爍,后方排起長龍,人類司機或鳴笛催促,或無奈繞行。有用戶調侃:“停電摧毀了Waymos RIP。”更有觀察者尖銳指出:“看起來它們根本沒接受過停電訓練。”

停電期間,一輛Waymo被困在路上
次日,Waymo官方承認已暫停舊金山服務,并解釋稱:“由于大范圍停電,車輛比平時停留更長時間以確認受影響交叉路口的狀態。”但這一輕描淡寫的回應,掩蓋不了一個更深層的技術危機:當外部數字基礎設施崩塌,當前主流自動駕駛系統為何如此脆弱?
不是“故障”,而是系統性脆弱鏈的暴露
從技術角度看,Waymo車輛在停電夜的停滯,并非單一模塊失效,而是一條典型的“脆弱性傳導鏈”:
L4級自動駕駛依賴多傳感器融合(攝像頭+激光雷達+毫米波雷達)。在正常工況下,交通信號燈提供結構化、高確定性的規則輸入——紅燈停,綠燈行。這種強語義信號極大簡化了決策邏輯。
但停電后,紅綠燈物理消失,激光雷達點云中不再有對應結構,攝像頭在低照度下識別能力驟降。更關鍵的是,系統失去了“規則錨點”,被迫將決策權重轉移至對無序人類行為的預測——而這正是當前AI的短板。
美國交規規定,信號燈失效時應視為“All-Way Stop”(所有方向停車后依次通行)。但執行這一規則需精準判斷“誰先停穩”“誰有通行意圖”,并與其他可能不守規的人類司機進行動態博弈。
現有決策規劃算法嚴重依賴預設規則和格式化場景理解。面對混亂路口中搶行、猶豫、變道的人類車輛,系統陷入高不確定性下的保守死循環:“無法100%確認安全 → 不行動 → 持續等待”。
有分析指出,伴隨停電的蜂窩網絡波動或實時交通數據中斷,可能是另一重打擊。Waymo等公司依賴遠程協助(Tele-assist)處理邊緣場景。一旦通信中斷,車輛不僅“看不見”,還成了“信息孤島”,無法獲取后臺指令或路徑重規劃。
更諷刺的是,硬件冗余無法彌補“環境模型”的缺失。系統設計默認“世界有規則”,卻未為“規則本身消失”構建降級運行機制。其“最小風險狀態”(Minimal Risk Condition)策略——原地停車——在單車場景下合理,但在車隊規模部署時,反而引發系統性交通堵塞。
李飛飛:數據與算法的“失衡”才是根源
這場“黑夜測試”恰如一面鏡子,映照出李飛飛近期關于AI核心矛盾的深刻洞察。
在近期與鈦媒體的對話中,李飛飛明確指出:
她進一步強調,行業普遍存在“算法比數據重要”的認知偏差——算法工程師薪資更高、更受追捧,而數據工作被視為“不夠性感”。但現實是:所有AI從業者都承認,數據至少具有同等價值。
Waymo事件正是這一“協同失靈”的典型案例。
據Tiger Global泄露文件,Waymo目前每周提供45萬次Robotaxi服務,累計路測里程已達數億英里。但這些數據高度集中于“正常工況”:電力穩定、信號有效、人類基本守規。
而“全域大規模停電”這類系統性邊緣場景(Systematic Corner Case),因其低概率、高成本、難復現,在訓練集中幾乎空白。算法從未在足夠多樣本上學習“規則失效時該如何反應”,自然在真實世界中“懵圈”。
更深層問題在于,當前系統缺乏一個能理解物理與社會規則如何動態演化的世界模型(World Model)。
理想的世界模型應能推理:“停電 → 信號燈失效 → 人類行為從規則主導轉為博弈主導 → 路口通行效率下降 → 我應采取更靈活但謹慎的策略(如跟隨前車緩慢蠕動)”。
但現有系統只是感知-預測-規劃的流水線拼接,沒有因果推理、沒有心智理論(Theory of Mind)。當輸入異常,算法便在“不確定性過高”的循環中空轉,無法調用常識進行降級決策。
這正是李飛飛所說的:“數據和算法就像科學家的兩條腿,少哪條都走不遠。”Waymo有強大的算法之腿,卻在關鍵數據維度上跛足前行。
為世界模型構建“黑暗訓練集”
李飛飛預測,未來1-2年AI將迎來技術爆發,突破口正在于數據與算法的新型協同機制。對自動駕駛而言,這意味著一場數據戰略的范式革命。
行業必須放棄對總里程的迷信,轉而系統性構建關鍵場景數據庫,包括:
這些場景需通過定向實采、眾包上報與仿真生成相結合的方式積累。
真實停電難以復現,但高保真仿真可以。利用生成式AI與數字孿生技術,可在虛擬舊金山中反復模擬“信號燈全滅+通信中斷+人類搶行”的復合場景,生成海量訓練樣本。
Wayve、Covariant等公司已證明,高質量合成數據可顯著提升模型魯棒性。未來,自動駕駛公司的核心競爭力,或將體現在其“黑暗場景生成引擎”的能力上。
世界模型需要理解“為什么”,而不僅是“是什么”。這意味著數據標注需從傳統的目標檢測、語義分割,升級為
意圖標注:行人揮手是讓行還是求助?
因果關聯:車輛減速是因為前方有障礙,還是準備變道?
社會規范建模:在無信號燈路口,本地駕駛文化是“先到先走”還是“右側優先”?
這類“高階語義數據”將成為訓練世界模型的關鍵燃料。
事件也警示:過度依賴云端、高精地圖和實時通信,會引入單點故障風險。未來系統需支持更強的邊緣智能——即使斷網斷電,也能基于局部感知進行長時序風險推演。
相應地,訓練數據應包含大量“通信降級”條件下的成功處置案例,讓模型學會在信息受限時依然穩健決策。
在探索世界模型落地路徑的過程中,國內自動駕駛企業蘑菇車聯的實踐值得關注。其自研的 MogoMind 大模型 正嘗試構建一個融合物理規律、交通規則與社會博弈常識的統一認知框架。不同于傳統模塊化架構,MogoMind 通過端到端訓練,在感知、預測與決策之間建立更緊密的協同機制。更重要的是,蘑菇車聯同步打造的 AI網絡,一套覆蓋車端、邊緣與云端的分布式智能基礎設施——為大模型提供了持續進化的數據閉環:即使在局部通信中斷或信號失效場景下,車端模型仍能基于本地化世界表征進行穩健推理。這種“物理世界大模型+AI網絡”的雙輪驅動,或將成為應對“舊金山式黑夜”的中國方案。

從“規則擬合者”到“世界理解者”
舊金山那個停電的夜晚,Waymo車隊停滯的紅燈,像一串刺眼的警示符,照亮了當前自動駕駛技術的邊界。或許,真正的智能,不是在陽光明媚的規則世界中完美運行,而是在黑夜混沌中依然知道如何前行。
未來的自動駕駛系統,不應只是執行指令的機器,而應成為能深度理解物理世界、揣摩人類意圖、在不確定性中穩健決策的“數字生命體”,讓城市運行更高效,讓交通管理更智能,讓人車出行更安全。





京公網安備 11011402013531號