![]()
視覺–語言–動作(VLA)模型在機器人場景理解與操作上展現出較強的通用性,但在需要明確目標終態的長時序任務(如樂高搭建、物體重排)中,仍難以兼顧高層規劃與精細操控。
針對這一問題,北京大學、香港中文大學與至簡動力團隊提出了全新的「生成–理解–動作」一體化模型 ManualVLA。
![]()
論文題目:ManualVLA: A Unified VLA Model for Chain-of-Thought Manual Generation and Robotic Manipulation論文鏈接:https://arxiv.org/abs/2512.02013項目主頁:https://sites.google.com/view/maunalvla
![]()
https://mp.weixin.qq.com/s/5d8G8SHTagcJO8pKRZpI6A
不同于 π0 等端到端模型在處理復雜長程任務時仍面臨的推理與執行割裂問題,ManualVLA 摒棄了將「高層次規劃」與「動作生成」拆分的傳統分層級聯方案,構建了全新通用基礎模型 Mixture-of-Transformers (MoT) 架構,在同一模型中統一多專家模塊,實現多模態生成與動作執行的緊密協同。
首先由「規劃專家」生成由圖像、空間位置提示和文字說明組成的多模態操作說明書,再通過顯式與隱式相結合的「思維鏈」(ManualCoT)推理,將信息反饋給「動作專家」,為每一步操作提供清晰的顯式控制條件的同時,通過潛在表征為動作生成提供持續的隱式引導,實現理解與生成的高度統一。
實驗結果表明,ManualVLA 在現實場景任務中表現出顯著優勢,其平均成功率相較于分層結構的最新基線方法提升約 32%,充分驗證了「生成手冊–指導動作」這一統一范式的有效性。
一、研究背景與挑戰
近年來,VLA 模型在機器人場景理解和泛化操作方面取得了顯著進展,推動了通用具身智能體的發展。但當面臨需要精確定義最終目標狀態的長周期任務,例如復雜的樂高組裝或物體重新排列時,現有模型仍然難以協調高級規劃與精確操作。
這些任務主要面臨兩個核心難題:首先,VLA 模型必須執行精確操作以嚴格對齊預定義的最終場景或物體配置;其次,模型必須有效地將長周期規劃與細粒度控制相集成,同時保持對多樣化現實世界環境的泛化能力。
現有的分層方法通過依賴人工制作說明書或人類演示視頻來模仿這種能力,然而,這些方法通常在泛化到未見過的最終目標狀態方面存在局限性,在系統復雜度、部署成本和泛化性之間難以取得兼顧,難以形成一個統一、可端到端訓練和部署的體系。
二、ManualVLA 方法陳述
為此,ManualVLA 讓模型學會「自己生成說明書,再按說明書去執行動作」。在推理階段,系統首先接收自然語言指令、當前場景圖像和最終目標圖像,由規劃專家生成包含關鍵步驟的多模態手冊:由文字描述指出要操控哪些物體以及要完成的子目標,像素級坐標給出目標物體在圖像中的精確位置,子目標圖像則展示子目標完成后的「預期畫面」。動作專家在閉環控制中執行這一子目標,直到達到預期狀態,再進入下一次手冊生成與執行。通過這種逐步推進的方式,原本困難的長時序任務被拆解為一系列可控、可解釋的短階段。
![]()
▲ 圖 1| (a) 諸如樂高拼搭或物體重排等具有預定義目標狀態的長程任務,對智能機器人構成了重大挑戰。(b) 為了解決此類任務,我們提出了 ManualVLA。這是一個基于 MoT 架構構建的統一 VLA 模型,它通過一種精心設計的「說明書思維鏈」(Manual Chain-of-Thought),實現了多模態手冊生成與動作生成之間的緊密協同。
![]()
https://mp.weixin.qq.com/s/5d8G8SHTagcJO8pKRZpI6A
架構設計
ManualVLA 將 Janus-Pro 1B 拓展到 MoT 架構,形成統一 VLA 模型并集成「規劃專家」和「動作專家」,實現了多模態手冊生成和動作執行之間的連貫協作。
規劃專家:處理圖像信息時,ManualVLA 采用了基于 VQ 的視覺分詞器 (VQ-based vision tokenizer),該分詞器遵循 VQ-GAN 的編碼器-量化器-解碼器架構,對子目標圖像進行離散化建模。動作專家:采用基于擴散去噪的方法進行動作建模,通過兩層 MLP 構建將噪聲動作注入動作專家的噪聲編碼器,以及用于從潛在表示中預測噪聲的噪聲解碼器。在動作生成的視覺輸入上,ManualVLA 采用了 SigLIP-large,從 384×384 輸入圖像中提取高維語義特征。
ManualCoT 思維鏈機制
該機制從顯式與隱式兩條路徑影響動作生成。
顯式路徑:模型把規劃專家預測的目標位置以 visual prompt 形式疊加在當前圖像上,構成帶有明顯操作區域提示的「提示圖」,動作專家直接以此作為視覺輸入之一,仿佛在圖像上用熒光筆圈出了「請在這里操作」。隱式路徑:手冊生成時產生的內部特征——無論對應文字描述、坐標還是子目標圖像——都通過專門設計的注意力掩碼被動作專家讀取,相當于在看不見的空間中不斷提醒動作模塊「當前在做什么、應該做到什么程度、做完以后世界會是什么樣」。消融實驗表明,去掉任一路徑都會顯著降低長任務中的成功率,說明只有顯隱結合,才能兼顧精度與穩健性。
![]()
▲ 圖 2| (a) 該框架包含兩個專家模塊:負責生成多模態「說明書」的規劃專家,以及負責預測精確動作的動作專家。規劃專家處理人類指令、當前圖像和最終目標圖像,生成結合了下一步圖像、位置坐標和子任務指令的中間手冊。我們引入了一個顯式思維鏈 (Explicit CoT)推理過程,其中每個位置指示符都作為一個視覺提示 (Visual prompt) 嵌入到動作專家的觀測輸入中。(b) 結合跨任務共享注意力機制和專門設計的 Attention mask,生成的「說明書」token 也被用作動作生成的條件信號,從而實現了一種能有效引導動作專家的隱式思維鏈 (Implicit CoT)推理過程。
三階段訓練
第一階段:基于互聯網機器人數據集,篩選與裝配和重排相關的軌跡,構建超過 40 萬條示例的預訓練集,只更新動作專家,學習抓取、搬運和放置技能。第二階段:利用基于三維高斯表示的數字孿生工具,對樂高板、單塊積木和常見桌面物體進行三維重建,在虛擬空間中反復隨機排列組合,自動渲染每個中間狀態的圖像并記錄對應的位置和文字描述模板,為每個任務合成上萬幀帶有精確標注的手冊數據,用于訓練規劃專家。第三階段:在真實雙臂平臺上通過遙操作采集每個任務 100 條專家示范軌跡,自動抽取關鍵幀生成與真實執行過程一致的手冊–動作配對,在此基礎上對規劃與動作兩個專家進行聯合微調,使模型在真實環境中的規劃–執行閉環更加貼合物理世界。
![]()
▲ 圖 3| 數字孿生示例 (a) 我們重建了 3D 高斯濺射表征,隨后將其分解為樂高底板和單個積木。(b) 我們逐步地將積木放置在底板上/將物體放置在盒子上。
三、真機、模擬器、泛化性實驗
真機實驗
在 Franka 雙臂平臺上,ManualVLA 測試了三個需要明確目標狀態的長周期真實世界任務——2D 樂高組裝、3D 樂高組裝和物體重新排列。在手冊生成方面,規劃專家在 300 個未見過的測試樣本上生成了令人滿意的中間圖像(例如 2D 樂高組裝的 PSNR 達 29.01),低 FID 分數(例如物體重新排列為 24.46)證實了生成圖像的真實性和保真度,而極低的 MAE 分數(例如 2D 樂高組裝為 3.23)則突顯了模型在預測目標對象位置方面的精確性。
![]()
▲ 圖 5| 「規劃專家」逐步生成 ManualCoT「說明書」,Pred 指代模型生成的預測結果,GT 指代真實圖像。
![]()
▲ 表 1| 在三個長程任務上,ManualVLA 生成的中間目標圖像與 UV 坐標的質量的量化結果。
動作生成結果
ManualVLA 在所有三個真實世界長周期任務中均取得了最高成功率,相比最強的分層基線 (VLM + π0.5),最終任務完成率提高了 15% 到 30%,平均成功率高出 32%。基線模型通常難以在整個長序列中保持性能,但 ManualVLA 通過 ManualCoT 策略有效地將復雜任務分解并錨定到精確動作中,緩解了性能隨步驟數增加而下降的問題。
![]()
https://mp.weixin.qq.com/s/5d8G8SHTagcJO8pKRZpI6A
![]()
https://mp.weixin.qq.com/s/5d8G8SHTagcJO8pKRZpI6A
![]()
▲ 表 2| 我們使用 20 個模型均未見過的目標狀態進行測試,得到完成長程任務的操作成功率與關鍵中間步驟的成功率。
仿真實驗
ManualVLA 在 RLBench 的 10 個仿真任務上取得了 70% 的平均成功率,超越了 SOTA 方法 π0 的 63%,進一步驗證了 ManualCoT 策略在指導精確動作生成方面的優勢,在通用原子任務上也能表現出良好效果。
![]()
▲ 表 3| ManualVLA 與各 baseline 模型在仿真環境 RLBench 上各項原子任務的成功率與方差。
消融與泛化實驗
消融實驗證明,說明書中所有模態信息(文本、圖像、UV 坐標)和隱式 CoT(潛在空間中的條件信號)推理對于解決長周期、目標明確的操作任務是不可或缺的,兩者結合才能達到最佳性能。同時,ManualVLA 在未見過的背景、物體形狀和光照變化下也表現出魯棒的泛化能力。
![]()
▲ 表 4| 我們探究了如下因素對任務成功率的影響:(a) 說明書中包含的信息;(b) 顯式與隱式的 ManualCoT 思維鏈機制;(c) MoT 架構與 action 生成范式。
![]()
▲ 表 5| 在明顯變化且模型未見過的背景、物體形狀和光照變化下,ManualVLA 的任務成功率。





京公網安備 11011402013531號