IT之家 12 月 19 日消息,12 月 18 日,北京人形機器人創新中心正式開源國內首個且唯一通過具身智能國標測試的具身 VLA 大模型 XR-1,以及配套的數據基礎 RoboMIND 2.0、ArtVIP 最新版。
圍繞“具身天工”平臺,北京人形已發布具身天工 2.0、天軼 2.0 等多類型通用本體,為人形機器人干活奠定物理本體基礎。而具身大腦和小腦的協同是人形機器人干活的另一前提,目前圍繞“慧思開物”,北京人形已開源 WoW(我悟)世界模型和 Pelican-VL(天鶘)等具身大腦相關成果。
本次開源的系列內容,是面向具身小腦能力的 VLA 模型 XR-1,以及為 XR-1 等模型提供數據訓練支持的 RoboMIND 2.0 和 ArtVIP。

在今年 8 月的 WRC 世界機器人大會上,北京人形正式發布了跨本體 VLA 模型 XR-1,它具備多場景、多本體、多任務特性,并且還擁有高泛化性等優勢特點。
背后的技術原理在于,XR-1 具備跨數據源學習、跨模態對齊、跨本體控制三大核心支柱能力。首先,通過跨數據源學習讓機器人能夠利用海量人類視頻進行訓練,降低訓練成本提升訓練效率;其次,依靠跨模態對齊能夠打破視覺和動作的隔閡,讓機器人做到真正的知行合一;最后,借助跨本體控制可以讓 XR-1 快速匹配不同類型、不同品牌的機器人本體。


XR-1 首創結合虛實數據的三階段訓練范式:
第一階段:輸入積累超百萬級的虛實多本體數據、人類視頻數據,由 XR-1 把這些復雜的畫面和動作壓縮成一個包含許多離散代碼的“字典”,便于機器人后續隨時調用需要的“動作代碼”;
第二階段:用大規模的跨本體機器人數據來預訓練 XR-1,讓它懂得物理世界的基本規律,比如“松手東西會掉”、“推門門會開”;
第三階段:針對不同的任務場景(例如:分揀、搬箱子、疊衣服等)用少量的特定數據進行微調;最終讓機器人從一個“學富五車”的理論大師,蛻變為一個“心靈手巧”的干活專家。
IT之家附 XR-1 項目主頁:
RoboMIND2.0:
ArtVIP:





京公網安備 11011402013531號