新京報貝殼財經訊(記者韋博雅)12 月 18 日,北京人形機器人創新中心正式開源國內首個且唯一通過具身智能國標測試的具身VLA大模型 XR-1,以及配套的數據基礎RoboMIND 2.0、ArtVIP 最新版。基于上述開源成果,能夠推動具身智能行業追尋最本質需求,讓機器人真正在各類應用場景下能干活并且會干活,推動國內具身智能行業邁向“全自主、更好用”的新階段。
本次開源的系列內容,是面向具身小腦能力的VLA模型XR-1,以及為XR-1等模型提供數據訓練支持的RoboMIND 2.0和ArtVIP。
北京人形介紹,跨本體VLA模型 XR-1具備多場景、多本體、多任務特性,并且還擁有高泛化性等優勢特點。背后的技術原理在于,XR-1具備跨數據源學習、跨模態對齊、跨本體控制三大核心支柱能力。首先,通過跨數據源學習讓機器人能夠利用海量人類視頻進行訓練,降低訓練成本提升訓練效率;其次,依靠跨模態對齊能夠打破視覺和動作的隔閡,讓機器人做到真正的知行合一;最后,借助跨本體控制可以讓XR-1快速匹配不同類型、不同品牌的機器人本體。
北京人形首創的UVMC(多模態視動統一表征)技術是關鍵,它能夠搭建起視覺與動作的映射橋梁,讓機器人將看到的畫面瞬間轉化為身體的本能反應,像人類條件反射般自然做出正確的應對動作。XR-1的多構型預訓練能力,使具身天工2.0具備全身多關節絲滑擬人控制,可實現大幅彎腰下蹲并精準抓取隨機擺放的物料箱,完成復雜倒料任務
RoboMIND 2.0則在此前版本基礎上進行了全面的升級。機器人操作軌跡數據增加到了30+萬條、擴展了工業零件分揀、流水線設備、物理化學實驗室、家庭廚房、家電交互等在內的11個涵蓋工業、商用、家庭的場景,機器人本體、任務、技能數量也分別有了2倍以上的提升。同時,增加了1.2+萬條帶觸覺操作數據支持訓練VTLA、MLA模型,還可用于訓練機器人大小腦模型,并開源了基于ArtVIP的大量仿真數據。
編輯 岳彩周
校對 盧茜





京公網安備 11011402013531號