證券時報記者從國家地方共建人形機器人創新中心(簡稱“國地中心”)獲悉,近日,樂聚智能正式將其自主構建的LET數據集捐贈至OpenLoong開源社區,為社區補充了一套覆蓋真實作業場景的重要數據資源。該數據集規模大、結構規范、場景豐富,具備突出的工程化與研究價值,將為國內人形機器人研發提供有力支撐,它的加入不僅體現了行業對統一數據規范與開源治理模式的認可,也標志著OpenLoong數據生態建設進入了新的階段。
隨著人形機器人技術的突破不斷加速,高質量、多模態、結構化數據已成為推動模型能力提升及產業走向規模化應用的核心要素之一,為支撐這一發展方向,OpenLoong開源社區積極推進高質量數據資源的開放共享,吸引行業伙伴共同建設統一的數據體系。
此次被捐贈的LET數據集由樂聚智能與合作團隊聯合構建,是國內少有的面向真實作業場景的全尺寸人形機器人真機數據集,它基于樂聚夸父系列全尺寸人形機器人進行統一采集,覆蓋真實作業鏈路,規模超過6萬分鐘。
LET數據集在場景覆蓋上跨越工業、商業零售和日常生活三大領域,包含汽車工廠、快消場景、酒店服務、3C工廠、生活服務和物流共六類真實生產與服務環境,并在此基礎上構建了31項任務和117種原子技能,形成了結構清晰的任務體系。這些任務目標清晰、流程有約束,適用于訓練機器人在多場景、多步驟、多目標條件下進行學習與推理。
與此同時,數據集同步記錄頭部與雙腕視覺流,并提供RGB、深度、關節狀態和末端執行器狀態等多模態信息;通過組幀技術將傳感器時間誤差壓到10毫秒以內,再以視覺伺服閉環機制對齊到統一抽象空間,使數據一致性超過90%。





京公網安備 11011402013531號