![]()
![]()
18日,大曉機器人正式發(fā)布行業(yè)首創(chuàng)的ACE具身研發(fā)范式、首個開源且商業(yè)應用的開悟世界模型3.0(Kairos 3.0)、讓具身本體擁有自主空間智能的具身超級大腦模組A1,與行業(yè)伙伴共同構建全鏈自主可控、開放共贏的產業(yè)級生態(tài)體系。
大曉機器人源于“大千世界,曉識萬象”,“大千世界”是廣闊、復雜、多樣、充滿細節(jié)的;“曉識萬象”是在浩瀚世界中知曉、洞察規(guī)律。讓機器人真正洞察并理解萬象規(guī)律,才能使其學會與世界精準交互。
“大曉機器人攜手產業(yè)鏈伙伴共建開放協同的產業(yè)生態(tài),通過ACE具身研發(fā)范式、開悟世界模型及具身超級大腦等突破性成果,推動具身智能實現規(guī)模化商業(yè)落地與產業(yè)蓬勃發(fā)展。”商湯科技聯合創(chuàng)始人、執(zhí)行董事、大曉機器人董事長王曉剛表示。
![]()
“以人為中心”,革新具身智能研發(fā)路徑
人類的智能蘊藏于數據之中,數據始終是AI進化的核心支撐。
AI 1.0的人工標注時代,包含1400萬張圖像、覆蓋數萬個類別ImageNet數據集,若由單人全職完成全部標注,需長達10.5年;進入AI 2.0大語言模型時代,數據規(guī)模實現指數級躍升,讓單人全職進行原創(chuàng)撰寫需超過12萬年才能完成。
邁入具身智能時代,行業(yè)面臨數據量級的斷崖式缺口——智能駕駛領域,特斯拉FSD V14在世界模型仿真器的加持下,每日訓練量相當于人類駕駛員400萬小時,約等于500年的駕駛經驗。而當前具身智能領域的真機數據量級僅為10萬小時,這一懸殊差距清晰表明,具身智能的研發(fā)無法延續(xù)傳統研發(fā)路徑,必須實現范式上的根本性革新,才能突破發(fā)展瓶頸。
“以機器為中心”的研發(fā)范式,其根本局限在于將機器人本體及其硬件參數置于研發(fā)流程的核心,本質上是用極高的資源消耗,換取有限且僵化的“智能”。
通過采集員真機遙操,海量收集各類機器人的本體數據,本質是讓人去適配和遷就機器的多樣性。這一路徑導致數據采集成本高昂、效率低下,且產出的技能模型嚴重綁定于特定硬件,“智能”被禁錮在單一軀殼之內,無法形成通用的認知與適應能力,已成為行業(yè)向規(guī)模化、通用化發(fā)展的關鍵障礙。
當前,特斯拉、Figure AI正集體放棄此前依賴的真機遙操路徑,轉而探索純視覺學習方案,其理想是讓機器人通過觀看海量視頻,直接習得人類的動作與智慧。但這種學習方式缺乏對三維物理世界的力學規(guī)律、物理屬性和動作意圖理解,學習曲線陡峭,存在難以逾越的“現實鴻溝”。
這兩種路徑均無法理解人所處世界的物理規(guī)律和人類行為的因果一致性,陷入本質困境:前者是“為難人”,后者是“為難機器”。
![]()
大曉機器人率先提出“以人為中心” 的ACE具身研發(fā)范式。ACE具身研發(fā)范式中環(huán)境式數據采集可實現一年千萬小時的數據收集,開悟世界模型3.0則不斷放大真實數據價值,使其達到上億小時數據規(guī)模的效果。
ACE研發(fā)范式徹底顛覆傳統邏輯,將人類與物理世界的互動規(guī)律作為核心研究起點,以環(huán)境式數據采集為引擎,構建了一套從“環(huán)境式數據采集—開悟世界模型3.0—具身交互”的全鏈路技術體系。
新民晚報記者了解到,ACE范式核心技術之一環(huán)境式數據采集技術,通過跨視角多模態(tài)設備,融合視覺、觸覺、語音、力學規(guī)律等多維度數據,物理級建模與全場景覆蓋的創(chuàng)新設計,為具身智能模型訓練提供“人—物—場”全要素精準數據支撐。
![]()
在即時零售倉儲場景中,該方案已實現多視角數據采集,完成倉儲分揀與打包全流程,涵蓋五大階段13個原子動作;在居家、零售等多元場景中,也已實現對人體自然行為、物品交互軌跡的精準捕捉,甚至能復現遙操作范式下難以實現的生鮮抓取、精細化放置等任務。
以環(huán)境式采集數據為基,大曉機器人發(fā)布了首個開源且商業(yè)化應用的世界模型——開悟世界模型3.0,形成跨本體的統一世界理解框架,融合物理規(guī)律、人類行為和真機動作,使機器不僅能“理解”物理世界因果規(guī)律,還能“生成”長時動靜態(tài)交互場景,進而“預測”萬千可能。
![]()
據透露,開悟世界模型3.0已與沐曦股份、壁仞科技、中科曙光等多款廠商國產芯片完成適配,極大提升了芯片性能。
具身超級大腦模組A1發(fā)布,加速商業(yè)場景落地
大曉機器人推出具身超級大腦模組A1,并與行業(yè)伙伴共建具身智能創(chuàng)新生態(tài),加速機器人商業(yè)化落地,推進具身智能產業(yè)價值。
![]()
基于大曉機器人團隊領先的純視覺無圖端到端VLA模型優(yōu)勢,搭載具身超級大腦模組A1的機器狗無需預采高精地圖即可適應復雜、動態(tài)、陌生環(huán)境。依托模型的視覺理解和運動規(guī)劃能力,機器人能實現動態(tài)環(huán)境下魯棒、安全、合理的路徑生成,真正實現“自主行動”。
具身超級大腦模組A1具備擁有云端交互能力,依托云端模型平臺,能實時解析自然語言指令與圖像語義的意圖關系,像人一樣理解復雜的現實世界,生成可執(zhí)行的中間指令(如“前進50厘米”“繞過障礙”“靠近目標”),再由底層控制器精確執(zhí)行。這使得機器狗不僅能夠在復雜環(huán)境中完成自主巡檢、跟隨、避障等多樣任務,而且能根據自然語言指令精準完成任務。
此外,大曉機器人結合Insta360全景感知方案與商湯方舟通用視覺平臺,構建起全方位、高精度的環(huán)境感知體系。不僅能覆蓋超10個行業(yè),還可實現超150個智能化應用場景適配,覆蓋從日常行為分析到特殊風險預警的全需求。
“具身超級大腦模組A1在安防、能源、交通、文旅等對設備可靠性要求極高的場景中,可實現長期穩(wěn)定工作,讓具身智能真正具備了走進產業(yè)一線的實用價值。”大曉機器人首席科學家陶大程介紹。
值得一提的是,當前,具身智能產業(yè)進入加速落地的關鍵階段,大曉機器人以生態(tài)協同為核心,與具身廠商、硬件、芯片、云服務、數據廠商等多領域伙伴達成戰(zhàn)略合作,共同搭建全鏈路自主可控的具身智能生態(tài),推動技術從單點突破走向場景化落地。
原標題:《大曉機器人來了!發(fā)布“以人為中心”ACE具身研發(fā)范式,構建開放新生態(tài)》
欄目編輯:陸梓華
本文作者:新民晚報 郜陽
采訪對象供圖




京公網安備 11011402013531號