波士頓動力也搞端到端AI了!
這次升級,Atlas不僅可以聽懂自然語言指令,還可以自主規劃動作和處理意外。
只見小哥故意合上蓋子,機器人仍能識別并打開箱子。

故意挪動箱子位置,它也能精確識別到變化。

即使附近有遺漏的裝置,它也能發現,并準確放入箱子內。

據介紹,此次更新由波士頓動力與豐田研究院聯手推出,基于大型行為模型(LBM),帶來了Atlas的全新版本——Atlas MTS。
新成果一出,網友們紛紛叫好,光是官方在YouTube發布的視頻觀看人數就突破十萬,點贊超一萬。

另有一批網友則欣慰的表示,膝蓋可以彎曲了,那背部就不會受傷了。

哇哦,點贊數2.4K說明大家都很關心機器人身體健康嘛~
除此之外,關于全新能力具體實現,官方發布了詳細報告。
給Atlas裝上大腦
報告指出,端到端的語言條件策略能讓機器人充分發揮自身優勢,實現行走、精確放置雙腳、蹲下、轉移重心,同時避免自身碰撞。
這種策略構建過程分為以下4個步驟:
收集具身行為數據;
處理、標注和整理數據;
訓練神經網絡;
利用測試任務評估該策略。

更值得關注的是,此次大型行為模型采用4.5億參數的擴散Transformer模型,并結合流匹配目標,能將包括30Hz圖像、人體感覺和自然語言指令等輸入信息轉化為控制Atlas活動的動作指令。
說簡單點,Transformer像“全局之眼”, 把控整體架構和動作細節的關聯。擴散是細化步驟,將模糊指令轉化為精準動作。流匹配損失則是真實參照,讓動作既貼合現實,又能靈活適應不同場景。

在此過程中,波士頓動力關鍵的是將Atlas的模型預測控制器與VR界面結合,從而覆蓋從手指級精細操作到全身伸展、移動等各類任務需求。
這使得遠程操作員能夠充分發揮機器人的性能,將自身動作和感知與機器人的狀態保持同步。

除此之外,此次升級最值得關注的是,Atlas能自主處理意外情況。
當出現問題時,比如零件掉在地上或箱蓋未關閉,Atlas都能智能地做出反應。
這簡直就是給Atlas裝上大腦!

不僅如此,官方還稱只要是人能演示的動作,Atlas都可以學習它,包括但不限于系繩子、折疊椅子和翻輪胎等。

不得不說,這學習能力真的驚到我了。

告別液壓,電驅機器人更適合AI
說起波士頓動力機器人,那不得不提一下Atlas液壓版。

此版本在2024年4月已退役,且在24小時內發布全電動版本。
畢竟液壓系統不僅成本高,響應慢,還難以與AI系統集成。
相比之下,電機驅動更精確、能耗低,且天然適配AI學習框架。
自波士頓動力轉向電驅動以來,他們也是不斷推出新動作。
去年8月,Atlas在RSS(機器人頂會)上大秀俯臥撐(當時還是沒有手指的,也可以稱為拳臥撐)。
動作那是相當標準~

過了兩個月,它就可以進廠打工了,只需告訴Atlas前后搬運的位置坐標,它就能全自動分裝物件。

而在今年5月份,波士頓動力再次升級,讓機器人具備3D空間感知和實時物體追蹤能力,可以自主執行更復雜的工業任務。

此次的大型行為模型(LBM),也意味著它正擁抱全新的技術方向。
看完液壓轉電驅的波士頓,再來了解一下國內一直采用電驅的宇樹。
從四足機器狗Go系列,到人形機器人H1、G1、R1,宇樹始終延續著“小而美”的電驅哲學,用更快的迭代速度,逐漸在全球打響了名號。

現在,180“芭蕾舞者”都出來了。

未來,隨著電驅技術與AI算法的不斷融合,電驅機器人的時代才將真正到來。
— 完 —





京公網安備 11011402013531號