文 | 張卓倩
編輯 | 彭孝秋
36氪獲悉,專注于機器人全向3D視覺感知技術的天津環視智能科技有限公司(以下簡稱「環視智能」)已于近日完成千萬級人民幣天使輪融資,由天潤嘉誠領投,成都高投跟投,帕累托森林擔任獨家融資財務顧問。本次融資資金將用于產品量產、行業配套方案開發以及市場與生產體系建設。
「環視智能」成立于2024年4月,是一家專注研究機器人感知規劃控制技術的科技企業,其生產的全向 3D 立體視覺感知功能標準模組已應用于無人機、無人車、足式機器人、人形機器人等多種場景。此外,「環視智能」還可為量產機器人提供定制化方案。
![]()
環視智能空間感知模組
隨著機器人行業的發展,機器人對感知的需求從低層次向高層次遷移,從 3D 視覺向空間智能升級,需實現環境建模、語義理解、情景理解和任務規劃。「環視智能」創始人孫航介紹,“兩年前主機廠注重激光雷達數量,如今越來越多廠家轉向純視覺路線”。因 AI 技術進步,純視覺在 99% 場景中可媲美甚至超越激光雷達,且機器人與自動駕駛行業技術相通,自動駕駛視覺技術可下沉至機器人行業。
然而,機器人從專用走向通用的最大瓶頸恰恰就在于感知。激光雷達以點云形式輸出,信息密度低,無法分辨顏色、材質,成本仍保持在3000元以上;深度相機視野不足90°,后端需百TOPS級算力,整機BOM瞬間破萬;純視覺方案雖能降本,卻受限于算力、功耗與海量標注數據,難以在10%整機成本紅線內落地。多傳感器融合又帶來噪聲疊加、標定復雜、售后成本不可控等問題。行業急需一款“看得全、算得快、賣得便宜”的通用視覺模組。
「環視智能」給出的答案是一枚直徑10厘米的標準模組:4顆200°廣角攝像頭融合出800°全向視野,任意方向均具備稠密空間測量能力,徹底消除白墻、玻璃等無紋理場景下的“死鎖”盲區。模組內置自研硬件3D空間計算引擎,將3D幾何運算從AI推理中解耦,僅需10-30 T即可在邊緣端完成全局3D信息、語義理解與意圖預測,延遲<30 ms、功耗<5 W。
“過去機器人看到一堵白墻等弱紋理情況下,特別容易丟失導航及感知信息,因為沒有紋理可做特征參考”,孫航告訴36氪,“800° 全向視野保證任意方向都有完備的冗余信息,哪怕正面全是白墻,背面依舊有信息輸入,讓機器人知道自己‘卡’在哪。”
在技術路徑上,「環視智能」提出“多目融合+硬件加速”全向3D感知架構,自研2D-3D數據復活技術,可將客戶歷史2D圖像零標注生成3D訓練集,節省80%數據成本;其開發的無監督空間學習框架讓機器人在運行中不斷自我進化,形成可持續迭代的通用世界模型。與特斯拉FSD、Intel RealSense等方案相比,「環視智能」在視野、算力需求、成本三維同時實現代際差:能低成本適配眾多場景,滿足機器人行業對低成本、低算力的需求。
「環視智能」成立一年,營收已實現數百萬量級,主要針對無人機、庭院機器人、清潔機器人、安防類機器人等場景。高校在機器人項目中也產生了小批量訂單。下一步,公司將進一步推動產品量產,擴大在無人機、清潔機器人、高校科研等場景的應用。孫航透露,「環視智能」還將向更深層次的以端到端為導向的產品升級。
「環視智能」核心成員來自天津大學博士團隊。團隊在機器人方向有長期研究和市場化經驗,技術團隊兼具技術研發與產業化、商業化經驗。創始人孫航在校期間師從齊俊桐教授,畢業后曾擔創業企業和大型軍工單位的技術負責人和首席架構師,參與無人機、機器人的環境感知、 智能控制、集群算法等技術的設計與研發,應用于無人機集群產品、智能機器人系統等。





京公網安備 11011402013531號