機器人也能有“觸覺”,干精細活。
2025年世界人工智能大會(WAIC)于7月26日至28日在上海舉行。由復旦大學可信具身智能研究院團隊自主研發的高精度、低成本“自適應視觸覺AI傳感器”首次公開亮相。這只“觸覺夾爪”可以拿起豆腐、薯片、果凍等易碎品,根據其紋理、軟硬和摩擦特性,精準做到輕起慢落。此外,它還會舀湯圓——控制著勺子,在液體中實時追蹤,舀起一顆漂浮的湯圓后,再放入另一個碗中。整個過程全靠機器人動態適應水流擾動和物體位置變化,在無人工控制的情況下展現出高水平手眼協同能力。



這只“觸覺夾爪”可以拿起豆腐、薯片、果凍等易碎品,還能精準舀湯圓。本文圖片均為“復旦大學”微信公眾號 圖
能做到這些,正是得益于團隊研發的傳感器具備柔性、靈敏、“觸覺神經”、多維力學探測等特點,還有一套融合了視覺感知與AI算法的創新系統。抓取物品時,它的柔軟界面如同人類皮膚般,能適應復雜表面,會自然貼合物體形狀,不會像剛性爪那樣壓壞脆弱物品。同時,它可感知多維受力,包括正壓力、切向力,甚至扭轉力,能靈巧、安全地與外界交互。
復旦大學可信具身智能研究院研究員陳文明介紹,團隊想要機器人不僅能感受到單一的傳統壓力,而且還能具備類人皮膚的感知,能感知壓力、剪切、扭轉、滑移等各種復雜力學交互信息。以往,以壓力信號為指標的傳感技術是單一的感官通道,而下一代具身機器人要突破操作能力瓶頸,必須具備類似人體皮膚的多維觸覺感知能力。
![]()
為破解這一問題,團隊在傳感層內置的微小攝像儀起到關鍵作用。表面接觸到力后,傳感層的粒子會發生位移,進而被攝像頭捕捉到受力形變的信息,再借助AI強大的算力,能將復雜的觸覺信號轉化為高維視覺數據,并把這些視覺信號精準翻譯為力的分布信息,實現力的多維精確解耦。該傳感器靈敏度極高,達到每平方厘米4萬個感知點,具備超高的空間分辨率。
陳文明表示,利用AI的解耦算法,最小的感知力能做到0.01牛頓,而人類指尖皮膚的最小感知閾值大概在0.1牛到0.2牛之間。相比之下,“觸覺夾爪”的感知靈敏極限已達到人體的10倍。由此,該技術在精密加工、電子裝配、高精度分揀等行業具備應用潛能。
復旦大學介紹,高性能傳感器里頭,一端是內窺鏡鏡頭,另一端是多層硅膠材料,再搭配上神經網絡芯片,整體制作成本比傳統“電子皮膚”降低近50倍,量產后價格還能再下調,有望促進高價值行業的自動化升級。下一步,團隊計劃對“自適應視觸覺AI傳感器”進行市場化,同時開展視觸覺融合的大模型訓練,去解決行業內更有挑戰性的問題。該技術應用前景包括搭載觸覺技術的機械夾爪精準抓取易損物品、工業制造領域中高精度分揀與精密裝配、輔助醫療領域完成微創手術等。該技術還可以和假肢相結合,研制出具備觸覺感知能力的先進智能假肢。
今年初,復旦大學可信具身智能研究院成立。研究院專注具身智能的前沿研究與應用落地,是復旦大學面向世界科技前沿的重要戰略布局。“自適應視觸覺AI傳感器”是研究院的重要成果之一,復旦大學可信具身智能研究院團隊曾獲 2023年度國家自然科學二等獎,其15年的視覺技術積累為該項目的算法實現提供了堅實基礎。





京公網安備 11011402013531號