近日,云從科技(688327)聯合上海交通大學、香港科技大學(廣州)等多所高校及科研機構,共同發布全球首個針對“空對空”場景的百萬級多模態反無人機視覺追蹤基準UAV-Anti-UAV,同步推出基于Mamba架構的強力基線模型MambaSTS。
據介紹,該成果填補了低空動態追蹤領域的技術空白,為反無人機實戰化應用提供了核心支撐,標志著我國在多模態大模型與低空安全技術融合領域取得重要突破。
隨著低空經濟的蓬勃發展,無人機安全管控成為全球關注的焦點。傳統反無人機技術多集中于“空對地”或“地對空”場景,難以應對追蹤者與目標均高速飛行的“空中纏斗”場景——此類場景存在雙重動態干擾、極速尺度變化、運動模糊等多重挑戰,現有技術往往難以精準追蹤。
而此次云從科技聯合發布的UAV-Anti-UAV基準,則構建了行業首個大規模標準測試床。該數據集包含1810個視頻序列、總幀數達105萬幀,總時長近9.85小時,涵蓋固定翼、多旋翼、垂直起降等5大類無人機目標。該數據集不僅提供精細邊界框標注,還新增自然語言描述標注,支持視覺-語言跨模態追蹤研究,同時標注了快速運動、光照變化等15種高挑戰屬性。從難度來看,其平均相對速度高達0.79,遠超現有主流數據集,且包含大量微小目標與劇烈尺度變化,堪稱反無人機追蹤領域的“地獄難度”測試基準。
為應對這一高難度任務,研究團隊推出MambaSTS基線模型。該模型創新融合空間、時間、語義三重學習能力,采用混合架構設計:通過分層視覺Transformer提取多尺度空間特征,借助預訓練LanguageMamba挖掘文本語義信息,幫助模型在模糊場景中精準識別目標;其獨創的時間Token傳播機制,如同為模型賦予“視頻記憶”,能通過Mamba的選擇性掃描功能,留存歷史幀中目標的軌跡與外觀信息,即便目標被遮擋也能快速找回。
針對視頻追蹤的因果特性,模型還優化為單向掃描機制,更契合實時追蹤需求。在50個主流深度追蹤算法的評測中,MambaSTS表現突出,在全部5項核心指標上均排名第一,AUC達0.437、mACC達0.443,較第二名領先6.6個百分點。
值得關注的是,該模型在傳統“空對地”“地對空”數據集上同樣取得SOTA性能,證明其具備強大的泛化能力,并非局限于特定場景的“過擬合”模型。
在業內看來,UAV-Anti-UAV基準的發布,為行業提供了統一的技術評測標準,將加速反無人機技術的迭代升級;MambaSTS模型的技術突破,則為實戰化應用提供了高效解決方案,可廣泛應用于安防監控、空域管理、重大活動安保等場景。





京公網安備 11011402013531號