IT之家 12 月 17 日消息,在香港舉辦的全球圖形學領域學術盛會 SIGGRAPH Asia 2025 上,摩爾線程今日在 3D Gaussian Splatting Reconstruction Challenge(3DGS 重建挑戰賽)中憑借自研技術 LiteGS 斬獲銀獎。
3D Gaussian Splatting(3DGS,三維高斯濺射)是 2023 年提出的一項 3D 場景表示與渲染技術,以可參數化的 3D 高斯分布為核心,實現了畫質、效率與資源占用之間的平衡。與傳統 NeRF 相比,3DGS 在保持逼真渲染質量的前提下,將渲染效率提升數百至上千倍,并在光線追蹤、VR / AR 實時渲染、多模態融合等方向展現出極強的適應性與擴展性。
![]()
本次競賽為參賽團隊設置的任務為:參賽者需在 60 秒內,基于主辦方提供的真實終端視頻序列(10–30 秒)、存在誤差的相機軌跡以及終端 SLAM 點云,在極短時間內完成完整的 3DGS 高質量重建。
摩爾線程 AI 團隊以參賽編號“MT-AI”進入決賽階段,在重建精度與效率兩項指標上取得亮眼表現:
平均 PSNR:27.58(位列前三)重建耗時:34 秒(領先多數隊伍)
憑借 3DGS 算法構建能力與軟硬件協同優化優勢,摩爾線程最終獲得二等獎(銀牌)的成績。
![]()
作為一種新興的場景表示與新視角合成技術,3DGS 憑借高渲染質量與實時渲染速度,在計算機圖形學與視覺領域實現了顯著突破。該技術通過數以百萬計的各向異性三維高斯基元來表示三維場景,以實現逼真的渲染效果,并在自動駕駛、虛擬現實、數字孿生等領域展現出巨大潛力。
然而,盡管 3DGS 的渲染速度極快,其訓練過程卻往往需要數十分鐘甚至數小時,成為制約其廣泛應用的主要瓶頸。現有優化方案往往僅從單一層面入手,難以系統性地解決訓練過程中的性能制約。
為此,摩爾線程自主研發了 3DGS 基礎庫 LiteGS,首次實現了從底層 GPU 系統、中層數據管理到高層算法設計的全鏈路協同優化:
在 GPU 系統層面,摩爾線程創新提出基于“One Warp Per Tile”原則的“Warp-based Raster”新范式,將梯度聚合簡化為一次 Warp 內歸約,并結合掃描線算法與混合精度策略,大幅降低梯度計算開銷,同時實現高效的像素級統計能力;在數據管理層,引入“聚類-剔除-壓縮”流水線,借助 Morton 編碼以極低開銷對高斯基元進行動態空間重排,顯著提升數據局部性,減少緩存失效與 Warp 分支;在算法設計層,摒棄原有模糊的度量指標,采用更為魯棒的像素不透明度梯度方差作為致密化的核心判據,精準識別欠擬合區域,其輕量化計算直接受益于底層光柵化器的高效統計支持。
![]()
通過系統與算法的協同優化,LiteGS 在訓練效率與重建質量上均實現顯著領先。
在達到與當前質量最優方案同等水平時,LiteGS 可獲得 10.8 倍的訓練加速,且參數量減少一半以上;在相同參數量下,LiteGS 在 PSNR 指標上超出主流方案 0.2–0.4 dB,訓練時間縮短 3.8 至 7 倍。
針對輕量化模型,LiteGS 僅需原版 3DGS 約 10% 的訓練時間與 20% 的參數量,即可實現同等質量。
![]()
目前,LiteGS 已在 GitHub 平臺全面開源,IT之家附開源地址如下:





京公網安備 11011402013531號