暨南大學融媒體中心訊 近日,智能科學與工程學院/人工智能產業(yè)學院楊光華教授領銜的智能感知團隊在城市級實景三維重建領域取得重要突破,其最新研究成果“Robust and Efficient 3D Gaussian Splatting for Urban Scene Reconstruction”被國際計算機視覺頂會ICCV 2025接收。該論文以 2022級級碩士研究生袁振聲為第一作者,楊光華教授與王迪老師為共同通訊作者,黃浩智老師及 2022級級碩士研究生熊楨為重要合著者。
研究多維度創(chuàng)新攻克城市級三維重建難題。針對城市級大規(guī)模場景中3D Gaussian Splatting(3DGS)實景三維建模面臨的多重技術瓶頸,如重建時間長、顯存開銷大、渲染幀率低,以及復雜光照下外觀變化劇烈、動態(tài)物體干擾頻繁、偽影現象突出等挑戰(zhàn),研究團隊進行了多維度技術創(chuàng)新,實現了重建質量的業(yè)界最優(yōu)水平。
基于可見性的智能數據分區(qū)策略:通過獨創(chuàng)的可見性評估算法,精準篩選對分區(qū)重建具有貢獻的影像數據,大幅削減訓練階段的數據冗余量,重建效率大幅提升。

分區(qū)優(yōu)先的資源動態(tài)分配機制:提出創(chuàng)新的分區(qū)內資源優(yōu)先調度策略,在顯著降低顯存占用的同時提升重建速度;同時提出了可控細節(jié)層次(Level of Detail,LOD)生成策略,實現自底向上的多尺度建模,確保城市級場景的實時渲染性能。

精細化的外觀變換建模:構建基于Gaussian基元的外觀差異模型,以單個基元為操作單元實現場景外觀的精準變換,有效增強對復雜光照、季節(jié)差異等動態(tài)變化的魯棒性。

多維度正則化增強技術:提出融合尺度和深度的聯(lián)合正則化技術,結合Mip-Splatting 與AbsGS算法優(yōu)勢提升細節(jié)表現力;引入目標檢測與語義分割模型實現瞬態(tài)物體過濾,進一步提升了保真度和魯棒性。
研究重建效果與效率雙雙獲突破。多場景實驗數據表明,新技術偽影更少、細節(jié)恢復能力更強、在重建質量上處于業(yè)界最優(yōu)水平;同時,資源開銷合理且可控,可保證在24GB甚至更少顯存下的實時渲染,展示了其在城市規(guī)模場景下的廣泛應用價值與巨大潛力。



研究致力構建低空經濟數字基礎設施。依托城市級實景三維重建技術,團隊成功研發(fā)了“低空經濟數字底座”。通過“關鍵技術-智能算法-應用場景”三位一體的創(chuàng)新架構,打造面向未來的低空經濟數字基礎設施。

該平臺具備三大核心能力:1. 城市級高精度實景三維建模;2. 全域精細化智能管控;3. 多場景低空應用數字賦能。目前“低空經濟數字底座”正在智慧文旅、無人機巡檢、低空物流等領域開展示范性應用。
(暨南大學低空經濟數字底座)
ICCV是計算機視覺領域的三大頂級會議之一,同時也是中國計算機學會(CCF)推薦的A類會議。ICCV 2025將于2025年10月19—23日在美國夏威夷舉行。
責編:蘇倩怡