用于快速动态场景表示的混合 3D-4D 高斯泼溅

发表
Oh SeungjunOh Seungjun 提交
作者: Oh SeungjunSeungjun Oh, Young geun LeeYounggeun Lee, JeonHyejinHyejin Jeon, Eunbyung ParkEunbyung Park

摘要

动态 3D 场景重建的最新进展已显示出可喜的结果,实现了具有改进时间一致性的高保真 3D 新视角合成。其中,4D Gaussian Splatting (4DGS) 因其能够建模高保真空间和时间变化而成为一种引人注目的方法。然而,现有方法由于为静态区域冗余分配 4D Gaussians 而遭受巨大的计算和内存开销,这也会降低图像质量。在这项工作中,我们引入了混合 3D-4D Gaussian Splatting (3D-4DGS),这是一个新颖的框架,它自适应地使用 3D Gaussians 表示静态区域,同时为动态元素保留 4D Gaussians。我们的方法从完全 4D Gaussian 表示开始,并迭代地将时间不变的 Gaussians 转换为 3D,显著减少参数数量并提高计算效率。同时,动态 Gaussians 保留其完整的 4D 表示,以高保真度捕获复杂的运动。与基线 4D Gaussian Splatting 方法相比,我们的方法实现了显著更快的训练时间,同时保持或提高了视觉质量。
查看 arXiv 页面查看 PDF

评论

Oh SeungjunOh Seungjun
论文作者
论文提交者

页面:https://ohsngjun.github.io/3D-4DGS/
代码:https://github.com/ohsngjun/3D-4DGS