⏶28
用于快速动态场景表示的混合 3D-4D 高斯泼溅
发表
由
Oh Seungjun 提交
作者:
Seungjun Oh,
Younggeun Lee,
Hyejin Jeon,
Eunbyung Park
摘要
动态 3D 场景重建的最新进展已显示出可喜的结果,实现了具有改进时间一致性的高保真 3D 新视角合成。其中,4D Gaussian Splatting (4DGS) 因其能够建模高保真空间和时间变化而成为一种引人注目的方法。然而,现有方法由于为静态区域冗余分配 4D Gaussians 而遭受巨大的计算和内存开销,这也会降低图像质量。在这项工作中,我们引入了混合 3D-4D Gaussian Splatting (3D-4DGS),这是一个新颖的框架,它自适应地使用 3D Gaussians 表示静态区域,同时为动态元素保留 4D Gaussians。我们的方法从完全 4D Gaussian 表示开始,并迭代地将时间不变的 Gaussians 转换为 3D,显著减少参数数量并提高计算效率。同时,动态 Gaussians 保留其完整的 4D 表示,以高保真度捕获复杂的运动。与基线 4D Gaussian Splatting 方法相比,我们的方法实现了显著更快的训练时间,同时保持或提高了视觉质量。
页面:https://ohsngjun.github.io/3D-4DGS/
代码:https://github.com/ohsngjun/3D-4DGS