⏶8
SpatialTrackerV2:三维点跟踪,化繁为简
发表
由
Yuxi Xiao 提交

作者:
Yuxi Xiao,
Jianyuan Wang,
Nan Xue,
Nikita Karaev, Yuri Makarov,
Bingyi Kang, Xing Zhu, Hujun Bao, Yujun Shen, Xiaowei Zhou



摘要
我们提出了 SpatialTrackerV2,这是一种用于单目视频的前馈式三维点跟踪方法。与那些基于现成组件构建的模块化三维跟踪流程不同,我们的方法将点跟踪、单目深度和相机位姿估计之间的内在联系,统一整合到一个高性能的前馈式三维点跟踪器中。它采用完全可微的端到端架构,将世界空间中的三维运动分解为场景几何、相机自运动和像素级物体运动,从而能够在合成序列、带位姿的 RGB-D 视频以及无标签的真实场景录像等各种数据集上进行可扩展的训练。通过从此类异构数据中联合学习几何与运动,SpatialTrackerV2 的性能比现有三维跟踪方法高出 30%,在精度上可与顶尖的动态三维重建方法相媲美,而运行速度则快了 50 倍。
https://cdn-uploads.huggingface.co/production/uploads/6485ce5ec7f19728a49df17a/CnLqJ-XBi46kcVa-0IZbx.mp4
SpatialTrackerV2 是首个能同时进行动态三维重建和三维点跟踪的前馈模型!
它能在数秒内重建动态场景并预测像素级三维运动。
项目:https://spatialtracker.github.io/
代码和模型:https://github.com/henry123-boy/SpaTrackerV2
在线演示:https://huggingface.co/spaces/Yuxihenry/SpatialTrackerV2