MonoPlace3D:学习用于 3D 单目检测的 3D 感知物体放置

发表
Rishubh PariharRishubh Parihar 提交
作者: Rishubh PariharRishubh Parihar, Srinjay Sarkar, Sarthak Vora, Jogendra Kundu, R. Venkatesh Babu

摘要

当前的单目3D检测器受到真实世界数据集有限的多样性和规模的限制。虽然数据增强肯定有所帮助,但为户外环境生成逼真的、感知场景的增强数据尤其困难。目前大多数合成数据生成方法都侧重于通过改进的渲染技术来实现逼真的物体外观。然而,我们表明,物体的位置和放置方式对于训练有效的3D单目检测器同样至关重要。关键障碍在于自动确定逼真的物体放置参数——包括将合成物体引入实际场景时的位置、尺寸和方向对齐。为了解决这个问题,我们引入了 MonoPlace3D,这是一个新颖的系统,它考虑了 3D 场景内容来创建逼真的增强。具体而言,给定一个背景场景,MonoPlace3D 学习了 plausible 3D 边界框的分布。随后,我们渲染逼真的物体,并根据从学习到的分布中采样的位置放置它们。我们在两个标准数据集 KITTI 和 NuScenes 上的全面评估表明,MonoPlace3D 显着提高了多个现有单目 3D 检测器的准确性,同时具有很高的数据效率。
查看 arXiv 页面查看 PDF

评论

Rishubh PariharRishubh Parihar
论文作者
论文提交者

mono-place-gif.gif