Ponimator:用于多功能人机交互动画的展开交互姿势

发表
Shaowei LiuShaowei Liu 提交
作者: Shaowei Liu, Chuan Guo, Bing Zhou, Jian Wang

摘要

AI 生成总结
Ponimator 使用条件扩散模型从动作捕捉数据中生成和合成交互式姿势,从而实现多功能的交互动画任务。
近距离人与人之间的互动姿势传达了丰富的互动动态背景信息。鉴于这种姿势,人类可以直观地推断上下文并预测可能的过去和未来动态,这得益于强大的人类行为先验。受此启发,我们提出了 Ponimator,一个以近距离互动姿势为基础的通用互动动画的简单框架。我们的训练数据由运动捕捉互动数据集中的近距离两人姿势及其周围时间上下文组成。利用互动姿势先验,Ponimator 采用两个条件扩散模型:(1)一个姿势动画器,它使用时间先验从互动姿势生成动态运动序列;(2)一个姿势生成器,当互动姿势不可用时,它应用空间先验从单个姿势、文本或两者的组合中合成互动姿势。总而言之,Ponimator 支持各种任务,包括基于图像的互动动画、反应动画和文本到互动合成,有助于将互动知识从高质量的运动捕捉数据转移到开放世界场景。通过在各种数据集和应用中的实证实验,证明了姿势先验的通用性以及我们框架的有效性和鲁棒性。
查看 arXiv 页面查看 PDF

评论

Shaowei LiuShaowei Liu
论文提交者

我们提出了 Ponimator (ICCV 2025),一个将交互式姿势转化为逼真的人与人之间运动的生成框架,支持基于图像、文本和姿势的交互式动画。

Github: https://github.com/stevenlsw/ponimator

https://cdn-uploads.huggingface.co/production/uploads/670462c6fd5ef6902568d7bd/Gf2iuX_oC91EJ1Q8uiEyZ.mp4