EnerVerse-AC:基于动作条件的具身环境设想

发表
SiyuanSiyuan 提交
作者: Yuxin JiangYuxin Jiang, Shengcong ChenShengcong Chen, Siyuan HuangSiyuan Huang, Liliang ChenLiliang Chen, Pengfei Zhou, Yue Liao, Xindong He, Chiming Liu, Hongsheng LIHongsheng Li, Maoqing YaoMaoqing Yao, Guanghui RenGuanghui Ren

摘要

机器人模仿学习已经从解决静态任务发展到处理动态交互场景,但由于需要与动态环境进行实时交互,测试和评估仍然成本高昂且具有挑战性。我们提出了 EnerVerse-AC (EVAC),这是一种动作条件下的世界模型,可根据代理预测的动作生成未来的视觉观测结果,从而实现真实且可控的机器人推理。在现有架构的基础上,EVAC 引入了多级别动作调节机制和光线图编码,用于动态多视图图像生成,同时扩展了包含多样化失败轨迹的训练数据以提高泛化能力。作为数据引擎和评估器,EVAC 将人类收集的轨迹增强为多样化数据集,并生成逼真的、动作条件的视频观测结果用于策略测试,从而消除了对物理机器人或复杂模拟的需求。这种方法显著降低了成本,同时在机器人操作评估中保持了高保真度。大量实验验证了我们方法的有效性。代码、检查点和数据集可在 <https://annaj2178.github.io/EnerverseAC.github.io&gt; 找到。
查看 arXiv 页面查看 PDF
EnerVerse-AC:基于动作条件的具身环境设想

评论

SiyuanSiyuan
论文提交者

项目页面:https://annaj2178.github.io/EnerverseAC.github.io/

开源代码:https://github.com/AgibotTech/EnerVerse-AC

概述:

image.png

应用:

EVAC 可用作策略评估器和数据引擎。

leaf-fail.gif