Memp: 对代理程序性记忆的探索

发表
Ningyu ZhangNingyu Zhang 提交
作者: Runnan Fang, Yuan Liang, Xiaobin Wang, Jialong Wu, Shuofei Qiao, Pengjun Xie, Fei Huang, Huajun Chen, Ningyu ZhangNingyu Zhang

摘要

大型语言模型(LLM)驱动的代理在各种任务中表现出色,但其程序记忆却存在脆弱性,这种记忆或是手动设计,或是纠缠在静态参数中。在这项工作中,我们研究了如何赋予代理一种可学习、可更新且终身持续的程序记忆。我们提出了 Memp,它能将过去的代理轨迹提炼成细粒度的分步指令和更高层次的脚本式抽象,并探索了构建、检索和更新程序记忆的不同策略的影响。结合持续更新、纠正和废弃其内容的动态机制,这个存储库会随着新经验的出现而同步演进。在 TravelPlanner 和 ALFWorld 上的实证评估表明,随着记忆库的完善,代理在类似任务上的成功率稳步提高,效率也更高。此外,由更强大的模型构建的程序记忆依然具有其价值:将程序记忆迁移到较弱的模型上,也能带来显著的性能提升。
查看 arXiv 页面查看 PDF

评论

Ningyu ZhangNingyu Zhang
论文作者
论文提交者

我们提出了 Memp,它能将过去智能体(agent)的轨迹提炼成细粒度的、按步骤的指令和更高级别的、类似脚本的抽象,并探讨了在构建、检索和更新程序记忆时不同策略的影响。

x32x32

本质上,它仍然是一个工作流程,而不是一个真实世界的智能体。

Ningyu ZhangNingyu Zhang
论文作者
论文提交者

是的,当前的代理是基于提示的,其架构在持续的参数训练过程中仍然脆弱。在这项工作中,我们对代理的程序记忆的一些设计进行了初步探索。