Mem0:构建具备可扩展长期记忆的生产级AI智能体

发表
AKAK 提交
作者: Prateek ChhikaraPrateek Chhikara, Dev Khant, Saket Aryan, Taranjeet Singh, Deshraj YadavDeshraj Yadav

摘要

大型语言模型(LLMs)在生成上下文连贯的响应方面展现出了卓越的能力,然而,其固定的上下文窗口为在长时间多轮对话中保持一致性带来了根本性挑战。我们引入 Mem0,一种可扩展的以记忆为中心的架构,通过动态提取、整合和检索正在进行的对话中的关键信息来解决这个问题。在此基础上,我们进一步提出了一种增强变体,它利用基于图的记忆表示来捕捉对话元素之间复杂的关联结构。通过在 LOCOMO 基准上的全面评估,我们将我们的方法与六类基线进行了系统比较:(i) 已有的记忆增强系统,(ii) 不同块大小和 k 值的检索增强生成(RAG),(iii) 处理整个对话历史的完整上下文方法,(iv) 开源记忆解决方案,(v) 专有模型系统,和 (vi) 专门的记忆管理平台。经验结果表明,我们的方法在四类问题上始终优于所有现有记忆系统:单跳、时间、多跳和开放领域。值得注意的是,Mem0 在 LLM-as-a-Judge 指标上相对于 OpenAI 实现了 26% 的相对提升,而带有图记忆的 Mem0 比基础配置的总得分高出约 2%。除了准确性提升之外,我们还显著降低了与完整上下文方法相比的计算开销。具体来说,Mem0 的 p95 延迟降低了 91%,并节省了超过 90% 的 token 成本,在高级推理能力和实际部署约束之间提供了令人信服的平衡。我们的研究结果强调了结构化、持久性记忆机制对于保持长期对话连贯性的关键作用,为更可靠、更高效的 LLM 驱动的 AI 智能体铺平了道路。
查看 arXiv 页面查看 PDF

评论

AKAK
论文提交者

Screenshot 2025-04-29 at 6.56.57 PM.png