很抱歉,您提供的信息不完整,我无法直接给出答案。请您提供更具体的问题或信息,这样我才能更好地帮助您。

摘要:背景 智能体记忆如今极其碎片化,研究人员们发现,当大家谈论智能体记忆时,所指的可能完全是不同的事物:有人专注于存储用户对话历史,有人研究如何从失败中提炼策略,还有人试图将知识直接烙进模型参数里。同时,大量新兴术语(如陈述性记忆、情景记忆、参
背景 智能体记忆如今极其碎片化,研究人员们发现,当大家谈论智能体记忆时,所指的可能完全是不同的事物:有人专注于存储用户对话历史,有人研究如何从失败中提炼策略,还有人试图将知识直接烙进模型参数里。同时,大量新兴术语(如陈述性记忆、情景记忆、参数记忆等)的涌现,进一步模糊了概念的清晰度 因此,这篇综述直指当前领域的核心痛点:我们迫切需要一套能够统一定义、厘清边界、并指引未来方向的系统性框架。论文旨在回答几个根本性问题: 智能体记忆究竟是什么? 智能体记忆有哪些不同的实现形态? 智能体记忆被设计来达成何种目的? 智能体记忆是如何随着时间动态发展、演化和使用的? 针对这些问题,论文界定了智能体记忆和几个易混淆概念的边界与练习,并在形式、功能、动态三个维度上提出了统一的分类体系,这项研究系统性的梳理了已有的智能体工作和评测基准,为后续研究提供了扎实的理论基础 什么是智能体记忆 智能体被形式化地定义为一个在特定环境中感知、决策并行动的系统。这个环境可以是一个网站浏览器、一个代码仓库,甚至是一个多人在线的虚拟世界。智能体通过传感器(通常是 LLM 对文本或图像的理解能力)获取 "观察",然后基于这些观察和自己的 "记忆" 来选择一个 "动作" 智能体记忆和 LLM 记忆的关系:智能体记忆在概念让包含了早期的 LLM 记忆(如何在多轮互动中维持状态与身份) 智能体记忆与 RAG 的关系:智能体 RAG 通常操作的是一个为特定任务准备的外部数据库,而智能体记忆维护的是一个属于智能体自身、持续累积、跨越任务的内部记忆基底(随着环境交互而动态增长、演化的) 智能体记忆与上下文工程的关系:二者的重合程度较高;上下文工程关注的是如何把 "信息" 喂给大模型,而智能体记忆更关注智能体应该知道什么、如何成长。一个是接口,一个是内在 智能体记忆不是管理在推理时向模型呈现信息的方式,而是控制智能体知道什么、经历过什么以及这些元素如何随着时间的推移而演变。这包括将重复的交互整合为知识,从过去的成功和失败中抽象出程序性知识,以及在任务和场景之间保持一致的身份 智能体记忆的实现形态 (1) Token-level Memory 这是最直观常见的记忆形式,最大的优点是透明、可解释、易编辑。我们可以随时查看智能体记住了什么,修改错误的信息,或者删除过时的内容。例如早期著名的 MemGPT 框架,就模仿计算机操作系统的内存管理,将对话历史和外部的文档知识作为 "虚拟内存" 进行分页管理,实现了超越模型原生上下文长度的 "记忆" 能力 根据组织这些 token 的结构复杂度,token-level memory 又可以分为三类: 扁平记忆(1D):像日记本一样按时间顺序或简单堆叠记录,易于增删,但查找和关联信息效率较低 平面记忆(2D):引入了结构,如用树来组织对话的层次,或用图来连接不同的知识点(如 A-MEM 系统将记忆组织成互相关联的卡片网络)。这提升了信息的组织性和关联推理能力 分层记忆(3D):在平面结构上叠加了抽象的层级,形成多层级结构。例如 GraphRAG 通过社区检测构建多层索引,或 G-Memory 为多智能体系统设计的三层图(交互、查询、洞察层)。这种结构能同时管理细节与大局,支持从宏观战略到微观执行的垂直信息检索 (2) Parametric Memory 将记忆直接写入模型的权重参数之中,它不像外部笔记那样可以被随时翻阅,而是像人通过反复练习学会骑自行车一样,将技能或知识转化为一种内隐的、本能式的反应模式 这种记忆又分为两种路径:一种是直接调整大模型本身的参数(内部参数记忆),例如通过微调让模型记住某个用户的特定偏好;另一种是在模型之外附加轻量级的 "适配器" 模块(如 LoRA),让新记忆存放在这些额外参数中,而不改动原始模型,实现模块化的记忆更新(外部参数记忆)。 参数记忆的优势在于推理速度快、无需外部检索,知识被直接激活。但其缺点也很明显:更新成本高(需要训练),且容易导致 "灾难性遗忘" (3) Latent Memory 将记忆存储在模型推理过程中的中间状态里,例如 Transformer 模型中的 KV Cache 的形式,论文将此种方法分为三类: 生成式:让模型动态生成一些特殊的 "记忆令牌" 或压缩向量,来代表当前重要的信息,供后续步骤使用 重用式:直接保存和复用之前计算产生的中间状态,避免重复计算,是实现高效长上下文处理的关键技术之一 转换式:对已有的中间状态进行压缩、剪枝或聚合,在保留核心信息的同时减少存储开销 (4) 总结 这三种形态的记忆并非彼此排斥,而是构成了一个连续的谱系。
阅读全文