Skip to content

AIMeetsBrain

5. memory storage

5.1 认知神经科学中的记忆存储 (Memory Storage in Cognitive Neuroscience)

人类大脑中的记忆存储不是单一的过程,而是多个系统在不同时间尺度上的动态交互。作者将其划分为短期记忆和长期记忆来分别探讨。

5.1.1 短期记忆存储 (Short-term Memory Storage)

短期记忆在一个有限的时间窗口内(通常几秒到十几秒)临时处理和维护少量信息。 * 存储位置 (Storage Location): 短期记忆并不存储在单一的脑区,而是依赖于一个分布式的系统——感觉-额顶网络 (sensory-frontoparietal network)。 * 感觉皮层 (Sensory cortices):负责保留视觉、听觉等细粒度的感官细节。 * 前额叶皮层 (Prefrontal cortex):起到“调节器”的作用,负责设定优先级、分配有限的记忆资源,并将信息重新编码以满足接下来的行为需求。 * 额顶网络 (Frontoparietal network):支持跨模态表征,允许大脑将不同感官(如视觉和听觉)的信息连接在一个共享的表征空间中。 * 存储格式 (Storage Format): 在细胞和神经回路级别,短期记忆主要通过两种机制维持: 1. 持续活动 (Persistent activity):经典的记忆方式,即在外部刺激消失后,编码记忆的神经元依然保持高水平的放电活跃状态。这种方式非常直接,但非常消耗能量,并且容易受到外界干扰。 2. 突触连接权重 (Synaptic connection weights):这是一种“活动静默 (activity-silent)”的替代方案。神经元群体会回落到基线放电水平,但信息通过神经元之间突触权重的临时改变被保留下来。 * 现状共识: 大脑实际上是在这两种机制之间动态切换的。位于“注意力焦点”内的高优先级信息通过持续放电保持活跃,而焦点之外但可能还有用的信息则进入静默存储,直到需要时再被重新激活。

5.1.2 长期记忆存储 (Long-term Memory Storage)

长期记忆能够保存数分钟到数十年,其神经机制更为复杂。大脑不会像录像机一样保留所有原始细节,而是逐渐将经验转化为更结构化、更抽象的表征。 * 存储位置 (Storage Location): 依赖于海马体 (Hippocampus)新皮层 (Neocortex) 的协同工作。 * 新信息最初在分布式的新皮层中编码,随后这些信号汇聚到海马体。海马体并不是“记忆仓库”,而是扮演“索引 (Index)”的角色,负责重新激活分散的记忆痕迹。 * 随着时间的推移(系统巩固),新记忆逐渐摆脱对海马体的依赖,最终长期保存在新皮层网络中。 * 存储格式 (Storage Format): 1. 基于事件的单元 (Event-based unit):大脑会自动将丰富连续的日常体验“切割”成离散的情节(事件单元)。虽然事件的构成元素分散在新皮层,但海马体能将它们“绑定”成一个统一的整体。通过海马体-新皮层在事件边界的“回放 (replay)”,不同事件又能连贯起来。 2. 认知地图 (Cognitive map):由海马体-内嗅皮层回路构建的心智坐标系。它不仅用于物理空间的导航定位,还用于组织抽象知识、概念和经验。过去的经验会被表征为这个多维认知空间中的一个个“点”,通过计算知识单元之间的“距离”,大脑可以理解概念之间的逻辑关系。


5.2 智能体中的记忆存储 (Memory Storage in Agents)

与生物大脑复杂的生理结构不同,Agent(智能体)的记忆本质上是建立在自然语言符号和数字计算上的。作者同样从存储位置和存储格式对其进行了拆解。

5.2.1 存储位置 (Storage Location)

Agent 的记忆存储在物理层面上主要依靠两种容器: * 上下文窗口 (Context Window): 相当于 Agent 的工作记忆(短期记忆)。 * 作为单次推理轨迹中的动态容器,用户输入、工具调用结果、中间推理步骤等都会被放入上下文中。 * 这里引入了“记忆折叠 (Memory Folding)”机制:因为窗口长度有限,Agent 会在推理过程中动态触发总结功能,将累积的冗长交互历史压缩成简短的结构化摘要,从而突破 LLM 物理窗口的限制。 * 记忆库 (Memory Bank): 相当于 Agent 的外部长期记忆。 * 这是一个专用的外部存储库(如向量数据库)。与上下文窗口不同,记忆库理论上拥有无限容量。 * 它持久保存跨越多个会话和任务的“跨轨迹记忆”,比如用户的个人偏好、积累的领域知识等。更进一步,目前的研究甚至发展出了“跨智能体共享记忆库”,允许不同的 Agent 共享彼此探索出的成功经验,避免重复试错。

5.2.2 存储格式 (Storage Format)

Agent 的记忆信息在底层通常被组织为以下四种形式: * 文本 (Text): 最主流、最直观的格式。以自然语言(原始文本或经过抽象/总结后的文本)存储。优点是可解释性极强,操作简单,并且与语言模型的处理方式天然兼容。 * 图 (Graph): 强调实体和关系的结构化网络(如知识图谱)。 * 经验被分解为节点(概念、对象、步骤)和边(它们之间的关系)。 * 优点:极其适合复杂的逻辑推理任务。Agent 可以通过遍历图的节点和边,发现隐式的逻辑联系,这使得多步推理的过程更加可溯源且符合逻辑依据。 * 参数 (Parameters): 将经验和知识直接内化到 LLM 的神经网络权重中(Parametric memory)。 * 这种方式模仿了生物大脑中“突触可塑性”带来的改变。 * Agent 通过模仿学习(监督微调)或强化学习(利用探索出的成功轨迹进行训练),将操作技能转化为模型的“本能”。 * 优点:访问效率极高(前向传播时自动激活),没有外挂检索带来的延迟。 * 潜在表征 (Latent Representation / Vectors): 也就是将信息存储为高维嵌入空间中的连续向量。 * 优点:1) 高效压缩:连续向量比离散的文本 Token 占用更小的空间,降低了计算开销;2) 端到端可训练:作为连续变量,它们能直接参与梯度下降优化;3) 更契合人类认知:人类的推理往往依赖超越具体语言符号的综合抽象表征,而潜在向量正好能在数学空间中捕捉这种抽象的语义本质。

总结

第五节的精髓在于对齐(Alignment)。作者指出,尽管底层介质完全不同(碳基细胞 vs. 硅基计算),但优秀的 Agent 记忆设计都在不自觉地借鉴大脑的机制: * Agent 的 上下文窗口 对应 大脑的 短期工作记忆(感觉-额顶网络)。 * Agent 的 外部记忆库 对应 大脑的 新皮层与海马体(长期存储)。 * Agent 对 文本/图谱/参数化向量 的结合使用,完美呼应了大脑利用 持续放电/突触权重/认知地图 处理不同优先级信息的智慧。

6. memory management

6.1 认知神经科学中的记忆管理 (Memory Management in Cognitive Neuroscience)

在生物大脑中,记忆不是像存电脑文件那样“一键保存”的,而是一个高度动态的生理演变过程。

6.1.1 记忆的形成 (Memory Formation)

对应 Agent 中的 Extraction 长期记忆不是在体验发生的瞬间就完全形成的,而是经历三个阶段:编码 (Encoding)、巩固 (Consolidation) 和 整合 (Integration)。 * 编码: 当事件发生时,大脑首先在海马体和新皮层回路中激发出特定的神经活动模式。 * 巩固: 在清醒的休息或睡眠期间,海马体会“回放 (replay)”这些事件,重新激活最初的神经模式。这种回放能让不稳定的记忆变得持久(系统巩固)。 * 整合: 随着时间的推移,大脑会自动将这些记忆进行“时间压缩”,并将不同情境下的相关记忆连接起来,形成抽象的知识网。

6.1.2 记忆的更新 (Memory Updating)

记忆形成后并不是静止不变的。大脑更新记忆的核心驱动力是“预测误差 (Prediction Error)”。 * 人类会基于过去的记忆对未来做出预期。当现实与预期不符(产生预测误差)时,大脑就会触发更新机制。 * 区分 (Differentiation): 如果新事件与旧记忆相似但有细微不同,大脑会创建独立的表征以避免混淆。 * 整合 (Integration): 将新信息与现有的记忆网络融合。 * 再巩固 (Reconsolidation): 这是一个非常关键的神经机制——当一段旧记忆被检索(回忆)出来时,它会短暂地回到一种“不稳定(可塑)”的状态。此时,大脑可以修改、加强或削弱这段记忆,然后再将其重新保存。

6.1.3 记忆的检索 (Memory Retrieval)

平时,记忆都处于“潜伏”状态,直到被外部线索或上下文触发。 * 模式补全 (Pattern Completion): 这是海马体的神奇能力。当你遇到一个与过去经历相似的局部刺激(比如闻到某种熟悉的味道),海马体能凭借这一个“线索”,重建并激活整个事件的完整神经记忆网络。 * 在生物大脑中,检索本身也是一种改变记忆的行为(见上述的“再巩固”机制)。


6.2 智能体中的记忆管理 (Memory Management in Agents)

呼应生物大脑的机制,Agent 的记忆管理同样是一个闭环的流水线。为了处理庞大且冗余的上下文信息,Agent 的记忆管理必须极其高效。

6.2.1 记忆的提取 (Memory Extraction)

这是 Agent 记忆管理的初始阶段,核心任务是从冗长、嘈杂的交互流中“提炼”出紧凑、有用的内容。作者将其分为三种范式: 1. 扁平化提取 (Flat Extraction): 最基础的方法。直接将原始对话记录存入数据库,或者做最轻量级的处理(例如简单的分块切片或基础的文本摘要)。 2. 层次化提取 (Hierarchical Extraction): 将记忆组织成有层级的结构。例如,底层保留详细的原始日志,中层是对单次对话的总结,顶层是高度抽象的用户画像。 3. 生成式提取 (Generative Extraction): 利用 LLM 强大的推理能力,不仅提取事实,还“生成”新的认知。比如从一堆杂乱的用户购买记录中,LLM 可以推理并提取出图谱结构的记忆:“用户 A -> 偏好 -> 极简风格”。

6.2.2 记忆的更新 (Memory Updating)

Agent 的记忆如果不更新,就会充斥着过时信息甚至自相矛盾的事实。Agent 的更新分为两个层面: 1. 单任务内更新 (Inside-Trial Updating): 类似于大脑的工作记忆刷新。在执行某一次具体的长线任务时,Agent 的“上下文窗口”是有限的。Agent 需要动态评估,将旧的、当前不再需要的 Token 丢弃(或压缩),为新的任务步骤腾出空间。 2. 跨任务更新 (Cross-Trial Updating): 针对外部的长期记忆库。当 Agent 在新的会话中得知用户换了工作,它必须在记忆库中找到旧的职业信息,进行覆盖、合并或标记为过时。这完美对应了大脑利用“预测误差”进行的整合与再巩固。

6.2.3 记忆的检索 (Memory Retrieval)

建好了记忆库,Agent 需要在决策时将记忆取回。与大脑的“模式补全”类似,Agent 有两种主要的检索方式: 1. 基于相似度的检索 (Similarity-based Retrieval): 这是目前最常见的 RAG(检索增强生成)做法。将当前的 Query 转化为向量,去向量数据库中计算余弦相似度(Semantic matching),取 Top-k 最相似的记忆片段。 2. 多因素检索 (Multi-factor Retrieval): 类似于经典论文《Generative Agents》中的做法。仅仅靠“语义相似”是不够的,系统会综合计算多个权重维度: * 相关性 (Relevance): 语义是否匹配。 * 近期性 (Recency): 越近发生的记忆权重越高。 * 重要性 (Importance): 生死攸关的记忆得分高于日常琐事。 * 甚至引入预期收益 (Expected rewards),多维度打分后决定唤醒哪些记忆。

6.2.4 记忆的应用 (Memory Application)

检索出来的记忆如何指导 Agent 接下来的行为?这就涉及到了记忆的应用范式,它们分别对应了大脑利用记忆的不同方式: 1. 上下文增强 (Contextual Augmentation): 最直接的方式。将检索到的记忆以文本形式强行“塞”进 LLM 当前的 Prompt(上下文窗口)中。这相当于利用短期工作记忆进行即时推理。 2. 参数内化 (Parameter Internalization): 高级阶段。当 Agent 依靠记忆成功完成多次复杂任务后,这些优秀的“解题经验”通过强化学习、微调等手段,直接被训练进大语言模型的神经网络权重(参数)中。这就像人类的技能熟练生巧后形成了“肌肉记忆”,对应着生物大脑将短期经验巩固成了持久的新皮层突触连接

总结

在第六节中,作者精妙地展示了一面“跨学科的镜子”。Agent 中的提取(生成式)、更新(跨任务修正)与检索(多因素激活),实际上都是在用数学与工程的手段,拙劣却努力地复现人类大脑那套经过亿万年进化的编码、再巩固与模式补全机制。