趋近智
大型语言模型,从根本上说,是强大的无状态函数近似器。在给定其上下文窗口内的输入提示后,它们会生成补全。然而,真正的智能体行为需要的不仅仅是被动生成。智能体需要持久性,即保持上下文、从交互中学习以及对长时间收集的信息进行推理的能力,这常常超出固定的。在此记忆变得必不可少。没有记忆,LLM智能体在每次交互周期后基本上都会被重置,遭受一种永久性失忆。
记忆有助于实现多种基本目标,将LLM从一个高级的文本补全引擎提升为一个能处理复杂任务的自主智能体:
保持状态和连贯性: 记忆最直接的功能是提供连续性。对于参与多轮对话或执行多步骤计划的智能体,它必须记住之前的用户输入、自身生成的响应、中间结论以及任务的状态。这使得智能体能够理解后续问题、跟踪目标进度,并避免重复或询问已提供的信息。稍后讨论的短期记忆机制,通过保留即时对话或执行历史直接处理这个问题。
支持学习和适应: 智能体系统不应只遵循指令;它们应随时间改进。记忆为这种适应提供了支撑。通过存储过去交互记录、成功和失败的行动、用户反馈以及推断出的偏好,智能体可以优化其策略。例如,记住哪些工具对特定查询类型产生了有用结果,或回忆用户的偏好沟通方式,可以使智能体行为个性化,并通过经验变得更有效。这些存储的经验充当了智能体可以隐式或显式学习的个性化数据集。
支持长周期规划和推理: 许多重要任务无法在一个推理步骤内解决,或完全放入中。例如规划一个复杂项目、进行详细研究,或管理一个长期过程。智能体需要分解目标、生成中间步骤、执行行动、存储结果,并可能回溯或修改计划。记忆充当持久的工作空间,在此过程中,总体目标、演变中的计划、中间发现和遇到的障碍都得以存储和访问。像“思想之树”(Tree of Thoughts)这样的架构高度依赖记忆来管理分支。
扩展上下文限制之外的知识: 大型语言模型在预训练期间获得了广泛的通用知识,但这些知识是静态的,且缺乏特定、最新或私有信息。记忆系统,尤其是使用向量数据库等检索机制的长期记忆,使智能体能够获取并整合来自外部知识源的相关信息(例如,技术文档、个人笔记、企业数据库、实时新闻流)。这种检索增强生成(RAG)模式,整合到智能体的推理循环中,有效地将智能体的知识库扩展到及其预训练权重之外,使其响应和行动基于特定、及时信息。
促成个性化: 有效的智能体常常需要根据个体用户定制交互。记忆允许智能体存储用户档案、过往交互摘要、明确的偏好和推断出的兴趣。这实现了个性化推荐、根据用户典型工作流程定制的任务处理,以及通常更有帮助和吸引力的用户体验。
本质上,记忆将LLM智能体从一个受限于即时输入上下文的系统,转变为一个能随时间连贯运作、从历史中学习、访问相关外部知识并追求复杂长期目标的系统。设计有效的记忆系统包括选择合适的结构(短期缓冲区、向量存储、图数据库)、实现高效的检索和更新机制,并将记忆访问整合到智能体的推理和行动周期中。后续章节将审视用于构建这些必要记忆组件的具体技术和架构。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造