趋近智
想象一下,你正试图与一个瞬间就忘记你所说一切的人交谈。每句话都将是一个全新的开始,使得任何有意义的交流都无法进行。大型语言模型(LLM)代理,如果没有办法记住近期互动,也将面临类似的挑战。我们所说的“记住近期事件”的能力,在LLM代理的背景下,就是短期记忆。它是一个基本组成部分,允许代理在持续的操作或对话中保持上下文。
与LLM静态的预训练知识不同,短期记忆是动态的。它涉及当前正在处理的特定任务或当前的交互会话。可以将其视为代理的草稿本,它在上面记下刚刚发生的事情。这并非永久学习新事实,比如LLM已经知道的法国首都。相反,它是关于记住你刚刚在这段对话中询问了飞往巴黎的航班,这样当你接着问“那里的酒店呢?”时,代理就能明白“那里”指的是巴黎。
如果没有这种记忆,与代理的每次交互都将是孤立的。代理将无法做到:
本质上,短期记忆赋予了代理一种连续感。它允许代理在先前的交流基础上进行,使交互更顺畅、更有效。
在基本层面,LLM代理的短期记忆通常涉及保留近期交互的日志或历史记录。此历史记录通常包含:
当代理需要处理用户的新输入时,它不仅仅是孤立地查看那一条信息。相反,它(或控制它的系统)不仅向LLM提供新输入,还提供部分或全部近期历史记录。这种组合信息形成了一个更丰富的提示,为LLM提供生成相关且充分响应所需的上下文。
例如,如果你正在与一个代理交互:
以下图描绘了短期记忆如何融入代理的运行流程:
此图描绘了用户输入与现有短期记忆如何结合,为LLM形成完整提示的循环。LLM的输出随后被用于回应用户,并同时更新短期记忆以备后续交互。
“短期”这个词有其含义。LLM在一次处理的文本量上存在限制(常称为“上下文窗口”)。如果对话历史变得太长,可能会超出这个限制。因此,短期记忆的实际实现方式通常涉及以下策略:
目前,需要理解的是,代理需要某种机制来记住近期事件,以便智能地运作。这种能力,即使是最简单的形式,也能将LLM从无状态的文本生成器转变为一个更有用、更具交互性的助手。当我们构建第一个代理时,我们会看到即使是基本的记忆也能产生很大的作用。在第六章“LLM代理记忆:信息回顾”中,我们将更详尽地研究这些机制。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造