趋近智
虽然短期记忆机制处理即时上下文 (context),但智能体系统通常需要访问大量信息,或回溯远超LLM上下文窗口 的经验。这就需要持久的长期记忆方案。与简单的关键词搜索不同,智能体经常需要根据相似性或含义来检索信息。向量 (vector)数据库和文本嵌入 (embedding)在此扮演重要角色。
LLM智能体现代长期记忆的根基在于语义搜索。语义搜索并非匹配精确词语,而是依据含义相似度寻找信息。这通过将文本转换为名为嵌入的数值表示来实现。
嵌入是高维空间 (high-dimensional space)中的一个稠密向量 (vector) ,由嵌入模型 生成,即 。这些模型经过训练,使得含义相似的文本在向量空间中映射到彼此接近的点。例如,“智能体记忆系统”和“为自主AI存储信息”的嵌入可能会比“智能体记忆系统”和“金融市场分析”的嵌入更接近。
常见的嵌入模型包括Sentence-BERT (SBERT)变体、OpenAI的Ada嵌入或Cohere的嵌入模型。它们在维度(例如384、768、1536或更多维度)、训练目标以及捕捉语义相似度的细微差别上有所不同。
两个嵌入之间的“接近度”,以及原始文本之间的语义相似度,通常使用距离度量方法进行衡量,例如欧几里得距离,或更普遍的余弦相似度。余弦相似度衡量两个向量之间夹角的余弦值,范围从-1(含义相反)到1(含义相同),0表示正交或不相关。对于两个非零嵌入向量 和 :
余弦相似度得分越高,表示语义关联 (semantic relationship)性越大。
文本嵌入的简化2D投影。聚在一起的点代表语义相似的文档。查询向量(星形)检索最近的文档向量(蓝色簇)。
存储和高效查询数百万或数十亿高维向量需要专用的数据库,这类数据库被称为向量数据库。实例包括Pinecone等托管服务,以及Chroma、Milvus、Weaviate等自部署选项,或FAISS(Facebook AI相似度搜索)等库。
这些数据库针对近似最近邻 (ANN) 搜索进行了优化。给定一个查询向量 ,目标是根据所选距离度量(如余弦相似度或欧几里得距离)找到数据库中与 最接近的 个向量。
索引与查询流程:
智能体系统中从向量数据库检索信息的工作流程。离线索引过程涉及嵌入并存储文本块。运行时,智能体根据任务形成查询,将其嵌入,使用ANN搜索向量数据库,检索相关块,并使用它们来增强核心LLM的上下文 (context)。
向量数据库能够简化管理ANN索引的复杂性,并提供API以便轻松插入、删除和查询向量数据。它们是为LLM提供可扩展、可搜索长期记忆的根本。特定向量数据库的选择通常取决于可扩展性要求、托管偏好(云端与本地)、期望的一致性保证以及搜索期间对元数据过滤的支持等因素。后续的“高级检索策略”一节将论述提升从这些系统检索信息质量的方法。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•