趋近智
检索增强生成(RAG)包含两个主要阶段。首先,检索组件响应用户查询,从知识库中识别并获取相关信息。接着,生成阶段启动,大型语言模型(LLM)整合检索到的信息并形成最终答案。
可以把RAG流程看作有两个主要引擎。第一个,检索器,负责找到原始材料(相关文本段落)。第二个,生成器,是处理这些材料、将其与原始请求结合并构建成品(即响应)的引擎。
RAG系统中的生成器组件通常是一个预训练的大型语言模型。这可以是任何有能力的通用模型,例如GPT系列、Llama、Mistral或通过API访问或本地部署的其他模型。它在RAG架构中的主要作用是信息整合和连贯响应的生成。
与标准LLM应用不同,标准应用中模型仅依赖其内部已有的知识(在其训练阶段学习到的),RAG系统中的LLM运行方式不同。它不仅接收用户的原始查询,还接收由第一阶段检索到的上下文片段。
它的主要职责是:
请看这个流程图:
生成器LLM同时接收原始用户查询和检索到的上下文作为输入,并生成最终的响应。
本质上,检索到的上下文充当有针对性的、即时可用的知识源,指导LLM的生成过程。这使得RAG系统能够生成以下特点的答案:
因此,LLM组件充当智能整合器。它利用其强大的语言能力,并利用检索器提供的特定、相关数据来引导它们。该阶段的有效性很大程度上取决于检索到的上下文如何很好地整合到呈现给LLM的提示中,本章后续部分将讨论这个话题。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造