趋近智
大型语言模型(LLM)尽管能力出众,但在运行时有一个明显的局限:它们的知识是静态的,固定在训练数据收集时的状态。它们本身无法获取其训练之后产生的信息,例如最新新闻、内部文档更新或私有知识库中的数据。这使得它们无法回答有关时事的问题,也无法基于专有信息提供有效回应。
检索增强生成(RAG)为此问题提供了一个直接的解决方法。它是一种技术,或者更准确地说,是一种架构模式,通过在生成过程中动态引入从外部来源获取的信息来提升LLM的回复质量。RAG并非仅依赖模型内部化(且可能过时)的知识,而是让LLM在生成答案之前查阅相关的外部文档。
可以将其比作开卷考试与闭卷考试。标准的LLM在闭卷环境下运行,仅根据其训练期间“记忆”的内容回答。RAG实际上赋予LLM查阅与所提问题相关的特定参考资料(即您的外部数据源)的能力,使其能够形成更具信息量且上下文更准确的回复。
RAG的核心流程包含三个主要步骤:
以下是RAG工作流程的简化视图:
检索增强生成过程的概述,展示了外部数据如何为最终LLM回复提供信息。
与在新数据上微调LLM等其他方法相比,此方法具有多项优势:
微调调整模型的内部参数,而RAG则在推理时修改提供给模型的输入。这使得RAG成为构建需要LLM与特定、动态知识库交互的应用的灵活且高效的模式。
接下来的章节将详细研究该模式的各个组成部分,内容包括如何准备数据、执行高效检索以及如何有效地将获取的上下文与LLM提示结合。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造