趋近智
大型语言模型(LLM)能力强大,但其知识通常停留在上次训练运行时的状态。这意味着它们常常不了解时事、具体的公司内部数据或私人文档中的详细信息。由于计算成本和时间原因,持续地重新训练这些庞大的模型以纳入新信息通常不切实际。检索增强生成(RAG)为这个问题提供了一个巧妙且高效的解决办法。RAG不是将所有外部信息直接编码到LLM的参数 (parameter)中,而是在模型需要时——特别是在用户提出问题(推理 (inference)时)时——动态地为其提供相关的外部信息。
RAG背后的核心思想是将信息检索系统的优势与LLM的文本生成能力结合起来。当收到查询时,RAG系统不会立即要求LLM仅凭其内部记忆生成答案。首先,它会搜索外部知识源(如文档数据库、网页或内部维基)以查找与查询相关的信息。然后,这些检索到的信息被用来“增强”原始查询,创建一个新的、上下文 (context)丰富的提示。这个增强后的提示随后被提供给LLM,引导它生成一个基于所提供的外部事实的答案。
在LLM应用中使用RAG带来以下几项重要优势:
RAG系统在运行时的一般流程可以分为以下几个阶段:
这里是展示运行时流程的图示:
该图展示了检索增强生成流程中的主要阶段:检索相关信息,用这些信息增强用户查询,然后将其提供给LLM进行生成。
整个过程依赖于有效的数据索引、语义搜索(常使用向量嵌入 (embedding)和向量存储)以及增强提示的构建方法。我们将了解LangChain和LlamaIndex等库,它们提供了工具和抽象,以简化这些RAG流程的构建。在接下来的章节中,我们将了解这些组件如何协同工作,并特别关注向量嵌入和数据库在实现高效检索中的作用。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造