趋近智
为了更好地定制大型语言模型 (LLM),将检索增强生成 (RAG) 与另一种广泛使用的方法:微调进行对比是很有帮助的。这两种方法都旨在使通用大型语言模型适应特定任务或知识范围,但它们的工作方式大不相同。
微调是指将一个预训练的大型语言模型(它已经从海量数据集中学习了通用语言模式),并在针对特定任务或范围的较小、精选数据集上继续其训练过程。此过程会调整模型本身的内部参数或权重。
可以将其类比为让一个受过广泛教育的人(预训练大型语言模型)去一所专业学校学习特定学科,例如医学或法律(微调数据集)。目标是将这种专业知识或行为直接植入模型的内部表示中。
微调常用于:
检索增强生成,正如我们所讨论的,不会修改大型语言模型的基础权重。相反,它为现有预训练大型语言模型配备了一个外部知识源和一种机制,以便在进行查询时(推理时)从中检索相关信息。
用我们的类比来说,RAG 就像给那个受过广泛教育的人提供一个全面的、可搜索的图书馆或数据库,专门用于手头的任务。对于提出的每个问题,他们首先会在图书馆中查找相关信息,然后利用其通用技能根据所查到的内容来组织答案。这个人的核心知识没有改变,但他们使用图书馆信息回答特定问题的能力得到了显著提升。
让我们从几个重要方面来剖析 RAG 与微调之间的主要区别:
以下图表描绘了基本工作流程的差异:
此图对比了微调(顶部)的一次性权重更新过程与 RAG(底部)的动态推理时检索和增强过程。
值得一提的是,RAG 和微调并非相互排斥。一个大型语言模型可以为特定范围的风格和术语进行微调,然后在 RAG 系统中用作生成器组件,以访问该范围内的最新文档。然而,对于本入门课程,我们将主要侧重于在 RAG 架构中使用标准预训练模型。
"理解这些差异对于决定哪种方法或哪种组合最适合您在使用大型语言模型时的具体目标非常重要。RAG 提供了一种有效途径,可以在不改变底层模型的情况下,用外部动态知识增强大型语言模型,为许多应用带来了准确性、时效性和可验证性方面的重要优势。"
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造