预训练大型语言模型(LLM)具备广泛的能力,但特定应用需要它们表现出定制化的行为。本章将为有效适应这些模型打下铺垫。我们将首先简要回顾预训练模型及支撑它们的Transformer架构的基本思想。你将了解为何通用预训练模型通常需要针对特定任务或用途进行进一步调整。我们将考察LLM适应与自然语言处理中既有的迁移学习思想之间的联系。此外,我们将分析LLM的底层架构如何影响适应策略的选择及其效果。最后,本章将概括介绍可用于微调的不同方法,从修改所有模型参数到更节省资源的多种方法,为后续章节的详细讨论做好准备。