趋近智
将完全微调甚至复杂的元学习策略直接应用于拥有数十亿参数的基础模型,虽然强大,但带来了显著的计算难题。训练需要大量的GPU内存和时间,并且为每个专门任务存储整个模型的独特副本变得不切实际。参数高效微调 (PEFT) 提供了一个很有吸引力的选择,提供了一系列专门为高效调整这些大型模型而设计的方法。
PEFT方法基于一个基本原则:它们不修改预训练模型的所有参数,而是专注于调整一小部分参数,或者引入少量新的、可训练的参数。原始基础模型的绝大部分权重在调整过程中保持不变。
目标是获得与完全微调相当的调整性能,特别是在少样本情况下,但计算开销大大降低。这种高效性体现在几个主要优点上:
调整方法的比较。完全微调修改所有参数。元学习通常侧重于为快速调整寻找一个好的初始化。PEFT冻结基础模型,只微调少量参数。
PEFT包含多种策略,这些策略可以根据它们如何实现参数高效性进行大致分类。有些方法,例如Adapter,在预训练模型的层中插入小的、新的神经网络模块。其他方法,例如低秩适配 (LoRA),对某些权重矩阵进行重新参数化,以学习低秩更新。像Prompt Tuning这样的技术通过学习连续输入嵌入来修改模型的行为,而不是直接改变权重。
将PEFT视为一种补充工具集会很有帮助,它并非元学习的直接竞争者,不会使其失效,而是专注于非常大型模型调整步骤的计算效率。元学习解决的是从少量例子中快速学习调整的问题,通常是找到最优初始点或更新规则。PEFT确保调整过程本身是可行的。正如我们稍后将讨论的,这些方法并非互斥,有时可以结合使用。
通常,PEFT过程包括获取一个带有参数 的预训练基础模型,并将其冻结,然后引入一组小得多的可训练参数 ,参数数量 比 小几个数量级。只有这些参数 使用来自特定下游任务的数据进行优化。
接下来的章节将详细审视特定且广泛使用的PEFT技术,包括Adapter模块、LoRA和Prompt/Prefix Tuning,并分析它们的机制和权衡。我们还将直接比较它们的特点与之前讨论的元学习策略。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造