趋近智
在微调大型语言模型时,修改每个参数会带来显著的计算障碍。参数高效微调(PEFT)方法提供了一系列旨在克服这些限制的技术,通过大幅减少可训练参数的数量(通常是数量级上的减少),同时保持或接近完全微调的性能。
PEFT 并非单一的整体方法,而是包含多种不同的策略。理解这些策略有助于为特定任务、模型和资源限制选择合适的技术。我们可以将大多数 PEFT 方法大致分为三类:附加方法、选择性方法和重参数化方法。
附加方法基于一个简单的原理:保持原始预训练模型的权重不变,并引入少量新的可训练参数。这些新参数以特定方式集成到模型架构中,以影响其在微调过程中的行为。
附加方法的主要优势在于预训练知识(冻结权重)与任务特定适应(新参数)之间的明确分离。这种模块化简化了多任务学习和部署,因为可以按需加载不同的适配器或前缀,而无需修改大型基础模型。
选择性方法采取更直接的方法,即仅解冻并微调原始预训练模型参数中经过仔细选择的一小部分。其余参数保持冻结。
示例包括:
尽管直观,选择性方法的有效性在很大程度上取决于识别出要微调的正确参数子集。这种识别可能不简单。虽然在训练过程中可能比完全微调的内存消耗少,但它们可能需要比附加方法或重参数化方法微调更多的参数才能达到相似的性能。此外,管理不同的任务适应需要存储修改后参数的单独副本或应用复杂的修补机制。
重参数化方法修改了权重更新的表示或应用方式,而不是直接添加参数或选择子集。此类中最突出的技术使用低秩近似。
LoRA 在参数效率和性能之间实现了很好的平衡。低秩更新矩阵 B 和 A 非常紧凑。重要的是,一旦训练完成,更新 BA 可以合并回原始权重中(W=W0+BA),与原始模型相比,消除了任何推理延迟开销。这一特性对于部署场景尤其有吸引力。
下图展示了这些 PEFT 方法家族的区别:
PEFT 方法家族概述。附加方法引入新模块。选择性方法微调原始模型的部分。重参数化方法(如 LoRA)使用应用于冻结权重(W)的低秩更新(BA)。
理解这一分类提供了一个框架,以理解PEFT的多种方法。后续章节将对重要方法提供更详细的技术分析和实际实现细节,从详细研究 LoRA 开始。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造