趋近智
完全微调会更新大型语言模型中的每个参数,这需要大量的计算资源和内存。这通常使得在没有专用硬件的情况下调整最大型的模型变得不切实际。本章介绍参数高效微调 (PEFT) 方法,作为一种节省资源的替代方案。
PEFT 技术只修改模型参数的一小部分,大大减少了计算开销和存储需求,同时在特定任务上通常能达到与完全微调相近的性能。
你将学习几种主要 PEFT 方法的原理和实现:
我们将分析每种技术背后的机制,比较它们各自的优点和权衡,并通过使用常用库进行实践。在本章末尾,你将了解如何选择和运用合适的 PEFT 方法来高效调整大型语言模型。
4.1 参数高效性的原理
4.2 低秩适配 (LoRA)
4.3 量化低秩适配 (QLoRA)
4.4 适配器模块
4.5 提示调整
4.6 前缀微调
4.7 PEFT 方法比较
4.8 使用 Hugging Face PEFT 库进行实现
4.9 动手实践:使用 LoRA 进行微调
4.10 实操:使用QLoRA进行微调
© 2026 ApX Machine Learning用心打造