前几章介绍了参数高效微调 (PEFT) 方法(例如 LoRA、QLoRA 和适配器微调)的运作原理。本章将重点转向使用这些技术微调模型时,有效训练、优化和部署所涉及的实际考量。我们将讨论在实际中成功应用 PEFT 所需的操作方面。在本章中,您将学习如何:评估基础设施需求,包括 PEFT 任务所需的 GPU 显存、计算能力和软件环境。配置合适的优化器,例如 AdamW 或其内存高效变体(如 8 位 Adam),以及专用于 PEFT 的学习率调度器。实现同时处理多个 PEFT 适配器的策略,从而便于多任务微调。诊断并解决 PEFT 训练任务实施和执行过程中出现的常见问题。采用性能分析技术来衡量并提高 GPU 利用率、内存消耗和吞吐量。调整分布式训练框架,包括 DDP 和 DeepSpeed ZeRO,以进行大规模 PEFT 微调。制定部署模型的方法,这些模型使用可互换的 PEFT 适配器以实现高效推理服务。通过讲解这些主题,本章将使您掌握改进 PEFT 工作流程的知识,以获得最佳性能、资源管理和部署能力。