趋近智
第1章概述了微调大型语言模型所涉及的计算和内存挑战。本章将通过着重介绍低秩适配 (LoRA) 来解决这些问题,LoRA是一种特定且广泛使用的参数高效微调 (PEFT) 技术。
我们从 LoRA 背后的核心假设开始:模型权重在适配过程中产生的变化 ΔW 具有较低的“内在秩”。这意味着 ΔW 可以通过两个小得多的矩阵 B 和 A 的乘积来有效近似。
ΔW≈BA
这里 W∈Rd×k,B∈Rd×r,A∈Rr×k,并且秩 r≪min(d,k)。
在本章中,您将学到:
通过本章的学习,您将理解 LoRA 的运行机制,并能够实现其基本形式,以进行高效的 LLM 微调。
2.1 LoRA 假说:适配的低本征秩
2.2 LoRA的数学表述
2.3 权重更新矩阵的分解
2.4 秩选择策略
2.5 缩放参数 Alpha
2.6 LoRA 层的实施
2.7 将 LoRA 融入 Transformer 架构
2.8 实际操作:应用基础LoRA
© 2026 ApX Machine Learning用心打造