趋近智
缩放参数 (parameter),记作 ,是低秩适应 (LoRA) 中一个重要的超参数 (hyperparameter)。此参数作为LoRA更新(通常表示为 )的一个标量乘数。它用于调整微调 (fine-tuning)后的权重 (weight)对原始预训练 (pre-training)权重 的影响程度,与低秩矩阵 和 以及选定的秩 共同作用,以控制适应的整体影响。
修正后的前向传播,包含了 ,将输入 的最终输出 表示为:
此处, 代表冻结的预训练权重,而 形成了在微调过程中学到的低秩更新。参数 直接缩放了此更新的贡献。
然而,需要注意一个常见的实现惯例,尤其是在Hugging Face的PEFT (peft) 等库中很常见。实际上,更新在训练期间常通过 进行动态缩放。当使用此惯例时,有效的前向传播计算如下:
这种通过 进行的缩放旨在将权重调整的量级与秩 的选择分离。如果矩阵 的元素使用标准分布(例如高斯分布)初始化,并且 初始化为零(这是一种常见的做法,以确保初始状态与预训练模型匹配),那么乘积 的方差可能会随 变化。除以 有助于使这种影响正常化,从而使 能够更稳定地作用于控制整体调整的强度,并在一定程度上独立于 。
可以将 视为控制对基础模型表示施加的微调 (fine-tuning)调整的“强度”或幅度。它微调了学到的任务特定调整 () 与原始冻结权重 (weight) () 相比,对输出改变了多少。
实际上,设定 涉及平衡 中包含的通用预训练知识和在 中学到的特定任务调整的贡献。它是一个重要的超参数 (parameter) (hyperparameter),通常需要根据具体任务、数据集、模型架构以及选定的秩 进行经验性调整。
对于 并没有一个单一的、普遍适用的最佳值。它的选择与其他超参数 (parameter) (hyperparameter)有关联,特别是秩 以及用于训练矩阵 和 的学习率。常用的方法包括:
最佳方法通常取决于经验验证。如果使用LoRA进行微调 (fine-tuning)显得过于激进(例如,验证损失迅速增加)或过于保守(例如,模型性能低于预期),调整 是一个主要的控制手段,它与调整秩 和优化器的学习率相辅相成。
总而言之, 提供了一个重要的机制来缩放LoRA调整。尽管它常与秩 相关联的缩放因子(即 )一起实现,但其主要目的是调节应用于冻结基础模型权重 (weight)的低秩更新的强度。在使用LoRA时,仔细考量和调整 是提升模型性能的必要步骤。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•