趋近智
大型语言模型(LLMs)微调 (fine-tuning)是一种常用方法,用于使其适应特定任务。然而,修改包含数十亿参数 (parameter)的模型的所有参数(这些参数通常表示为权重 (weight)矩阵 ),会产生大量的计算和内存开销。本章考察了伴随全量微调而来的这些难题。
您将了解到:
这些基础内容将说明为何 PEFT 方法变得不可或缺,并介绍本课程中涵盖的各类技术。
1.1 全量微调的计算成本
1.2 参数效率的必要性
1.3 数学预备知识:奇异值分解
1.4 参数高效微调方法的分类