趋近智
小语言模型 (SLM) 为拥有数千亿参数 (parameter)的庞大网络提供了另一种方案。它们可以在本地运行,并在严格的硬件限制下操作。在编写微调 (fine-tuning)模型的代码之前,需要建立对这些架构运作方式以及监督学习 (supervised learning)如何更新其内部权重 (weight)的基本认识。
本章将讲解小语言模型的具体运行机制。我们首先会明确 SLM 的定义,并将微调与检索增强生成 (RAG) 等其他方式进行对比。
你将分析监督学习的数学逻辑。以梯度下降 (gradient descent)中基本的权重更新规则为例,其表示为:
这里, 代表模型在特定步骤的权重, 是学习率, 是损失函数 (loss function)的梯度。理解这些机制能让你弄清楚将自定义数据输入预训练 (pre-training)网络时的实际变化。
我们还将计算具体的硬件配置需求。你将学会如何预估加载和训练这些模型所需的显存 (VRAM),以防出现显存不足的错误。最后,你将编写一个 Python 脚本,将预训练的 SLM 加载至内存并进行基础的文本生成。
1.1 什么是小语言模型
1.2 微调与检索增强生成
1.3 有监督微调机制
1.4 硬件要求与显存限制
1.5 动手实践:初始化预训练小语言模型 (SLM)