趋近智
数据格式已校对,环境已配置,参数 (parameter)高效适配器也已初始化,微调 (fine-tuning)的各项准备工作已经就绪。接下来要运行训练循环,让模型从指令数据集中学习。这一过程需要在硬件算力 (compute)限制与确保模型高效收敛之间取得平衡。
在这一部分,你将定义决定优化运行方式的训练参数。你将配置批次大小和累积步数,以控制内存使用。接着,你将设置学习率和调度器。设置合适的学习率调度方案可以确保权重 (weight)更新随训练推进而逐渐减小。一种标准方法是应用衰减公式来使学习过程随时间趋于稳定:
其中, 是特定步数的学习率, 代表当前训练步数, 是衰减因子。
你还将实现检查点机制,用以保存中间模型状态。定期保存进度可以防止因硬件故障或进程中断导致的数据丢失。除了状态管理,你还将追踪验证指标和训练损失。通过监控这些数值,你可以察觉模型何时停止学习,或者何时开始死记硬背训练数据而失去了泛化能力。最后,你将整合这些模块,在部分数据上执行完整的训练循环,生成一套可供评估的微调权重。
5.1 定义训练参数与超参数
5.2 学习率与调度器
5.3 检查点与状态管理
5.4 监控损失与训练指标
5.5 实践:执行训练循环