趋近智
小语言模型 (SLM) 是大型模型的高效替代方案,能够在本地或有限的硬件资源上运行,同时在特定任务中保持优异性能。本课程教授如何使用自定义数据微调 (fine-tuning)小语言模型。你将学习参数 (parameter)高效微调的机制、数据格式化处理以及模型评估方法。课程结束时,你将获得一个能够直接部署、针对特定任务定制的语言模型。
先修课程 具备 Python 和 PyTorch 基础
级别:
参数高效微调
应用 LoRA 和 QLoRA 技术,在严格的显存限制下训练模型。
数据集准备
为指令微调对数据集进行格式化和分词处理。
模型评估
衡量文本生成质量,并监测训练过程中的过拟合现象。
本地部署
合并权重并使用 vLLM 运行定制化模型。