趋近智
提示调整是参数高效微调(PEFT)的一种独特策略。这种方法与其他PEFT方法(例如LoRA或适配器)不同,后者修改或增加模型架构内部的组件。提示调整侧重于操纵馈入完全冻结的预训练大型语言模型(LLM)的输入表示。其主要思路是学习一小组连续向量嵌入,通常称为“软提示”或“提示嵌入”,这些嵌入被前置到实际的输入序列嵌入之前。
传统的提示方式,通常被称为提示工程或离散提示,涉及精心设计文本指令(例如,“将英语翻译成法语:{sentence}”)以引导LLM的行为。尽管有效,但找到最佳的离散提示可能具有挑战性,并且通常需要大量手动工作。
提示调整通过用可学习的连续向量替换离散文本提示来自动化此过程。我们不是尝试不同的词语或短语,而是初始化一个提示嵌入序列,并使用梯度下降来优化它们的值以完成特定的下游任务。
设输入令牌序列为 X=[x1,x2,...,xn]。每个令牌 xi 都被映射到一个输入嵌入 ei。提示调整引入了一组 k 个可学习的提示嵌入 P=[p1,p2,...,pk],其中每个 pj 与令牌嵌入具有相同的维度(例如,dmodel)。这些学习到的嵌入被前置到输入嵌入序列之前,形成冻结LLM第一层的有效输入:
LLM的输入=[p1,p2,...,pk,e1,e2,...,en]在微调期间,损失函数(例如,用于分类或生成的交叉熵)根据模型的输出来计算。然而,反向传播只更新提示嵌入 P 的参数。基础LLM的所有参数保持不变。
提示调整的流程。可学习的连续提示嵌入(蓝色)前置于标准输入嵌入(灰色)。训练期间只更新这些提示嵌入,而主要LLM(黄色)保持冻结。
像Hugging Face的PEFT(参数高效微调)这样的库提供了方便的抽象,用于实现提示调整。通常,您会:
PromptTuningConfig,指定诸如虚拟令牌数量(num_virtual_tokens,等同于 k)和初始化方法等参数。提示调整是一种有效且资源高效的LLM适配方法,当计算资源有限或需要在不修改基础模型权重的情况下处理多项任务时,此方法特别有用。它是PEFT工具集中一种有用的技术,与调整模型内部参数的方法相比,它提供了一种不同的方式。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造