趋近智
小样本提示是一种高级技术,用于引导大型语言模型(LLM),它与那些完全依赖LLM已有知识和指令遵循能力的方法形成对比。它利用大型语言模型内部被称为上下文学习的机制来实现其效果。您不再仅仅告诉模型做什么,而是通过在提示词中直接提供少量示例(k 个示例,其中 k 通常很小,例如 1 到 5 个)来展示它如何做。
这种方法在以下情况特别有效:
需要理解的是,小样本提示不会更新大型语言模型的底层参数(权重)。这种“学习”是动态发生的,在单次 API 调用的上下文窗口内。模型分析提供的示例,识别连接示例输入与示例输出的模式。然后,它将这种推断出的模式应用到示例后实际的输入查询上。
把它想象成在某人执行一项特定任务之前,您立即为他们提供简短、即时的培训。他们利用这些示例来理解即时需求,但不会从根本上改变其长期知识。
一个典型的小样本提示词遵循一致的结构:
Text:,Input:)+ 示例输入 1Sentiment:,Output:)+ 示例输出 1在示例和最终查询之间保持标签和格式的一致性对成功很重要。
假设我们希望将客户反馈分类为 正面、负面或中立,但我们希望确保模型准确使用这些标签。
对以下客户评论进行情感分类。
文本: "这款设备的电池续航太棒了!"
情感: 正面
文本: "屏幕太容易刮花了。"
情感: 负面
文本: "它按时送达了。"
情感: 中立
文本: "客户支持很有帮助,但响应速度较慢。"
情感:
通过提供示例,我们引导模型:
正面、负面、中立)。大型语言模型遵循该模式,很可能会用 负面 或 中立 补全提示,这取决于它在类似数据上进行的学习以及示例的指引。
小样本提示有助于引导代码生成任务。假设您想根据描述生成简单的 Python 函数。
# 根据描述生成一个Python函数。
描述: """将两个数字相加。"""
函数:
def add(a, b):
"""将两个数字相加。"""
return a + b
描述: """连接两个字符串,用空格分隔。"""
函数:
def concatenate_strings(s1, s2):
"""连接两个字符串,用空格分隔。"""
return s1 + " " + s2
描述: """计算矩形的面积。"""
函数:
模型会观察到模式:获取描述,将其用作文档字符串,定义一个具有合适参数的函数,并实现其逻辑。它很可能会生成如下内容:
def rectangle_area(length, width):
"""计算矩形的面积。"""
return length * width
示例的质量极大地影响结果。在选择时请考虑以下几点:
通常,少量示例(k=1 到 k=5)就足够了。这就是为什么它被称为“小样本”提示。添加过多示例可能不会提升表现,并且可能超出模型的上下文长度限制。
以下图示说明了为翻译设计的小样本提示中的流程。
此图展示了指令、示例(输入/输出对)和最终查询是如何构建在发送给大型语言模型的提示词中,然后大型语言模型根据学习到的模式生成结果。
小样本提示是您提示工程工具箱中一种有价值的技术,提供了一种有效引导大型语言模型完成特定任务和输出格式的方法,无需修改模型本身。与零样本提示相比,它提升了控制力,使得更复杂的交互成为可能。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造