趋近智
编写提示是我们向大型语言模型表达意图的方式,但这并非总是一帆风顺。你可能写出看似非常清晰的指令,却只收到意想不到、错误或无用的回复。知晓可能遇到的常见障碍,有助于你更有效地使用提示。下面我们来看一些常见问题。
"大型语言模型对清晰、明确的指令响应最佳。如果你的提示过于模糊或容易被误解,模型可能会猜测你的意图,其猜测可能是错误的。它缺少人类用来弥补空白的上下文和常识性推理。"
考虑以下提示:
告诉我关于狗的信息。
这范围很广。大型语言模型可能会回复:
如果你特别想要关于常见品种的信息,更有效的提示会是:
列出美国5种受欢迎的狗品种,并提供每种的简要描述(1-2句话)。
这个修改后的提示明确指定了所需内容(流行品种)、数量(5种)、地区(美国)和格式(1-2句话的简要描述)。请记住“提供清晰指令”部分中的原则:你越具体,大型语言模型就越有可能生成你真正想要的输出。
你可能观察到的一种特殊行为是,大型语言模型生成的文本听起来合理且自信,但实际上是错误的或完全捏造的。这常被称为“幻觉”。发生这种情况是因为大型语言模型本质上是预测机器。它们根据从大量训练数据中学习到的模式生成文本,目标是统计上的可能性,而非事实准确性。如果生成一个编造的“事实”比表达不确定性或检索正确信息更符合模式,模型就可能这样做。
例如,你可能会问:
是谁发明了毛绒订书机?
大型语言模型可能会自信地回复:
毛绒订书机是由埃莉诺·皮弗尔博士于1983年发明的。
如果皮弗尔博士和毛绒订书机不存在,这就是幻觉。模型构建了一个基于它所见的类似句子结构、看起来像事实答案的回复。
如何应对:
有时,大型语言模型的输出会感觉平淡、通用或重复,特别是对于创意任务或提示简单时。模型可能会回归到训练数据中最常见的模式,导致缺乏新意的文本。
提示:
写一首关于猫的诗。
回复(可能):
一只蓬松的猫,如此光滑整洁, 带着无声的爪子和轻柔的脚。 它整天在阳光下打盹, 梦想着它尚未捕获的老鼠。
虽然技术上正确,但相当通用。为了得到更有趣的回复,你可以尝试:
写一首关于一只笨拙的猫试图捕捉激光笔的短篇幽默诗,以苏斯博士的风格创作。你是一个脾气暴躁的老海盗。写一首关于你那烦人但深爱的船上猫的海上号子。以一只猫的视角写一首诗,这只猫偷偷地认为自己是房子的主人,观察着它的人类臣民。大型语言模型可以处理多部分指令,但其能力有局限。如果一个提示包含过多步骤、限制或条件逻辑,模型可能会遗漏部分、感到困惑或执行错误。
考虑一个复杂提示:
将提供的文章精确概括为5个要点。然后,判定主要情绪(积极、消极或中性)。最后,提取所有提及的公司名称并按字母顺序排列,忽略仅在参考文献部分提及的公司。
大型语言模型可能会提供一个好的概括,但未能正确提取公司名称或错误判断情绪。
策略:
你可能会发现,略微不同的提问方式会产生显著不同的结果。确切的词语、标点符号和句子结构会影响模型的理解和后续输出。
示例:
简单说明光合作用。向一个五岁孩子描述光合作用如何运作。提示B很可能生成一个使用类比的简单得多的解释,而提示A可能会生成一个技术上准确但更复杂的描述。这种敏感性意味着,为了达到预期效果,通常需要尝试不同的措辞。如果你没有得到想要的结果,尝试重新措辞你的请求。
大型语言模型从人类生成的大量文本数据中学习。不幸的是,这些数据包含各种社会偏见(与性别、种族、年龄等相关)。因此,大型语言模型有时会在其回复中反映甚至放大这些偏见,即使提示无意引出它们。
例如,一个要求某个职业典型特征的提示,如果这些刻板印象在训练数据中普遍存在,可能会生成刻板印象的描述。
需要了解:
遇到这些挑战是学习使用大型语言模型的正常组成部分。不要气馁!将每一次意想不到的输出都视为学习的机会。通过识别这些常见问题,尝试你的提示,并迭代你的指令,你将能更好地引导大型语言模型生成有用且准确的回复。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造