编写提示是我们向大型语言模型表达意图的方式,但这并非总是一帆风顺。你可能写出看似非常清晰的指令,却只收到意想不到、错误或无用的回复。知晓可能遇到的常见障碍,有助于你更有效地使用提示。下面我们来看一些常见问题。模糊不清和缺乏具体性"大型语言模型对清晰、明确的指令响应最佳。如果你的提示过于模糊或容易被误解,模型可能会猜测你的意图,其猜测可能是错误的。它缺少人类用来弥补空白的上下文和常识性推理。"考虑以下提示:告诉我关于狗的信息。这范围很广。大型语言模型可能会回复:狗的科学分类。关于流行狗品种的信息。养狗技巧。关于名犬的故事。狗和猫的比较。如果你特别想要关于常见品种的信息,更有效的提示会是:列出美国5种受欢迎的狗品种,并提供每种的简要描述(1-2句话)。这个修改后的提示明确指定了所需内容(流行品种)、数量(5种)、地区(美国)和格式(1-2句话的简要描述)。请记住“提供清晰指令”部分中的原则:你越具体,大型语言模型就越有可能生成你真正想要的输出。模型“幻觉”或编造的信息你可能观察到的一种特殊行为是,大型语言模型生成的文本听起来合理且自信,但实际上是错误的或完全捏造的。这常被称为“幻觉”。发生这种情况是因为大型语言模型本质上是预测机器。它们根据从大量训练数据中学习到的模式生成文本,目标是统计上的可能性,而非事实准确性。如果生成一个编造的“事实”比表达不确定性或检索正确信息更符合模式,模型就可能这样做。例如,你可能会问:是谁发明了毛绒订书机?大型语言模型可能会自信地回复:毛绒订书机是由埃莉诺·皮弗尔博士于1983年发明的。如果皮弗尔博士和毛绒订书机不存在,这就是幻觉。模型构建了一个基于它所见的类似句子结构、看起来像事实答案的回复。如何应对:保持怀疑: 对大型语言模型的输出,特别是事实性主张,要持谨慎态度。交叉核对: 使用可靠来源验证重要信息。要求提供来源: 要求大型语言模型为其主张提供来源(但请注意,它有时也可能编造来源)。明确依据: 如果你提供了上下文,指令模型仅基于所提供的文本回答。过于通用或重复的回复有时,大型语言模型的输出会感觉平淡、通用或重复,特别是对于创意任务或提示简单时。模型可能会回归到训练数据中最常见的模式,导致缺乏新意的文本。提示:写一首关于猫的诗。回复(可能):一只蓬松的猫,如此光滑整洁, 带着无声的爪子和轻柔的脚。 它整天在阳光下打盹, 梦想着它尚未捕获的老鼠。虽然技术上正确,但相当通用。为了得到更有趣的回复,你可以尝试:添加限制: 写一首关于一只笨拙的猫试图捕捉激光笔的短篇幽默诗,以苏斯博士的风格创作。设定角色: 你是一个脾气暴躁的老海盗。写一首关于你那烦人但深爱的船上猫的海上号子。提供更多背景: 以一只猫的视角写一首诗,这只猫偷偷地认为自己是房子的主人,观察着它的人类臣民。难以遵循复杂指令大型语言模型可以处理多部分指令,但其能力有局限。如果一个提示包含过多步骤、限制或条件逻辑,模型可能会遗漏部分、感到困惑或执行错误。考虑一个复杂提示:将提供的文章精确概括为5个要点。然后,判定主要情绪(积极、消极或中性)。最后,提取所有提及的公司名称并按字母顺序排列,忽略仅在参考文献部分提及的公司。大型语言模型可能会提供一个好的概括,但未能正确提取公司名称或错误判断情绪。策略:分解任务: 考虑将一个复杂提示分解为多个简单提示,按顺序进行。首先,要求概括。然后,在另一个单独的提示中,根据原文或概括要求判断情绪。最后,要求列出公司名称。使用格式: 在提示中,使用列表或编号步骤清晰地组织你的指令。迭代: 如果第一次尝试失败,简化指令或一次处理任务的一个部分。提示措辞的敏感性你可能会发现,略微不同的提问方式会产生显著不同的结果。确切的词语、标点符号和句子结构会影响模型的理解和后续输出。示例:提示A:简单说明光合作用。提示B:向一个五岁孩子描述光合作用如何运作。提示B很可能生成一个使用类比的简单得多的解释,而提示A可能会生成一个技术上准确但更复杂的描述。这种敏感性意味着,为了达到预期效果,通常需要尝试不同的措辞。如果你没有得到想要的结果,尝试重新措辞你的请求。回复中的偏见大型语言模型从人类生成的大量文本数据中学习。不幸的是,这些数据包含各种社会偏见(与性别、种族、年龄等相关)。因此,大型语言模型有时会在其回复中反映甚至放大这些偏见,即使提示无意引出它们。例如,一个要求某个职业典型特征的提示,如果这些刻板印象在训练数据中普遍存在,可能会生成刻板印象的描述。需要了解:注意: 认识到大型语言模型输出中可能存在偏见。审慎评估: 评估回复的公平性和潜在偏见。谨慎提示: 避免可能无意中助长刻板印象的措辞。有时你可以明确要求模型给出中立或平衡的视角,尽管不保证成功。解决人工智能中的偏见是一个持续的研究和发展方向。遇到这些挑战是学习使用大型语言模型的正常组成部分。不要气馁!将每一次意想不到的输出都视为学习的机会。通过识别这些常见问题,尝试你的提示,并迭代你的指令,你将能更好地引导大型语言模型生成有用且准确的回复。