趋近智
当我们要求大语言模型执行任务时,特别是那些并非单一、直接查询的任务,我们通常希望了解它是如何得出结论或计划的。对于需要执行一系列行动的智能体来说,仅仅得到一个最终答案往往不够。想象一下,你正在构建一个智能体来帮助规划一次简单的旅行。如果它只说“去巴黎”,那帮助不大。你会想知道它的推理:为什么是巴黎?规划涉及哪些步骤?在这种情况下,引导智能体的推理过程就显得有必要了。
一种有效且出人意料的简单技术,可以提高大语言模型(进而提高我们智能体)的推理能力,这便是思维链 (CoT) 提示。主要思想是鼓励大语言模型不仅仅给出最终答案,而是“大声思考”或生成一系列导致该答案的中间推理步骤。这就像你的数学老师要求你“展示计算过程”而不仅仅写下答案一样。
其核心是,CoT通过设计向大语言模型的提示词,明确要求它分解自己的思考过程。例如,与其直接向大语言模型提问并寄希望于最佳结果:
标准提示:
"If a recipe calls for 2 cups of flour and I want to make half the recipe, how much flour do I need?"
大语言模型(可能只给出答案):
"1 cup of flour."
虽然正确,但这没有展示推理过程。使用CoT,你会鼓励大语言模型自己解释:
思维链提示:
"If a recipe calls for 2 cups of flour and I want to make half the recipe, how much flour do I need? Explain your thinking step by step."
大语言模型(使用CoT): `"好的,我们来算一下:
这种中间的“思考过程”便是思维链。对于大语言模型智能体来说,这不仅仅是为了得到计算的正确答案。它关乎组织大语言模型的输出,使其能够用来引导一系列行动或决策。
将CoT提示融入你的智能体设计会带来多种益处:
假设你想让你的智能体列出简单任务的步骤,例如“研究一个用于演示的新主题”。
标准提示:
"How should I research a new topic for a presentation?"
大语言模型响应(可能过于简短或缺乏结构):
"Define scope, find sources, take notes, synthesize."
虽然这涵盖了基本内容,但对于可能需要协助每一步的智能体或需要更多指导的用户来说,它不够详细。
思维链提示:
"I need to research a new topic for an upcoming presentation. Can you help me break down how to approach this effectively? Let's think step by step."
大语言模型响应(使用CoT): `"好的,让我们系统地处理你演示文稿的新主题研究:
这种详细分解提供了一个更清晰的‘计划’,能够引导研究过程。"`
你不需要复杂的算法就可以开始使用CoT。它主要在于提示工程。当你的智能体需要弄清一个多步骤流程时,你可以指示大语言模型(作为智能体的“大脑”)使用如下短语来生成这些步骤:
智能体的控制循环(我们在上一章中讨论过)可以接收大语言模型的这种结构化输出。大语言模型生成的“思考”(即推理链)为智能体可能采取或建议的后续“行动”或行动序列提供信息。例如,如果大语言模型生成了一个像研究案例中那样的编号步骤列表,智能体可以被编程为向用户展示这些步骤,甚至协助启动第一步(例如,“您希望我从搜索与‘大语言模型智能体’相关的关键词开始吗?”)。
想象你的智能体是一个旅行规划师(大语言模型是它的大脑),任务是规划一次周末旅行。
这个详细计划(思维链)更具可操作性。
该图示了用户请求如何通过智能体,使用大语言模型的思维链提示,以生成一个有推理依据的计划。
尽管CoT是一种强大而直接的技术,但它并非所有规划和推理难题的完整方案:
尽管有这些方面,思维链提示仍然是一个极好的起点,可以提升你的智能体处理需要多于一次性回答的任务的能力。它为更结构化的思考打下了基础,这是创建更强大智能体的重要方面。当我们继续学习,特别是讨论ReAct框架时,你将看到这种推理和行动交织的理念是如何基于这些基本提示策略的。
简洁的语法。内置调试功能。从第一天起就可投入生产。
为 ApX 背后的 AI 系统而构建
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造