趋近智
当一个智能体被描述为自主时,它具备无需直接、持续人工干预而运行的能力。它根据其内部状态和对环境的感知来做出决定并启动行动。在传统多智能体系统(MAS)中,自主性是一个重要的特性,通常通过明确编程目标、信念、愿望和意图(BDI架构是一个典型案例)来实现。然而,当大型语言模型(LLM)成为智能体的核心组成部分时,这种自主性的特点以及随之而来的行为获得了新的层面,这在很大程度上受LLM固有能力和限制的影响。
LLM驱动的智能体主要从模型处理自然语言指令(提示)以及生成连贯、与语境相关的回应(可转化为行动)的能力中获得自主性。与采用固定规则集或决策树的传统编程智能体不同,基于LLM的智能体的“决策”过程嵌入 (embedding)在其Transformer架构学习到的复杂模式中。这带来了一种更灵活、但有时预测性较低的自主形式。
LLM智能体的自主性并非二元状态,而是在一个范围内存在。自主程度主要由提示策略的复杂程度、记忆系统的整合、智能体的规划和工具使用能力以及整体架构设计所决定。
LLM智能体自主性的演进,从简单的指令遵循到主动和适应性行为,以及每个阶段的主要实现因素。
在这个范围的低端:
当我们转向更高自主性时:
使用LLM作为核心推理 (inference)引擎,赋予了智能体独特的行为特点:
LLM智能体主要通过自然语言“思考”和操作。它们的内部状态、推理 (inference)过程(如思维链提示)以及与其他智能体或人类的交流通常表现为文本。这使其行为在较高层面具有一定可解释性,但也容易受到语言歧义的影响。
在包含多个LLM智能体的系统中,或甚至单个复杂的智能体中,可能会出现未明确编程的行为。LLM泛化和生成新颖文本的能力可能带来创新解决方案或意料之外的交互。尽管有时有益,但这也会给可预测性和可靠性带来挑战。例如,为协商而设计的两个智能体可能形成意想不到的协作策略,或者相反,由于对彼此生成语言的细微理解偏差而陷入僵局。
LLM通过上下文学习表现出一种快速适应的形式。通过在提示中提供示例、指令或反馈,智能体的行为可以被动态引导,而无需重新训练底层模型。这允许灵活的任务适应,但受限于上下文窗口大小和所提供示例的质量。真正的、持久的学习通常需要与外部记忆和学习机制结合在LLM的核心推理 (inference)过程中。
系统稳定性对智能体可预测行为的需求,与希望发挥LLM生成能力以产生新颖或创造性回应之间,存在明显的制约。LLM API调用中的temperature或top_p等参数 (parameter)直接影响这一点。较低的温度会导致更确定、集中的输出,而较高的温度则鼓励多样性和创造性,但可能会以事实准确性或任务依从性为代价。系统设计者必须根据应用的需求仔细平衡这些因素。
尽管功能强大,LLM有时即使对于相似输入也可能产生不一致的输出,或生成流畅但可能包含事实错误(幻觉 (hallucination))的文本。对于一个依赖LLM输出进行决策或行动的自主智能体来说,这可能导致不稳定或不正确的行为。缓解此问题的策略包括:
有效多智能体系统需要机制来引导和约束单个LLM智能体的自主性,以确保它们可靠运行并与整体系统目标保持一致。
理解自主性和行为的这些方面非常重要,因为这能帮助您设计的智能体不仅智能,而且可预测、可靠,并与您的应用目标保持一致。LLM在语言理解和生成方面的固有优势提供了一个重要的支撑,但仔细的架构设计和控制机制对于构建有效和可管理的多智能体系统是必要的。后续章节将在这些基本思想之上进行扩展,研究如何设计特定的智能体角色、实现通信以及编排复杂工作流。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造