单个LLM智能体可以使用ReAct和思维链等技术进行精密推断。除了单个智能体的能力,使智能体群体能够汇集其知识和推理能力,这是一种更高级且有力的能力。虽然单个精心设计的智能体可以完成重要任务,但许多问题得益于多样的观点、分布式信息处理和协作式决策。将考察从多个智能体汇总知识的方法以及使得它们能群体推理的策略,目标是得出通常优于任何单个智能体独立产生的解决方案和有价值的观察结果。知识汇总的基本原理有效的群体推理依赖于智能体访问、共享和整合信息的能力。如果没有知识汇总的机制,智能体将孤立运行,无法利用彼此的发现或观点。目前有两种主要的知识汇总模式很常见:共享存储库和基于消息的交换。共享知识存储库一个常见方法是为智能体提供访问一个或多个共享知识存储库的权限。这些存储库可以从简单数据库到复杂知识图谱或向量存储库不等。向量存储库:在基于LLM的系统中特别有用,向量存储库允许智能体根据语义相似性存入和检索信息。智能体可以将其观察或结论嵌入为向量,使处理问题相关方面的其他智能体能够发现它们。这类似于群体长期记忆,智能体向共享的嵌入式知识池贡献并提取信息,通常支撑整个群体的检索增强生成(RAG)。知识图谱:对于更结构化的信息,知识图谱允许智能体向共享模型贡献实体和关系。这对于需要理解复杂相互关联的任务有益。例如,一个智能体可能识别一个组件,另一个可能定义其与其他组件的关系,所有这些都在同一个图谱中。数据库(关系型/NoSQL):传统数据库可以充当智能体生成或需要访问的结构化或半结构化数据的存储库。这可能包括事件日志、环境中各种实体的状态,或与其任务相关的事实数据。智能体通过执行读、写、查询和更新操作与这些存储库交互。其优势在于共享信息可能具有一致的视图(尤其是在集中式存储库中)以及群体知识的持久存储。然而,挑战包括管理并发访问、确保数据时效性、集中存储库可能产生的瓶颈,以及定义合适的模式或本体。基于消息的汇总另一种方式是,知识可以通过智能体之间的直接消息传递进行汇总,如第3章所述。在此模型中,智能体明确地将信息片段、部分结果或信念传达给其他相关智能体。结构化消息:智能体根据预定义模式交换格式化的消息,确保接收方能够解析和理解内容。这些消息可能包含原始数据、总结的发现、置信分数或信息请求。信息综合:智能体通过消息从多个来源接收信息后,必须综合这些输入。LLM特别擅长此项,能够总结多个文本输入、识别共同主题或指出差异。例如,一个负责市场分析的智能体可能会接收来自几个专业智能体的价格预测,并使用其LLM核心生成综合预测,可能注明范围和置信水平。基于消息的汇总高度动态且灵活,非常适合快速变化的情况。主要挑战包括潜在的通信开销、如果管理不当存在信息过载的风险,以及在没有额外机制(如工作流编排中讨论的机制,第4章)的情况下难以维持全局一致状态。群体推理的策略一旦知识汇总完毕,下一步就是将其用于群体推理和决策。这涉及使得智能体群体从共享信息走向共享结论、计划或理解的过程。共识机制对于需要群体从多个备选方案中选择一个选项或就特定数值达成一致的任务,采用共识机制。投票:智能体可以对优先选项“投票”。简单多数规则很常见,但也可以使用更复杂的方案,如加权投票(其中智能体的投票根据其专业知识或可靠性进行加权)或排序选择投票。例如,一个诊断智能体团队可能各自提出系统中一个可能的故障,投票机制可以选择最常识别出的故障。分数平均或汇总:如果智能体产生数值输出(例如,概率估计、效用分数),可以通过平均、加权平均或根据问题背景选择中位数/最小值/最大值进行汇总。LLM驱动的智能体可能会被提示分析这些分数,并为汇总结果提供理由。审议过程更复杂推理通常得益于审议过程,智能体参与论点、证据和批判的结构化交换,类似于人类团队辩论。模拟辩论:一个智能体可能提出假设或计划。其他智能体,可能具有指定角色,如“批评者”或“替代方案提出者”,可以质疑提议、提供反驳论点或建议修改。LLM可以被提示扮演这些角色。例如,“红队智能体”可以设计用于严格评估“规划智能体”生成的计划。证据结合:智能体提供支持或反对特定主张的证据。“综合智能体”或特定协议随后结合这些证据,可能根据来源可靠性或证据强度进行加权,以达成群体共识。LLM可以协助总结论点并识别重要的争议点或共识点。考虑一个用于科学发现的多智能体系统。一个假设生成智能体提出新理论。一个文献评论智能体提供支持或反驳论文。一个实验设计智能体建议测试。一个批评智能体指出缺陷。最后,一个首席科学家智能体综合所有输入以完善或拒绝假设。这种迭代的、基于角色的审议使得对问题空间进行考量。论证框架论证提供了一种更正式的结构,用于处理冲突或不完整信息时的推理。智能体构建论点,这些论点通常由主张、支持数据(前提)以及将数据与主张联系起来的规则构成。攻击与支持:智能体可以识别论点之间的关系,例如一个论点“攻击”(削弱)另一个,或者一个“支持”另一个。可接受性语义:基于论点网络及其关系,形式语义(规则)决定哪些论点最终是“可接受”或“合理的”。例如,如果一个论点没有被攻击,或者如果其所有攻击者本身被其他可接受的论点攻击,则可能是可接受的。虽然抽象论证的形式化(例如,Dung的框架)可能相当数学化,但智能体构建、共享和评估明确论点的核心思想可以在基于LLM的系统中实现。LLM智能体可以被提示为一个立场生成论点,识别另一个智能体论点中的缺陷,或从一组争议点中确定主要结论。用于推理的黑板系统黑板架构常用于问题解决,也可以是群体推理的一个有力模型。“黑板”是一个共享数据结构,智能体可以在其中发布假设、部分解决方案、证据和推理步骤。共享工作区:智能体监控黑板,以获取与其专业知识相关的信息。增量贡献:当智能体发现贡献机会时,它会处理来自黑板的信息,并发布自己的结论或新数据,在他人的工作基础上进行。控制机制:控制组件(可以是另一个智能体或一组规则)通常指导过程,决定哪个智能体接下来可以“写入”黑板,或将注意力集中在有前景的领域。对于群体推理,黑板成为一个动态空间,通过专业智能体的机会性贡献,解决方案或复杂理解得以逐步构建。例如,LLM智能体可能会监控黑板以查找冲突的陈述,并在检测到时,发布新条目,指出矛盾并提出解决路径。群体推理的架构考量多智能体系统的整体架构显著影响群体推理的执行方式。第2章讨论了各种智能体组织模型;在此我们将它们与推理联系起来。集中式协调者模型在此模型中,一个专门的“协调者”或“聚合者”智能体协调群体推理过程。其他智能体向该中心智能体提交其个人发现、意见或部分解决方案。协调者随后负责应用所选的推理策略(例如,运行投票协议、综合论点、管理审议)。digraph G { rankdir=TB; splines=ortho; node [shape=box, style="rounded,filled", fillcolor="#a5d8ff", fontname="sans-serif"]; edge [fontname="sans-serif"]; bgcolor="transparent"; Agent1 [label="智能体 1\n(数据收集器)"]; Agent2 [label="智能体 2\n(分析师)"]; AgentN [label="智能体 N\n(验证器)"]; FacilitatorAgent [label="协调智能体\n(推理协调器)", fillcolor="#74c0fc", shape=cylinder]; CollectiveDecision [label="群体决策 / 输出", shape=document, fillcolor="#69db7c"]; Agent1 -> FacilitatorAgent [label="数据/观察结果"]; Agent2 -> FacilitatorAgent [label="分析/假设"]; AgentN -> FacilitatorAgent [label="验证结果"]; FacilitatorAgent -> CollectiveDecision [label="综合结果"]; subgraph cluster_team { label="专业智能体"; color="#495057"; style=rounded; fontname="sans-serif"; Agent1; Agent2; AgentN; } }一种集中式模型,其中专业智能体向协调智能体提供输入,然后协调智能体应用群体推理逻辑以产生统一结果。这种架构简化了推理逻辑,因为它集中在一处,但可能造成瓶颈和单点故障。去中心化点对点模型在此,智能体直接与同级智能体通信。知识和推理在网络中传播。达成群体理解或决策通常涉及迭代消息交换、基于邻居状态的局部信念更新以及这些变化的传播。digraph G { rankdir=TB; layout=circo; node [shape=box, style="rounded,filled", fillcolor="#a5d8ff", fontname="sans-serif"]; edge [fontname="sans-serif", color="#495057"]; bgcolor="transparent"; A [label="智能体 A"]; B [label="智能体 B"]; C [label="智能体 C"]; D [label="智能体 D"]; E [label="智能体 E"]; A -> B [dir=both, label=" 交换"]; B -> C [dir=both, label=" 交换"]; C -> D [dir=both, label=" 交换"]; D -> E [dir=both,label=" 交换"]; E -> A [dir=both, label=" 交换"]; A -> C [dir=both, style=dashed, color="#adb5bd"]; B -> D [dir=both, style=dashed, color="#adb5bd"]; C -> E [dir=both, style=dashed, color="#adb5bd"]; D -> A [dir=both, style=dashed, color="#adb5bd"]; E -> B [dir=both, style=dashed, color="#adb5bd"]; subgraph cluster_all { label="去中心化推理网络"; color="#868e96"; style=rounded; fontname="sans-serif"; A;B;C;D;E; } }在去中心化模型中,智能体进行点对点交换,以共享信息并迭代完善群体理解。虚线表示有助于涌现推理过程的进一步通信路径。去中心化模型通常更具韧性和可扩展性,但需要更复杂的协调协议来确保收敛和连贯性。分层推理在具有分层结构的系统中,推理可以在多个层面进行。智能体子群体可能对特定子问题进行推理,其群体输出随后传递给更高级的智能体,这些智能体对中间结果进行汇总和推理。这类似于大型人类组织通常如何做出决策。群体推理的挑战知识汇总和群体推理并非没有困难:信息融合与冲突解决:智能体可能拥有冲突或矛盾的信息。系统需要解决这些冲突的机制,可能通过评估来源的可靠性、权衡证据或启动进一步的澄清对话(如第3章中关于管理分歧所提及)。保持连贯性:当智能体共享和更新信念时,确保群体“知识状态”保持连贯且不矛盾是一个重要挑战,尤其是在动态环境中。可扩展性:通信和计算开销会随着智能体数量的增加而大幅增加。推理策略必须设计为有效扩展。共同点与语义:智能体需要对它们所使用的语言和思想有共同理解。解释上的差异可能导致误解和有缺陷的群体推理。LLM可以帮助弥合一些语义鸿沟,但建立清晰的通信协议和共享本体通常是必要的。可解释性:理解一群智能体如何得出特定结论可能比单个智能体更具挑战性。记录中间推理步骤和设计能够阐明其贡献的智能体对于透明度很重要。利用LLM能力进行群体推理大型语言模型提供独特优势,可应用于增强群体推理过程:总结与综合:LLM擅长将大量文本或多样信息浓缩成连贯的摘要。LLM驱动的智能体可以综合来自多个其他智能体的输入,提取重要见解或识别新兴共识。论点生成与评估:鉴于一个立场和一些背景信息,LLM可以生成合理的论点。它们还可以被提示评估论点强度、识别逻辑谬误,或在审议过程中扮演批评者的角色。审议中的角色扮演:LLM可以采纳角色,使得它们能够在群体推理框架内扮演特定角色(例如,乐观者、悲观者、数据检查员、伦理学家),丰富审议过程。协调与主持:基于LLM的智能体可以在多智能体讨论中充当协调者,总结要点,使讨论保持正轨,并提示智能体进行澄清或提供更多输入。自然语言接口:LLM使得智能体能够使用自然语言交流和共享知识,可能降低设计复杂智能体间通信协议的障碍,尽管结构化数据交换对于精确性通常仍然很重要。通过精心设计智能体角色和交互协议,并通过提示LLM执行特定的推理子任务(如综合、批判或总结),开发者可以构建强大的群体推理系统。目标是创建一个环境,其中智能体群体的组合智能能有效处理超出任何单个智能体能力范围的问题,从而创造更精密的分布式问题解决。