趋近智
最大化共享的团队奖励是协作式多智能体环境中的一个共同目标。集中训练去中心化执行 (CTDE) 方法提供了一种实用办法:智能体可以潜在地获取全局信息共同学习,但在执行时必须仅根据各自的局部观测独立行动。CTDE 中的一个主要难题是如何有效地协调行动。如果学习一个集中式的联合动作价值函数 Qtot(s,a)(其中 s 是全局状态或训练期间可用的某种表示,a 是联合动作 (a1,...,aN)),那么如何从中提取智能体可以根据其局部观测 oi 使用的去中心化策略 πi(ai∣oi),就是一个主要问题。
对 Qtot 进行关于 a 的全局 argmax 运算通常在计算上不可行,尤其当智能体和动作的数量增加时。价值分解方法通过学习单个智能体的价值函数 Qi(oi,ai),然后以结构化的方式组合它们来近似 Qtot,从而确保最大化 Qtot 可以通过每个智能体最大化自己的 Qi 来实现。
价值分解最简单的方法是价值分解网络 (VDN)。VDN 假定联合动作价值函数可以加性分解为单个智能体的价值函数:
Qtot(s,a)=i=1∑NQi(oi,ai)这里,N 是智能体的数量。每个 Qi 通常由一个神经网络表示,该网络将智能体 i 的局部观测 oi 和动作 ai 作为输入(通常,在给定 oi 的情况下,该网络会输出所有可能动作 ai 的 Q 值)。全局 Qtot 只是这些单个 Q 值的总和。
它如何支持 CTDE:
VDN 架构。每个智能体都有一个独立的 Q 网络。在训练期间,它们的输出被求和以形成 Qtot,用于损失计算。在执行期间,每个智能体根据自己的 Qi 贪婪地行动。
局限: VDN 的主要局限是其严格的加性假定。它只能表示每个智能体的贡献独立于其他智能体动作的联合动作价值函数。这使得它无法对更复杂的协作场景进行建模,在这些场景中,一个智能体动作的价值严重依赖于其他智能体正在做什么。
QMIX (Q-Mixing) 解决了 VDN 在表示上的局限,同时保持了方便的去中心化执行特性。QMIX 没有采用简单的求和,而是使用一个混合网络来组合单个的 Qi 值以形成 Qtot。
Qtot(s,a)=f({Qi(oi,ai)}i=1N,s)函数 f,由混合网络表示,被设计为满足一个重要的单调性约束:
∂Qi∂Qtot≥0∀i该约束足以确保如果一个智能体增加其单个 Qi 值,全局 Qtot 值将增加或保持不变,但绝不会减少。
单调性为何重要:
单调性约束足以确保对 Qtot 进行全局 argmax 运算会得到与对每个 Qi 分别进行 argmax 运算相同的结果:
这表示 QMIX 保留了 VDN 中去中心化执行的便利性,即每个智能体只选择最大化其自身学习到的 Qi 的动作。
混合网络架构: 混合网络通过具有非负权重来强制执行单调性约束。它通常将单个 Qi 网络的输出作为输入。最重要的是,混合网络本身的权重和偏置是由单独的超网络生成的,这些超网络接收全局状态 s 作为输入。这使得单个 Qi 值组合的方式能够依赖于状态提供的整体上下文,从而使 QMIX 比 VDN 更具表示能力。权重的非负性通常通过在生成权重的超网络输出上使用绝对激活函数或 ReLU 来强制实现。
QMIX 架构。单个智能体 Q 网络(Q1 到 QN)去中心化运行。它们的输出输入到一个中央混合网络。混合网络的参数(权重和偏置)由基于全局状态 s 的超网络生成,从而保证单调性(∂Qtot/∂Qi≥0),并允许复杂、依赖于状态的组合,同时保持可行的去中心化执行。
相对于 VDN 的优势: QMIX 比 VDN 能够表示更丰富的协作式多智能体强化学习问题,因为混合网络可以学习单个智能体价值的复杂非线性组合,这些组合是基于全局状态的。唯一的结构约束是单调性,这比纯粹的加性约束要宽松得多。
总结: VDN 和 QMIX 是协作式多智能体强化学习的 CTDE 框架内重要的基于价值的方法。它们学习单个智能体 Q 函数 Qi,这些函数支持去中心化执行。
这些方法通过分解团队的价值函数,提供了协调智能体团队的有效方式,为协作式多智能体强化学习中的许多高级技术提供了重要支持。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造