尽管标准的Metropolis-Hastings和Gibbs采样提供了MCMC的基本方法,但它们在高维或强相关后验分布中可能表现不佳。它们的提议通常类似随机游走,导致采样效率低和样本间自相关性高。哈密顿蒙特卡洛(HMC)通过借鉴经典物理学思想,特别是哈密顿动力学,提供了一种更有效的方式来采样参数 (parameter)空间。
可以将负对数后验密度想象成一个势能曲面。我们希望高效地在这个曲面进行采样。HMC引入了一个假想粒子在这个曲面上移动。粒子的位置对应于我们希望采样的参数θ,我们引入一个辅助动量变量p,其维度通常与θ相同。
哈密顿框架
在物理学中,一个系统的总能量,即哈密顿量H,是势能U和动能K之和。我们将其应用于统计目的:
-
势能 U(θ): 这被定义为目标密度的负对数。由于MCMC只需要目标密度达到一个比例常数,我们可以使用联合概率(似然乘以先验)的负对数,忽略证据项:
U(θ)=−log[p(D∣θ)p(θ)]=−logp(θ,D)
最小化势能对应于最大化后验概率。
-
动能 K(p): 这取决于辅助动量变量p和一个“质量矩阵”M,为简化起见,该矩阵通常假定为单位矩阵(M=I),除非我们有理由对不同维度进行不同缩放。
K(p)=21pTM−1p
如果M=I,这简化为K(p)=21∑ipi2。这对应于从多元高斯分布中采样动量,通常是p∼N(0,M)。
-
哈密顿量 H(θ,p): 我们假想系统的总“能量”是:
H(θ,p)=U(θ)+K(p)
核心思想是根据哈密顿动力学模拟粒子的运动。在理想物理系统中,总能量H(θ,p)随时间保持不变。粒子的轨迹由哈密顿方程支配:
dtdθi=∂pi∂H=(M−1p)i
dtdpi=−∂θi∂H=−∂θi∂U(θ)
直观地,第一个方程表明动量会引起位置(参数 (parameter))改变。第二个方程表明作用在粒子上的力(势能的负梯度,即对数后验的梯度)引起动量改变。请注意,计算动量变化需要对数后验的梯度∇θU(θ)。这是HMC的一个必要条件。
使用蛙跳积分器模拟动力学
对于复杂的后验分布,解析求解哈密顿方程通常是不可能的。相反,我们使用数值积分。一种常用且有效的方法是蛙跳积分器。它交替更新位置和动量,与欧拉方法等简单积分器相比,提供了更好的稳定性并保持了几何特性。
蛙跳算法以大小为ϵ的离散时间步进行。为了从时间t移动到t+ϵ,它执行三次更新:
- 动量的半步更新:
p(t+ϵ/2)=p(t)−2ϵ∇θU(θ(t))
- 位置的全步更新:
θ(t+ϵ)=θ(t)+ϵM−1p(t+ϵ/2)
- 动量的半步更新:
p(t+ϵ)=p(t+ϵ/2)−2ϵ∇θU(θ(t+ϵ))
我们将这些步骤重复L次,以模拟总时长为Lϵ的轨迹。
HMC算法
HMC的一次迭代过程如下:
- 开始于当前参数 (parameter)状态θcurrent。
- 动量采样: 从高斯分布中抽取一个随机动量向量 (vector)p,例如,p∼N(0,M)。
- 模拟轨迹: 从(θcurrent,p)开始,运行蛙跳积分器L步,步长为ϵ。令轨迹结束时的状态为(θ′,p′)。
- Metropolis接受步骤: 由于蛙跳积分器引入小的数值误差,哈密顿量H不会完美守恒。我们使用Metropolis接受步骤对此进行修正。计算接受概率:
α=min(1,exp(−H(θcurrent,p))exp(−H(θ′,p′)))=min(1,p(θcurrent,D)exp(−K(p))p(θ′,D)exp(−K(p′)))
请注意,目标密度p(θ,D)直接出现在这里。
- 接受或拒绝: 抽取u∼Uniform(0,1)。如果u<α,接受提议的状态:θnext=θ′。否则,拒绝提议:θnext=θcurrent。
- 返回: 马尔可夫链中的下一个样本是θnext。动量变量p被丢弃;它仅用于生成提议。在下一次迭代开始时会抽取一个新的动量。
一张HMC轨迹穿越势能曲面(代表负对数后验)等高线的示意图。轨迹在不同的参数值之间移动,同时倾向于停留在能量相似的区域。
HMC为何有效
HMC使用梯度信息∇θU(θ)来智能地引导其提议。它不是进行随机游走,而是依据后验形状进行提议移动。通过模拟动力学进行多个步长L,HMC可以生成远离当前状态但仍具有高接受概率的提议,特别是如果ϵ选择适当。这大幅降低了样本间的自相关性,并且与随机游走Metropolis或Gibbs采样相比,可以更快地采样目标分布,尤其是在处理大量参数 (parameter)或参数间存在强相关时。
实际考量
- 梯度计算: HMC需要对数后验的梯度。现代概率编程语言(PPLs)如Stan、PyMC、NumPyro和TensorFlow Probability使用自动微分来高效准确地计算这些梯度,使HMC在复杂模型中变得实用。
- 调优参数 (parameter): HMC引入了两个主要调优参数:步长ϵ和步数L。
- ϵ:控制离散化误差。ϵ过大会导致哈密顿模拟不准确,从而接受率低。ϵ过小会使模拟变慢,且需要大量步数L才能显著移动。
- L:控制模拟轨迹的长度。L过小会导致类似随机游走的行为(高相关性)。L过大会导致轨迹折返,造成计算浪费。
寻找最优的ϵ和L通常需要一些实验或自适应方法。
HMC代表了MCMC技术的重要进展。它利用梯度进行高效采样的能力使其成为许多现代贝叶斯推断问题的核心算法。理解其机制有助于理解这些高级采样器的工作原理,并为理解自适应扩展(如No-U-Turn Sampler (NUTS))奠定了基础,NUTS能自动化L的调优。