趋近智
计算后验分布 p(z∣x) 通常具有很大的计算难度,原因在于证据 p(x) 需要进行难以求解的积分。尽管之前讨论过的马尔可夫链蒙特卡洛方法提供了一种从后验分布采样的途径,但这些方法可能需要大量的计算资源,尤其是在处理大型数据集或复杂模型时。
本章将介绍变分推断(VI),这是一类用于近似后验分布的备选方法。变分推断并非通过采样,而是将贝叶斯推断重新构造为一个优化问题。目标是从一个易于处理的分布族中找到一个分布 q(z),使其与真实的后验分布 p(z∣x) 最为接近。这通常通过最大化模型证据的一个下界来实现,该下界被称为证据下界(ELBO): L(q)=Eq(z)[logp(x,z)]−Eq(z)[logq(z)]
我们将从将推断表述为优化问题开始,并推导出ELBO。您将了解到常见的平均场近似以及坐标上升变分推断(CAVI)算法。随后,我们将介绍使用随机变分推断(SVI)将推断扩展到大型数据集的方法,以及如何使用黑盒变分推断(BBVI)来处理具有复杂梯度的模型。我们还将考察表达能力更强的变分族,并分析变分推断与马尔可夫链蒙特卡洛方法在速度、准确性和可扩展性方面的优缺点。通过使用常用库进行实践操作,将有助于您更好地掌握这些内容。
3.1 优化即推断:变分推断的观点
3.2 推导证据下界 (ELBO)
3.3 平均场近似具体内容
3.4 坐标上升变分推断 (CAVI)
3.5 随机变分推断 (SVI) 针对大规模数据
3.6 黑箱变分推断 (BBVI)
3.7 进阶变分族
3.8 MCMC与VI优势比较
3.9 动手实践:可扩展变分推断
© 2026 ApX Machine Learning用心打造