趋近智
一旦贝叶斯网络(BN)的结构 G 确定,无论是通过领域知识还是结构学习算法,下一个重要的步骤是量化连接节点间的概率关系。这涉及学习模型的参数,这些参数通常定义图中每个变量给定其父节点时的条件概率分布(CPD)。与仅仅为这些参数找到一个单一的最佳估计(如最大似然估计)不同,贝叶斯方法将参数本身视为随机变量,旨在计算其在观测数据下的后验分布。
在贝叶斯网络中,参数(统称为 θ)表示定义模型的条件概率。对于具有变量 X1,…,Xn 的网络,参数 θ 包含每个变量 Xi 的集合 θi∣pa(Xi),它们指定了 Xi 在其父节点 pa(Xi) 的每种配置下的概率分布 P(Xi∣pa(Xi),θi∣pa(Xi))。
贝叶斯参数学习的核心思想是,首先对这些参数设定一个 先验分布 P(θ∣G),这反映了我们在观测到任何数据 D 之前的信念。然后,我们使用贝叶斯定理,根据数据更新这些信念,从而得到一个 后验分布 P(θ∣D,G):
P(θ∣D,G)=P(D∣G)P(D∣θ,G)P(θ∣G)这里,P(D∣θ,G) 是给定一组特定参数 θ 和图结构 G 时观测到数据 D 的似然。项 P(D∣G) 是边际似然或证据,通常难以直接计算,但它作为一个归一化常数。
贝叶斯网络的一个基本属性大大简化了这一过程。给定一个完整数据集(无缺失值),似然函数根据图结构进行分解:
P(D∣θ,G)=i=1∏nj=1∏qiP(θij∣D)其中 θij 表示变量 Xi 在其父节点 pa(Xi) 处于第 j 种配置(共 qi 种可能配置)时的参数。此外,如果我们假设先验中存在 参数独立性,即 P(θ∣G)=∏i∏jP(θij),那么后验也会分解:
P(θ∣D,G)=i=1∏nj=1∏qiP(θij∣D)这种分解表明我们可以独立地学习每个局部 CPD 的参数,将一个可能巨大的学习问题分解为更小、易于处理的部分。
让我们考虑贝叶斯网络中所有变量都是离散变量的常见情况。每个变量 Xi 可以取 ri 种状态中的一种。参数 θijk 表示变量 Xi 在其父节点 pa(Xi) 处于第 j 种配置时,取其第 k 种状态的概率:
θijk=P(Xi=k∣pa(Xi)=j,θij)其中,对于所有 i,j,∑k=1riθijk=1。
给定数据 D,特定 CPD P(Xi∣pa(Xi)=j) 的似然贡献遵循基于计数 Nijk 的多项分布 —— Nijk 是数据集中 Xi=k 且 pa(Xi)=j 的次数。
对于参数 θij=(θij1,…,θijri) 的先验分布,一个便捷且广泛使用的选择是 狄利克雷分布。狄利克雷分布 Dir(αij1,…,αijri) 定义在概率单纯形上(分量非负且和为1)。其概率密度函数为:
P(θij∣αij)=∏k=1riΓ(αijk)Γ(∑k=1riαijk)k=1∏riθijkαijk−1超参数 αijk>0 可以被理解为 伪计数 或 先验计数,反映了在给定父节点配置 j 时,对 Xi 每个状态 k 出现频率的先验信念。和 αij=∑kαijk 表示此先验信念的强度(等效样本量)。
狄利克雷先验与多项式似然是 共轭 的。这意味着如果先验是狄利克雷分布,似然是多项式分布,那么后验分布也将是狄利克雷分布。具体来说,θij 的后验为:
P(θij∣D,G)=Dir(αij1+Nij1,…,αijri+Nijri)这个优雅的结果意味着后验超参数仅仅是先验超参数加上数据中观测到的相应计数。参数学习归结为统计数据中的出现次数并将其添加到先验伪计数中。
尽管贝叶斯方法可以得出完整的后验分布 P(θ∣D,G),但通常我们需要参数的单点估计,例如,为了填充 CPT 以进行推断。常见的选择包括:
后验均值(贝叶斯估计):这是参数在后验分布下的期望值。对于狄利克雷后验 Dir(αij1′,…,αijri′),此时 αijk′=αijk+Nijk,后验均值为:
E[θijk∣D,G]=∑l=1riαijl′αijk′=∑l=1ri(αijl+Nijl)αijk+Nijk请注意,此估计如何使用先验伪计数 αijk 来平滑经验频率 Nijk/∑lNijl(即最大似然估计,MLE)。这有助于避免数据中未出现事件的零概率,这在较小的数据集中尤为重要。一个常见的无信息先验选择是拉普拉斯平滑先验,即对于所有 i,j,k,αijk=1。
最大后验(MAP)估计:这会找到使后验概率密度最大的参数值。对于狄利克雷后验,MAP 估计为:
θijkMAP=∑l=1ri(αijl′−1)αijk′−1=∑l=1ri(αijl+Nijl−1)αijk+Nijk−1前提是所有 αijk′>1。如果任何 αijk′≤1,则众数位于单纯形的边界。
后验均值和 MAP 之间的选择取决于应用,但后验均值因其平均特性以及与最小化平方误差损失的关联而常被优先选用。
考虑一个简单的参数 θ,它表示硬币正面朝上的概率。假设一个 Beta 先验(它是 K=2 状态的狄利克雷分布:正面、反面),例如 Beta(αH=2,αT=2)。这反映了以 0.5 为中心但存在一定不确定性的先验信念。
假设我们抛硬币 10 次,观测到 NH=7 次正面和 NT=3 次反面。后验分布变为:
P(θ∣D)=Beta(αH+NH,αT+NT)=Beta(2+7,2+3)=Beta(9,5)θ 的后验均值估计(正面朝上概率)为:
E[θ∣D]=9+59=149≈0.643MLE 将是 7/10=0.7。贝叶斯估计略微偏向先验均值 (0.5)。
我们可以将此更新可视化:
该图展示了在观测到数据后,概率密度如何移动并变得更窄(更确定)。先验(蓝色)以 0.5 为中心,而后验(粉色)在 0.64 附近达到峰值,反映了观测到的数据(7 次正面,3 次反面)。
这一原理直接扩展到贝叶斯网络 CPT 中的多项式参数。CPT 中对应特定父节点配置的每一行都使用其相关的先验计数和观测数据计数独立更新。
尽管贝叶斯参数学习对于完整数据和共轭先验来说非常优雅,但它也面临挑战:
总之,贝叶斯参数学习提供了一种规范的方法,通过结合先验知识和观测数据来估计贝叶斯网络的参数。狄利克雷分布等共轭先验的使用,大大简化了离散网络在完整数据下的计算,使得更新高效,并提供了捕获参数不确定性的完整后验分布。这种不确定性是优于 MLE 等点估计的一个明显优势,并且可以传播到后续的推断任务中。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造