【深度学习】概率图模型(二)有向图模型详解(条件独立性、局部马尔可夫性及其证明)

文章目录

  • 一、有向图模型
    • 1. 贝叶斯网络的定义
    • 2. 条件独立性及其证明
      • a. 间接因果关系 X 3 → X 2 → X 1 X_3 \rightarrow X_2 \rightarrow X_1 X3X2X1
      • b. 间接果因关系 X 1 → X 2 → X 3 X_1 \rightarrow X_2 \rightarrow X_3 X1X2X3
      • c. 共因关系 X 1 ← X 2 → X 3 X_1 \leftarrow X_2 \rightarrow X_3 X1X2X3
      • d. 共果关系 X 1 → X 2 ← X 3 X_1 \rightarrow X_2 \leftarrow X_3 X1X2X3
    • 3. 局部马尔可夫性质
      • a. 理论
      • b. 证明
  • 二、常见的有向图模型
    • 1. Sigmoid信念网
    • 2. 朴素贝叶斯分类器
    • 3. 隐马尔可夫模型

在这里插入图片描述

  概率图模型(Probabilistic Graphical Model,PGM)是一种用图结构来表示和推断多元随机变量之间条件独立性的概率模型。图模型提供了一种直观且有效的方式来描述高维空间中的概率分布,通过图结构表示随机变量之间的关系,使得模型的参数量得以减少。

  【深度学习】概率图模型(一)概率图模型理论简介

一、有向图模型

  有向图模型(Directed Graphical Models)是概率图模型的一类,其中最为知名的代表是贝叶斯网络。这种模型在处理多变量概率关系方面表现出色,提供了一种直观、清晰的方法来描述随机变量之间的因果关系。

  下面将对贝叶斯网络的定义、条件独立性、局部马尔可夫性质等方面进行深入探讨。

1. 贝叶斯网络的定义

【深度学习】概率图模型(二)有向图模型详解(条件独立性、局部马尔可夫性及其证明)_第1张图片

  1. 有向非循环图 G G G G G G是一个图,其中每个边都有一个方向,而且没有形成循环,每个节点都表示一个随机变量。这种有向图表示了变量之间的因果关系,其中箭头的方向指示了因果关系的方向。

  2. X X X 是一个 K K K 维随机向量:表示随机变量的集合,其中 K K K 是变量的数量。每个节点对应 X X X 中的一个随机变量。

  3. X π k X_{\pi_k} Xπk:表示变量 X k X_k Xk 的所有父节点变量的集合,这是一个关键概念,它表示了图中节点 X k X_k Xk 直接影响的变量。

  4. P ( X k ∣ X π k ) P(X_k | X_{\pi_k}) P(XkXπk):表示每个随机变量的局部条件概率分布,即给定其父节点的条件下,该变量的概率分布,表达了节点之间的因果关系。

  5. 联合概率分布的分解:如果随机向量 X X X 的联合概率分布可以分解为每个随机变量 X k X_k Xk 的局部条件概率的连乘形式(即式子 p ( x ) = ∏ k = 1 K p ( x k ∣ x π k ) p(\mathbf{x}) = \prod_{k=1}^{K} p(x_k | \mathbf{x}_{\pi_k}) p(x)=k=1Kp(xkxπk),那么图 (G) 和随机向量 (X) 构成了一个贝叶斯网络。

  • 重点:有向非循环图的结构和条件概率的定义。

2. 条件独立性及其证明

  贝叶斯网络中的条件独立性关系直接反映了有向边的因果关系。

  • 直接连接的节点通常是非条件独立的,表示了它们之间的直接因果关系。
  • 反之,不直接连接的节点在给定父节点信息下可能是条件独立的。

  下面将详细讨论不同连接关系下的条件独立性关系。

【深度学习】概率图模型(二)有向图模型详解(条件独立性、局部马尔可夫性及其证明)_第2张图片

⊥ \perp 符号说明:markdown没找到与教材相同符号,这里暂使用 ⊥ \perp 替代

  1. 间接因果关系 X 3 → X 2 → X 1 X_3 \rightarrow X_2 \rightarrow X_1 X3X2X1

    • X 2 X_2 X2 已知时, X 1 X_1 X1 X 3 X_3 X3 是条件独立的,即 X 1 ⊥ X 3 ∣ X 2 X_1 \perp X_3 | X_2 X1X3X2
    • 表示给定中间节点 X 2 X_2 X2 的信息, X 1 X_1 X1 X 3 X_3 X3 不再有直接的因果关系。
  2. 间接果因关系 X 1 → X 2 → X 3 X_1 \rightarrow X_2 \rightarrow X_3 X1X2X3

    • X 2 X_2 X2 已知时, X 1 X_1 X1 X 3 X_3 X3 是条件独立的,即 X 1 ⊥ X 3 ∣ X 2 X_1 \perp X_3 | X_2 X1X3X2
    • 类似于上述情况,给定中间节点 X 2 X_2 X2 的信息, X 1 X_1 X1 X 3 X_3 X3 不再有直接的因果关系。
  3. 共因关系 X 1 ← X 2 → X 3 X_1 \leftarrow X_2 \rightarrow X_3 X1X2X3

    • X 2 X_2 X2 未知时, X 1 X_1 X1 X 3 X_3 X3 是不独立的。
    • X 2 X_2 X2 已知时, X 1 X_1 X1 X 3 X_3 X3 是条件独立的,即 X 1 ⊥ X 3 ∣ X 2 X_1 \perp X_3 | X_2 X1X3X2
    • 表示给定中间节点 X 2 X_2 X2 的信息, X 1 X_1 X1 X 3 X_3 X3 之间的关系变得更加独立。
  4. 共果关系 X 1 → X 2 ← X 3 X_1 \rightarrow X_2 \leftarrow X_3 X1X2X3

    • X 2 X_2 X2未知时, X 1 X_1 X1 X 3 X_3 X3 是独立的。
    • X 2 X_2 X2 已知时, X 1 X_1 X1 X 3 X_3 X3不再 是独立的,即 X 1 ⊥̸ X 3 ∣ X 2 X_1 \not\perp X_3 | X_2 X1X3X2
    • 表示给定中间节点 X 2 X_2 X2 的信息, X 1 X_1 X1 X 3 X_3 X3 之间的关系不再是独立的。

声明:下述证明过程为个人所见,不具备权威性……

a. 间接因果关系 X 3 → X 2 → X 1 X_3 \rightarrow X_2 \rightarrow X_1 X3X2X1

在间接因果关系中,考虑 X 1 X_1 X1 X 3 X_3 X3 在给定 X 2 X_2 X2 的条件下是否独立,根据概率链规则:

P ( X 1 , X 3 ∣ X 2 ) = P ( X 1 , X 2 , X 3 ) P ( X 2 ) P(X_1, X_3 | X_2) = \frac{P(X_1, X_2, X_3)}{P(X_2)} P(X1,X3X2)=P(X2)P(X1,X2,X3)

由图中的有向边表示因果关系,我们可以写出联合概率的分解:

P ( X 1 , X 2 , X 3 ) = P ( X 3 ) ⋅ P ( X 2 ∣ X 3 ) ⋅ P ( X 1 ∣ X 2 ) P(X_1, X_2, X_3) = P(X_3) \cdot P(X_2 | X_3) \cdot P(X_1 | X_2) P(X1,X2,X3)=P(X3)P(X2X3)P(X1X2)

将其代入条件概率的计算式中:

P ( X 1 , X 3 ∣ X 2 ) = P ( X 3 ) ⋅ P ( X 2 ∣ X 3 ) P ( X 2 ) ⋅ P ( X 1 ∣ X 2 ) P(X_1, X_3 | X_2) = \frac{P(X_3) \cdot P(X_2 | X_3) }{P(X_2)}\cdot P(X_1 | X_2) P(X1,X3X2)=P(X2)P(X3)P(X2X3)P(X1X2)
因为(条件概率~贝叶斯公式) P ( X 2 , X 3 ) = P ( X 3 ) ⋅ P ( X 2 ∣ X 3 ) = P ( X 2 ) ⋅ P ( X 3 ∣ X 2 ) P(X_2,X_3)=P(X_3) \cdot P(X_2 | X_3) =P(X_2) \cdot P(X_3 | X_2) P(X2,X3)=P(X3)P(X2X3)=P(X2)P(X3X2)

所以 P ( X 1 , X 3 ∣ X 2 ) = P ( X 3 ∣ X 2 ) ⋅ P ( X 1 ∣ X 2 ) P(X_1, X_3 | X_2) = P(X_3 | X_2) \cdot P(X_1 | X_2) P(X1,X3X2)=P(X3X2)P(X1X2)

得证,在 X 3 → X 2 → X 1 X_3 \rightarrow X_2 \rightarrow X_1 X3X2X1的关系下, X 1 X_1 X1 X 3 X_3 X3 在给定 X 2 X_2 X2的条件下是独立的。

b. 间接果因关系 X 1 → X 2 → X 3 X_1 \rightarrow X_2 \rightarrow X_3 X1X2X3

  • 概率链规则:

P ( X 1 , X 3 ∣ X 2 ) = P ( X 1 , X 2 , X 3 ) P ( X 2 ) P(X_1, X_3 | X_2) = \frac{P(X_1, X_2, X_3)}{P(X_2)} P(X1,X3X2)=P(X2)P(X1,X2,X3)

  • 联合概率的分解:

P ( X 1 , X 2 , X 3 ) = P ( X 1 ) ⋅ P ( X 2 ∣ X 1 ) ⋅ P ( X 3 ∣ X 2 ) P(X_1, X_2, X_3) = P(X_1) \cdot P(X_2 | X_1) \cdot P(X_3 | X_2) P(X1,X2,X3)=P(X1)P(X2X1)P(X3X2)

  • 代入条件概率的计算式,得到:
    P ( X 1 , X 3 ∣ X 2 ) = P ( X 1 ) ⋅ P ( X 2 ∣ X 1 ) P ( X 2 ) ⋅ P ( X 3 ∣ X 2 ) P(X_1, X_3 | X_2) = \frac{P(X_1) \cdot P(X_2 | X_1) }{P(X_2)}\cdot P(X_3 | X_2) P(X1,X3X2)=P(X2)P(X1)P(X2X1)P(X3X2)

P ( X 1 , X 3 ∣ X 2 ) = P ( X 1 ∣ X 2 ) ⋅ P ( X 3 ∣ X 2 ) P(X_1, X_3 | X_2) = P(X_1 | X_2) \cdot P(X_3 | X_2) P(X1,X3X2)=P(X1X2)P(X3X2)

  • 得证,在 X 1 → X 2 → X 3 X_1 \rightarrow X_2 \rightarrow X_3 X1X2X3 的关系下, X 1 X_1 X1 X 3 X_3 X3 在给定 X 2 X_2 X2 的条件下是独立的。

c. 共因关系 X 1 ← X 2 → X 3 X_1 \leftarrow X_2 \rightarrow X_3 X1X2X3

  • 联合概率的分解:

P ( X 1 , X 2 , X 3 ) = P ( X 2 ) ⋅ P ( X 1 ∣ X 2 ) ⋅ P ( X 3 ∣ X 2 ) P(X_1, X_2, X_3) = P(X_2) \cdot P(X_1 | X_2)\cdot P(X_3 | X_2) P(X1,X2,X3)=P(X2)P(X1X2)P(X3X2)

  • 将其代入条件概率的计算式中:

P ( X 1 , X 3 ∣ X 2 ) = P ( X 1 ∣ X 2 ) ⋅ P ( X 2 ) ⋅ P ( X 3 ∣ X 2 ) P ( X 2 ) P(X_1, X_3 | X_2) = \frac{P(X_1 | X_2) \cdot P(X_2) \cdot P(X_3 | X_2)}{P(X_2)} P(X1,X3X2)=P(X2)P(X1X2)P(X2)P(X3X2)

P ( X 1 , X 3 ∣ X 2 ) = P ( X 1 ∣ X 2 ) ⋅ P ( X 3 ∣ X 2 ) P(X_1, X_3 | X_2) = P(X_1 | X_2) \cdot P(X_3 | X_2) P(X1,X3X2)=P(X1X2)P(X3X2)

  • 这表明在 X 1 ← X 2 → X 3 X_1 \leftarrow X_2 \rightarrow X_3 X1X2X3 的关系下, X 1 X_1 X1 X 3 X_3 X3 在给定 X 2 X_2 X2 的条件下是独立的。

d. 共果关系 X 1 → X 2 ← X 3 X_1 \rightarrow X_2 \leftarrow X_3 X1X2X3

  • 联合概率的分解:

P ( X 1 , X 2 , X 3 ) = P ( X 1 ) ⋅ P ( X 3 ) ⋅ P ( X 2 ∣ X 1 , X 3 ) P(X_1, X_2, X_3) = P(X_1) \cdot P(X_3) \cdot P(X_2 | X_1, X_3) P(X1,X2,X3)=P(X1)P(X3)P(X2X1,X3)

  • 将其代入条件概率的计算式中:

P ( X 1 , X 3 ∣ X 2 ) = P ( X 1 ) ⋅ P ( X 3 ) ⋅ P ( X 2 ∣ X 1 , X 3 ) P ( X 2 ) P(X_1, X_3 | X_2) = \frac{P(X_1) \cdot P(X_3) \cdot P(X_2 | X_1, X_3)} {P(X_2)} P(X1,X3X2)=P(X2)P(X1)P(X3)P(X2X1,X3)

  • 这里的联合概率不能简化为 P ( X 1 ∣ X 2 ) ⋅ P ( X 3 ∣ X 2 ) P(X_1 | X_2) \cdot P(X_3 | X_2) P(X1X2)P(X3X2),这表明在 X 1 → X 2 ← X 3 X_1 \rightarrow X_2 \leftarrow X_3 X1X2X3 的关系下, X 1 X_1 X1 X 3 X_3 X3 在给定 X 2 X_2 X2的条件下不是独立的。

3. 局部马尔可夫性质

a. 理论

  局部马尔可夫性质是贝叶斯网络中的重要性质,它描述了在给定父节点的条件下,每个随机变量都与其非后代节点条件独立
【深度学习】概率图模型(二)有向图模型详解(条件独立性、局部马尔可夫性及其证明)_第3张图片

局部马尔可夫性质: 对于贝叶斯网络中的每个节点 X k X_k Xk,它在给定其父节点 X π k X_{\pi_k} Xπk 的条件下,条件独立于与 X k X_k Xk 不相关的其他节点 Z Z Z,即

P ( X k ∣ X π k , Z ) = P ( X k ∣ X π k ) . P(X_k | X_{\pi_k}, Z) = P(X_k | X_{\pi_k}). P(XkXπk,Z)=P(XkXπk).

这表示,给定节点 X k X_k Xk 的父节点的信息,节点 X k X_k Xk 与其非后代节点 Z Z Z 之间没有直接的概率依赖关系,这个性质使得贝叶斯网络中的条件独立性关系更加清晰和易于推断。

b. 证明

P ( X k , Z ∣ X π k ) = P ( X k , Z , X π k ) P ( X π k ) P(X_k, Z | X_{\pi_k}) = \frac{P(X_k, Z , X_{\pi_k})}{P( X_{\pi_k})} P(Xk,ZXπk)=P(Xπk)P(Xk,Z,Xπk)
P ( X k , Z ∣ X π k ) = P ( X π k ) ⋅ P ( X k ∣ X π k ) ⋅ P ( Z ∣ X π k , X k ) P ( X π k ) P(X_k, Z | X_{\pi_k}) = \frac{P(X_{\pi_k})\cdot P(X_k|X_{\pi_k}) \cdot P(Z|X_{\pi_k},X_k) }{P( X_{\pi_k})} P(Xk,ZXπk)=P(Xπk)P(Xπk)P(XkXπk)P(ZXπk,Xk)
P ( X k , Z ∣ X π k ) = P ( X k ∣ X π k ) ⋅ P ( Z ∣ X π k , X k ) P(X_k, Z | X_{\pi_k}) = P(X_k|X_{\pi_k}) \cdot P(Z|X_{\pi_k},X_k) P(Xk,ZXπk)=P(XkXπk)P(ZXπk,Xk)
P ( X k , Z ∣ X π k ) = P ( X k ∣ X π k ) ⋅ P ( Z ∣ X π k ) P(X_k, Z | X_{\pi_k}) = P(X_k|X_{\pi_k}) \cdot P(Z|X_{\pi_k}) P(Xk,ZXπk)=P(XkXπk)P(ZXπk)

二、常见的有向图模型

持续更新ing~

1. Sigmoid信念网

2. 朴素贝叶斯分类器

3. 隐马尔可夫模型

你可能感兴趣的:(深度学习,人工智能,贝叶斯网络,局部马尔可夫性,条件独立性,概率图)