0


【人工智能】— 贝叶斯网络、概率图模型、全局语义、因果链、朴素贝叶斯模型、枚举推理、变量消元

【人工智能】— 贝叶斯网络

频率学派 vs. 贝叶斯学派

频率学派:

  • 概率是事件发生的长期预期频率。
  • P(A) = n/N,其中n是事件A在N次机会中发生的次数。
  • "某事发生的概率是0.1"意味着0.1是在无穷多样本的极限条件下能够被观察到的比例。
  • 在许多情况下,不可能进行重复实验。
  • 例如问题:第三次世界大战发生的概率是多少?

贝叶斯学派

  • 概率是信念的度量。
  • 它是一种基于不完全知识给出事件可能性的度量。
  • 贝叶斯分析从先验信念开始,根据新的数据更新这种信念。
  • 贝叶斯概率的主观性可能是一个限制,因为不同的人可能有不同的先验信念,并且可能根据相同的数据以不同的方式更新他们的信念。

Probability(概率):

  • Probability(概率)是对不确定知识一种严密的形式化方法。
  • 它提供了一种量化不同事件或结果的可能性的方式。
  • 全联合概率分布指定了对随机变量的每种完全赋值,即每个原子事件的概率。
  • 可以通过把对应于查询命题的原子事件的条目相加的方式来回答查询。
  • 对于复杂的领域,联合分布可能会变得过于复杂,我们必须找到一种方法来减少它的大小。
  • 独立性和条件独立性提供了分解联合分布和简化计算的工具。

独立性/条件独立性:

  • 当且仅当 P ( A ∣ B ) = P ( A ) P(A|B) = P(A) P(A∣B)=P(A),或 P ( B ∣ A ) = P ( B ) P(B|A) = P(B) P(B∣A)=P(B),或 P ( A , B ) = P ( A ) P ( B ) P(A,B) = P(A)P(B) P(A,B)=P(A)P(B)时,A和B是独立的。
  • 如果 P ( A ∣ B , C ) = P ( A ∣ C ) P(A|B,C) = P(A|C) P(A∣B,C)=P(A∣C),则在给定C的条件下,A对于B是条件独立的。
  • 在大多数情况下,使用条件独立性可以将全联合概率的表示从指数关系减少为线性关系。
  • 条件独立性是我们关于不确定环境最基本和最强大的知识形式。
  • 它可以简化复杂模型和更有效地进行推断。

Probability Theory(概率论):

  • 概率论可以用两个简单的方程式表达: - 加法规则(Sum Rule): P ( X ) = ∑ Y P ( X , Y ) P(X) = \sum_Y P(X,Y) P(X)=∑Y​P(X,Y),通过边缘化或求和其他变量来获得变量的概率。- 乘法规则(Product Rule): P ( X , Y ) = P ( X ∣ Y ) P ( Y ) P(X,Y) = P(X|Y)P(Y) P(X,Y)=P(X∣Y)P(Y),联合概率可以用条件概率表达。
  • 所有的概率推断和学习都可以归结为不断应用加法规则和乘法规则。

Graphical models (概率图模型)

什么是图模型(Graphical Models)

  • 图模型是概率分布的图表表示。
  • 它是概率论和图论的结合。
  • 也被称为概率图模型(Probabilistic Graphical Models)。
  • 它们增强了分析,而不是使用纯代数。

图是什么

  • 由节点(也称为顶点)和链接(也称为边或弧)组成。在这里插入图片描述
  • 在概率图模型中, - 每个节点表示一个随机变量(或一组随机变量)。- 链接表示变量之间的概率关系。

计算机科学中的图模型:

  • 处理不确定性和复杂性的自然工具,这些概念贯穿应用数学和工程。
  • 图模型的基本思想是模块化,即通过组合较简单的部分来构建复杂的系统。
  • 图模型为许多领域提供了一种有效的建模和推断方法,如人工智能、机器学习、计算机视觉和自然语言处理等。

为什么图模型有用?

  • 概率理论提供了粘合剂,通过它,各部分得以结合,从而确保整个系统的一致性,并为模型与数据之间提供接口。
  • 图论方面提供了: - 直观的可视化界面,使人类能够对高度交互的变量集进行建模。- 数据结构,自然地适合设计高效的通用算法。
  • 图模型为许多领域提供了一种有效的建模和推断方法,如人工智能、机器学习、计算机视觉和自然语言处理等。

图模型:统一框架

  • 将经典的多元概率系统视为共同的基础形式,如混合模型、因子分析、隐马尔可夫模型、卡尔曼滤波器等。
  • 在系统工程、信息理论、模式识别和统计力学等领域中遇到。
  • 观点的优点: - 可以在不同领域之间转移和利用特定技术。- 为设计新系统提供自然框架。
  • 图模型为许多领域提供了一种有效的建模和推断方法,如人工智能、机器学习、计算机视觉和自然语言处理等。

图模型在机器学习中的作用:

  1. 形象化概率模型的结构,提供了一种简单的可视化方式。
  2. 通过检查图,可以深入了解模型的属性,如条件独立性属性。
  3. 需要进行推断和学习的复杂计算可以表示为图操作,从而简化了计算过程。

图的方向性:

  • 有向图模型- 箭头表示方向性。- 贝叶斯网络在这里插入图片描述- 表示随机变量之间的因果关系。- 在人工智能和统计学中更为流行。
  • 无向图模型- 没有箭头的链接。- 马尔科夫随机场在这里插入图片描述- 更适合表示变量之间的软约束。- 在视觉和物理学中更为流行。

贝叶斯网络

贝叶斯网络是一种简单的、图形化的数据结构,用于表示变量之间的依赖关系(条件独立性),为任何全联合概率分布提供一种简明的规范。

  • 语法: - 一个节点对应一个变量。- 一个有向无环图(DAG)(链接≈“直接影响”)。- 每个节点都有一个条件分布,给定其父节点的条件下的概率分布: P ( X i ∣ P a r e n t s ( X i ) ) P(X_i | Parents(X_i)) P(Xi​∣Parents(Xi​)),量化其父节点对该节点的影响。
  • 在最简单的情况下,条件分布可以表示为一个条件概率表(CPT),给出每个父节点值组合下Xi的分布。

举例说明:

网络的拓扑结构编码了条件独立性的断言:

  • 天气与其他变量无关。
  • 在给定牙齿蛀牙的情况下,牙痛和牙感染(Catch)是条件独立的。在这里插入图片描述

举例说明:

我正在工作,邻居约翰(John)打电话说我的闹钟响了,但邻居玛丽(Mary)没有打电话。有时它会因为小的地震而触发。这是不是有夜贼?

变量:入室行窃、地震、闹钟、約翰打电话、玛丽打电话。
网络拓扑反映了“因果”知识:

  • 夜贼可以触发闹钟。
  • 地震可以触发闹钟。
  • 闹钟可以导致玛丽打电话。
  • 闹钟可以导致约翰打电话。- P(Burglary)- P(Earthquake)- P(Alarm | Burglary, Earthquake)- P(JohnCalls | Alarm)- P(MaryCalls | Alarm)
  • 给定观测到的变量,可以进行推断,例如:- 如果John报警,那么入室行窃的后验概率是多少?- 如果没有人打电话,那么地震的后验概率是多少?- 如果没有地震,也没有报警,那么入室行窃的后验概率是多少?

通过贝叶斯网络,可以直观地表达变量之间的依赖关系和条件独立性,从而进行推断和决策。
在这里插入图片描述

Compactness(紧致性)

一个具有k个布尔父节点的布尔变量的条件概率表中有

  1. 2
  2. k
  3. 2^k
  4. 2k个独立的可指定概率,对应于父节点值的组合。

每一行需要一个数字

  1. p
  2. p
  3. p,表示
  4. X
  5. i
  6. X_i
  7. Xi
  8. =
  9. =
  10. =
  11. t
  12. r
  13. u
  14. e
  15. true
  16. true的概率(
  17. X
  18. i
  19. X_i
  20. Xi
  21. =
  22. =
  23. =
  24. f
  25. a
  26. l
  27. s
  28. e
  29. false
  30. false的概率是
  31. 1
  32. p
  33. 1-p
  34. 1p)。![在这里插入图片描述](https://img-blog.csdnimg.cn/09bdafddcac7447a8c55e37d6b6dd661.png)

如果每个变量的父节点不超过k个,则完整的网络需要

  1. O
  2. (
  3. n
  4. 2
  5. k
  6. )
  7. O(n \cdot 2^k)
  8. O(n2k)个数字。与完整的联合分布相比,其增长率是线性的,而不是
  9. O
  10. (
  11. 2
  12. n
  13. )
  14. O(2^n)
  15. O(2n)。

例如,对于入室行窃网络,有

  1. 1
  2. +
  3. 1
  4. +
  5. 4
  6. +
  7. 2
  8. +
  9. 2
  10. =
  11. 10
  12. 1 + 1 + 4 + 2 + 2 = 10
  13. 1+1+4+2+2=10个数字(而全联合分布有
  14. 2
  15. 5
  16. 1
  17. =
  18. 31
  19. 2^{5}-1=31
  20. 251=31)。

全局语义

在贝叶斯网络中,全联合概率分布可以表示为所有变量的条件概率分布的乘积,即:

  1. P
  2. (
  3. X
  4. 1
  5. ,
  6. X
  7. 2
  8. ,
  9. .
  10. .
  11. .
  12. ,
  13. X
  14. n
  15. )
  16. =
  17. i
  18. =
  19. 1
  20. n
  21. P
  22. (
  23. X
  24. i
  25. P
  26. a
  27. r
  28. e
  29. n
  30. t
  31. s
  32. (
  33. X
  34. i
  35. )
  36. )
  37. P(X_{1},X_{2},...,X_{n}) = \prod_{i=1}^{n}P(X_{i}|Parents(X_{i}))
  38. P(X1​,X2​,...,Xn​)=i=1nP(Xi​∣Parents(Xi​))![在这里插入图片描述](https://img-blog.csdnimg.cn/f31ebc267a794652ba6d2e406628cc90.png)

这个等式表明,联合概率分布可以完全由局部条件概率分布确定。这意味着,贝叶斯网络提供了一种紧凑、可解释、易于推断的方式来表示联合概率分布。

局部语义

局部语义指的是,给定父节点,一个节点与它的非后代节点是条件独立的。换句话说,每个节点只依赖于它的父节点和自身,与其他节点无关。在这里插入图片描述

定理:局部语义

  1. \Leftrightarrow
  2. 全局语义

即,全局语义中的联合概率分布可以由每个节点的条件概率分布表示,每个节点的条件独立性质可以保证全局条件独立性质。

因果链

  • 基本结构在这里插入图片描述- 在给定Y的条件下,X是否与Z独立?在这里插入图片描述- 沿着链的证据“阻止”了影响。

因果链是一种基本的因果结构,其中一个变量直接影响另一个变量,从而构成一个链。例如,如果X导致Y,然后Y导致Z,那么这个结构就是一个因果链。

在因果链中,如果给定Y的条件下,X和Z是独立的,那么我们可以说Y是一个“阻碍变量”,它“阻止”了X对Z的影响。这种阻碍效应是因果推断的基础,因为它们提供了关于变量间因果关系的信息。

共同原因

  • 另一个基本结构:同一原因的两个影响在这里插入图片描述- X和Z是否独立?- 在给定Y的条件下,X和Z是否独立?在这里插入图片描述

共同原因是另一个基本的因果结构,其中两个变量都受到同一原因的影响。例如,如果X和Z都是由Y导致的,那么这个结构就是一个共同原因。

在共同原因结构中,如果没有给定Y,那么X和Z可能会出现关联。但是,如果给定Y,则X和Z可能成为条件独立的,因为给定Y的情况下,它们的共同原因已经被控制。这种情况被称为“控制反应”,它提供了关于变量间因果关系的信息。

共同效应

• 最后一种结构:一个影响的两个原因(v-structures)在这里插入图片描述

  • X和Z是否独立? • 是:记住球赛和下雨导致交通堵塞,没有相关性吗?
  • 在给定Y的条件下,X和Z是否独立? • 不是:记住看到交通堵塞让雨和球赛处于竞争状态吗?
  • 这与其他情况不同 • 观察效应可以使原因之间产生影响。

共同效应是一种因果结构,其中两个原因都可以导致同一效应。例如,如果X和Z都可以导致Y,那么这个结构就是一个共同效应。

在共同效应结构中,如果X和Z都是独立的,那么它们可能不会对Y产生影响,因为它们没有直接的关系。但是,如果给定了Y,则X和Z可能成为条件独立的,因为在给定Y的情况下,它们之间的影响路径被阻断了。这种情况被称为“掩蔽”,它提供了关于变量间因果关系的信息。

需要注意的是,观察到效应可能会导致原因之间产生影响,这与其他情况不同。例如,如果我们观察到交通堵塞,那么球赛和下雨可能会成为竞争因素,从而影响彼此的发生概率。这种情况是与其他情况相反的,因为观察到效应可以启用原因之间的影响。
在这里插入图片描述

构建贝叶斯网络

需要一种方法使得局部的条件独立关系能够保证全局语义得以成立。

  1. 选择变量 X 1 X_1 X1​, X 2 X_2 X2​,…, X n X_n Xn​的顺序。
  2. 对于 i = 1 i = 1 i=1到 n n n,将 X i X_i Xi​添加到网络中,并从 X 1 X_1 X1​, X 2 X_2 X2​,…, X i − 1 X_{i-1} Xi−1​中选择父节点,使得条件概率符合以下条件: P ( X i ∣ P a r e n t s ( X i ) ) = P ( X i ∣ X 1 , . . . , X i − 1 ) P(X_i|Parents(X_i)) = P(X_i|X_1,...,X_{i-1}) P(Xi​∣Parents(Xi​))=P(Xi​∣X1​,...,Xi−1​)

这种父节点的选择方式可以保证全局语义成立:

  1. P
  2. (
  3. X
  4. 1
  5. ,
  6. .
  7. .
  8. .
  9. ,
  10. X
  11. n
  12. )
  13. =
  14. P
  15. (
  16. X
  17. i
  18. X
  19. 1
  20. ,
  21. .
  22. .
  23. .
  24. ,
  25. X
  26. i
  27. 1
  28. )
  29. =
  30. i
  31. =
  32. 1
  33. n
  34. P
  35. (
  36. X
  37. i
  38. P
  39. a
  40. r
  41. e
  42. n
  43. t
  44. s
  45. (
  46. X
  47. i
  48. )
  49. )
  50. (使用链法则、通过上述构建方法)
  51. P(X_1,...,X_n) = P(X_i|X_1,...,X_{i-1})= \prod_{i=1}^{n} P(X_i | Parents(X_i))\\(使用链法则、通过上述构建方法)
  52. P(X1​,...,Xn​)=P(Xi​∣X1​,...,Xi1​)=i=1nP(Xi​∣Parents(Xi​))(使用链法则、通过上述构建方法)

通过这种构建方式,可以保证贝叶斯网络中的条件独立关系与全局语义相一致。此外,这种构建方式还具有计算效率高、可解释性强等优点。

  • 要求网络的拓扑结构确实反映了合适的父节点集对每个变量 的那些直接影响。
  • 添加节点的正确次序是首先添加“根本原因”节点,然后加 入受它们直接影响的变量,以此类推。

构建贝叶斯网络举例

在这里插入图片描述

假设我们选择顺序为M,J,A,B,E。下面是对每个问题的解释:

    1. P ( J M ) = P ( J ) ? P(J | M) = P(J)? P(JM)=P(J)?No 这个问题询问M是否影响J的概率。从网络结构来看,MJ的父节点,因此M会影响J的概率。因此, P ( J M ) P ( J ) P(J | M) \neq P(J) P(JM)=P(J)。
    1. P ( A J , M ) = P ( A J ) ? P(A | J, M) = P(A | J)? P(AJ,M)=P(AJ)?No 这个问题询问JM是否一起影响A的概率,或者说是否存在直接影响A的路径上的变量被忽略了。从网络结构来看,A的父节点是MJ,因此M会影响A的概率。因此, P ( A J , M ) P ( A J ) P(A | J, M) \neq P(A | J) P(AJ,M)=P(AJ)。
    1. P ( B A , J , M ) = P ( B A ) ? P(B | A, J, M) = P(B | A)? P(BA,J,M)=P(BA)?Yes 这个问题询问是否存在一个变量,使得在给定其他相关变量的情况下,该变量与B的独立性与其他变量无关。从网络结构来看,B的父节点是ME,而AJ不是B的父节点,因此在给定AJ的情况下,MEB的概率具有独立性。因此, P ( B A , J , M ) = P ( B A ) P(B | A, J, M) = P(B | A) P(BA,J,M)=P(BA)。
    1. P ( B A , J , M ) = P ( B ) ? P(B | A, J, M) = P(B)? P(BA,J,M)=P(B)?No 这个问题询问B是否独立于MJ。从网络结构来看,B的父节点是ME,而JA不是B的父节点,因此在给定AJ的情况下,MEB的概率具有独立性,但是B的概率仍然会受到E的影响。因此, P ( B A , J , M ) P ( B ) P(B | A, J, M) \neq P(B) P(BA,J,M)=P(B)。
    1. P ( E B , A , J , M ) = P ( E A ) ? P(E | B, A, J, M) = P(E | A)? P(EB,A,J,M)=P(EA)?No 这个问题询问是否存在一个变量,使得在给定其他相关变量的情况下,该变量与E的独立性与其他变量无关。从网络结构来看,E的父节点是BBE的概率仍然有影响。因此, P ( E B , A , J , M ) P ( E A ) P(E | B, A, J, M) \neq P(E | A) P(EB,A,J,M)=P(EA)。
    1. P ( E B , A , J , M ) = P ( E A , B ) ? P(E | B, A, J, M) = P(E | A, B)? P(EB,A,J,M)=P(EA,B)?Yes 这个问题询问是否存在一个变量,使得在给定其他相关变量的情况下,该变量与E的独立性与其他变量无关。从网络结构来看,E的父节点是B,而JM不是E的父节点,因此 P ( E B , A , J , M ) = P ( E A , B ) P(E | B, A, J, M) = P(E | A, B) P(EB,A,J,M)=P(EA,B)。

因果方向

决定非因果方向上的条件独立关系是困难的。因为在这种情况下,变量之间的关系可能是相互影响的,而不是单向因果关系。这使得我们不能简单地依靠因果模型和条件独立性来解决问题。

相比之下,在因果方向上,因果模型和条件独立性是相对容易理解的,因为它们反映了真实世界中变量之间的因果关系。这是因为我们的大脑天生被设计用来理解因果关系,而不是非因果关系。

此外,在非因果方向上,构建网络所需的数字数量通常更多,因为我们需要考虑所有可能的相互作用,而不仅仅是单向因果关系。例如,在一个由5个变量组成的网络中,如果我们选择非因果方向,则需要13个数字来表示条件概率分布,而在因果方向上只需要5个数字

综上所述,虽然在非因果方向上决定条件独立关系是困难的,但因果模型和条件独立性仍然是人类天生熟悉的概念,可以帮助我们更好地理解复杂的关系网络。

数学公式:
在给定变量X和Y的情况下,如果变量Z与变量Y条件独立,则可以表示为:

  1. P
  2. (
  3. Z
  4. X
  5. ,
  6. Y
  7. )
  8. =
  9. P
  10. (
  11. Z
  12. X
  13. )
  14. P(Z|X,Y)=P(Z|X)
  15. P(ZX,Y)=P(ZX)

因果性?

  • 当贝叶斯网络反映真实因果模式时:- 常常更简单(节点具有较少的父节点)- 常常更易于思考- 常常更容易从专家那里获取
  • 贝叶斯网络不一定是因果的- 有时在领域中不存在因果网络(特别是如果变量缺失)- 最终得到的箭头反映相关性,而不是因果关系
  • 箭头真正意味着什么?- 拓扑结构可能偶然编码了因果结构- 拓扑结构真正编码了条件独立性

贝叶斯网络中的推理

推理任务

贝叶斯网络中通常需要进行以下三种推理任务:

  1. 简单查询(Simple queries):计算后验概率 P ( X i ∣ E = e ) P(X_i | E=e) P(Xi​∣E=e)。例如,给定油表为空,车灯亮起且车辆未启动的情况下,计算没有汽油的概率 P ( N o G a s ∣ G a u g e 油表 = e m p t y , L i g h t s = o n , S t a r t s = f a l s e ) P(NoGas|Gauge油表=empty, Lights=on, Starts=false) P(NoGas∣Gauge油表=empty,Lights=on,Starts=false)。
  2. 联合查询(Conjunctive queries):计算 P ( X i , X j ∣ E = e ) = P ( X i ∣ E = e ) P ( X j ∣ X i , E = e ) P(X_i, X_j | E=e) = P(X_i | E=e)P(X_j | X_i, E=e) P(Xi​,Xj​∣E=e)=P(Xi​∣E=e)P(Xj​∣Xi​,E=e)。这种查询涉及两个或多个变量的联合概率分布。 这个等式成立是因为它基于条件概率的定义和贝叶斯定理。

根据条件概率的定义,我们有:

  1. P
  2. (
  3. X
  4. i
  5. ,
  6. X
  7. j
  8. E
  9. =
  10. e
  11. )
  12. =
  13. P
  14. (
  15. X
  16. i
  17. ,
  18. X
  19. j
  20. ,
  21. E
  22. =
  23. e
  24. )
  25. P
  26. (
  27. E
  28. =
  29. e
  30. )
  31. P(X_i,X_j|E=e) = \frac{P(X_i,X_j,E=e)}{P(E=e)}
  32. P(Xi​,Xj​∣E=e)=P(E=e)P(Xi​,Xj​,E=e)​

接下来,我们可以将分子

  1. P
  2. (
  3. X
  4. i
  5. ,
  6. X
  7. j
  8. ,
  9. E
  10. =
  11. e
  12. )
  13. P(X_i,X_j,E=e)
  14. P(Xi​,Xj​,E=e)拆分为条件概率的形式,即:
  15. P
  16. (
  17. X
  18. i
  19. ,
  20. X
  21. j
  22. ,
  23. E
  24. =
  25. e
  26. )
  27. =
  28. P
  29. (
  30. X
  31. j
  32. X
  33. i
  34. ,
  35. E
  36. =
  37. e
  38. )
  39. P
  40. (
  41. X
  42. i
  43. ,
  44. E
  45. =
  46. e
  47. )
  48. P(X_i,X_j,E=e) = P(X_j|X_i,E=e)P(X_i,E=e)
  49. P(Xi​,Xj​,E=e)=P(Xj​∣Xi​,E=e)P(Xi​,E=e) 将上式代入分母
  50. P
  51. (
  52. E
  53. =
  54. e
  55. )
  56. P(E=e)
  57. P(E=e)中,得到:
  58. P
  59. (
  60. X
  61. i
  62. ,
  63. X
  64. j
  65. E
  66. =
  67. e
  68. )
  69. =
  70. P
  71. (
  72. X
  73. j
  74. X
  75. i
  76. ,
  77. E
  78. =
  79. e
  80. )
  81. P
  82. (
  83. X
  84. i
  85. ,
  86. E
  87. =
  88. e
  89. )
  90. P
  91. (
  92. E
  93. =
  94. e
  95. )
  96. P(X_i,X_j|E=e) = \frac{P(X_j|X_i,E=e)P(X_i,E=e)}{P(E=e)}
  97. P(Xi​,Xj​∣E=e)=P(E=e)P(Xj​∣Xi​,E=e)P(Xi​,E=e)​ 接着,根据贝叶斯定理,我们可以将条件概率
  98. P
  99. (
  100. X
  101. i
  102. ,
  103. E
  104. =
  105. e
  106. )
  107. P(X_i,E=e)
  108. P(Xi​,E=e)表示为:
  109. P
  110. (
  111. X
  112. i
  113. ,
  114. E
  115. =
  116. e
  117. )
  118. =
  119. P
  120. (
  121. X
  122. i
  123. E
  124. =
  125. e
  126. )
  127. P
  128. (
  129. E
  130. =
  131. e
  132. )
  133. P(X_i,E=e) = P(X_i|E=e)P(E=e)
  134. P(Xi​,E=e)=P(Xi​∣E=e)P(E=e) 代入上式中,得到:
  135. P
  136. (
  137. X
  138. i
  139. ,
  140. X
  141. j
  142. E
  143. =
  144. e
  145. )
  146. =
  147. P
  148. (
  149. X
  150. j
  151. X
  152. i
  153. ,
  154. E
  155. =
  156. e
  157. )
  158. P
  159. (
  160. X
  161. i
  162. E
  163. =
  164. e
  165. )
  166. P
  167. (
  168. E
  169. =
  170. e
  171. )
  172. P
  173. (
  174. E
  175. =
  176. e
  177. )
  178. P(X_i,X_j|E=e) = \frac{P(X_j|X_i,E=e)P(X_i|E=e)P(E=e)}{P(E=e)}
  179. P(Xi​,Xj​∣E=e)=P(E=e)P(Xj​∣Xi​,E=e)P(Xi​∣E=e)P(E=e)​ 化简后,即可得到:
  180. P
  181. (
  182. X
  183. i
  184. ,
  185. X
  186. j
  187. E
  188. =
  189. e
  190. )
  191. =
  192. P
  193. (
  194. X
  195. j
  196. X
  197. i
  198. ,
  199. E
  200. =
  201. e
  202. )
  203. P
  204. (
  205. X
  206. i
  207. E
  208. =
  209. e
  210. )
  211. P(X_i,X_j|E=e) = P(X_j|X_i,E=e)P(X_i|E=e)
  212. P(Xi​,Xj​∣E=e)=P(Xj​∣Xi​,E=e)P(Xi​∣E=e)

这就是等式

  1. P
  2. (
  3. X
  4. i
  5. ,
  6. X
  7. j
  8. E
  9. =
  10. e
  11. )
  12. =
  13. P
  14. (
  15. X
  16. i
  17. E
  18. =
  19. e
  20. )
  21. P
  22. (
  23. X
  24. j
  25. X
  26. i
  27. ,
  28. E
  29. =
  30. e
  31. )
  32. P(X_i,X_j|E=e) = P(X_i|E=e)P(X_j|X_i,E=e)
  33. P(Xi​,Xj​∣E=e)=P(Xi​∣E=e)P(Xj​∣Xi​,E=e)的推导过程。它表示在给定观测值
  34. E
  35. =
  36. e
  37. E=e
  38. E=e的条件下,变量
  39. X
  40. i
  41. X_i
  42. Xi​和
  43. X
  44. j
  45. X_j
  46. Xj​的联合概率分布可以表示为在给定
  47. E
  48. =
  49. e
  50. E=e
  51. E=e的条件下,变量
  52. X
  53. i
  54. X_i
  55. Xi​的条件概率分布和在给定
  56. E
  57. =
  58. e
  59. E=e
  60. E=e
  61. X
  62. i
  63. X_i
  64. Xi​的条件下,变量
  65. X
  66. j
  67. X_j
  68. Xj​的条件概率分布的乘积。这个等式在贝叶斯网络中具有重要的应用价值,可以用于概率推断和条件概率分布的计算等任务。
  1. 最优决策(Optimal decisions):决策网络包括效用信息;需要概率推理以计算 P ( o u t c o m e ∣ a c t i o n , e v i d e n c e ) P(outcome|action, evidence) P(outcome∣action,evidence),其中outcome表示结果,action表示决策,evidence表示证据。这种推理任务通常用于在不确定性环境中做出最优决策。

这些推理任务可以帮助我们理解变量之间的概率关系,并用于许多实际应用,例如医学诊断、金融风险预测和自然语言处理等。

枚举推理

枚举推理是一种在贝叶斯网络中进行推理的方法,它通过计算条件概率的乘积并求和来回答查询,而不需要显式构建联合概率分布的完整表示。

在贝叶斯网络中,可以使用条件概率乘积的形式表示全联合概率分布。具体来说,假设我们有一个由变量

  1. X
  2. 1
  3. ,
  4. X
  5. 2
  6. ,
  7. .
  8. .
  9. .
  10. ,
  11. X
  12. n
  13. X_1, X_2, ..., X_n
  14. X1​,X2​,...,Xn​组成的贝叶斯网络
  15. B
  16. B
  17. B,则可以将全联合概率分布
  18. P
  19. (
  20. X
  21. 1
  22. ,
  23. X
  24. 2
  25. ,
  26. .
  27. .
  28. .
  29. ,
  30. X
  31. n
  32. )
  33. P(X_1, X_2, ..., X_n)
  34. P(X1​,X2​,...,Xn​)表示为:
  35. P
  36. (
  37. X
  38. 1
  39. ,
  40. X
  41. 2
  42. ,
  43. .
  44. .
  45. .
  46. ,
  47. X
  48. n
  49. )
  50. =
  51. i
  52. =
  53. 1
  54. n
  55. P
  56. (
  57. X
  58. i
  59. P
  60. a
  61. r
  62. e
  63. n
  64. t
  65. (
  66. X
  67. i
  68. )
  69. )
  70. 其中,
  71. P
  72. a
  73. r
  74. e
  75. n
  76. t
  77. (
  78. X
  79. i
  80. )
  81. 表示变量
  82. X
  83. i
  84. 的父节点集合。
  85. P(X_1, X_2, ..., X_n) = \prod_{i=1}^n P(X_i | Parent(X_i))\\其中,Parent(X_i)表示变量X_i的父节点集合。
  86. P(X1​,X2​,...,Xn​)=i=1nP(Xi​∣Parent(Xi​))其中,Parent(Xi​)表示变量Xi​的父节点集合。

这个公式利用了条件独立性的性质,即在给定父节点的情况下,每个变量的条件概率只依赖于其父节点,而与其他变量无关。因此,我们可以将全联合概率分布表示为每个变量的条件概率的乘积,从而简化计算的复杂度。
这个公式可以用于进行贝叶斯网络的推理,例如计算给定证据的情况下某个变量的后验概率。

枚举推理的基本思想是枚举网络中的每个变量,对每个变量计算其条件概率,并将它们相乘。然后,将所有变量的条件概率乘积相加,得到所需的概率分布。在这个过程中,枚举推理使用了贝叶斯定理和条件独立性的性质,对计算过程进行了简化。

枚举推理是一种比较直观的方法,可以在计算条件概率时避免显式地构建完整的联合概率分布。然而,当网络结构较为复杂时,枚举推理的计算复杂度会非常高,因此需要使用其他更高效的推理方法,例如变量消元和近似推理等。

总的来说,枚举推理是一种简单而直观的推理方法,可以用于解决许多实际问题,但在处理大型网络时可能会面临计算复杂度高的问题。

枚举推理举例

从“偷窃”网络简单查询在这里插入图片描述

在这里插入图片描述
使用条件概率表项重写全联合项
在这里插入图片描述
递归深度优先搜索:

  1. O
  2. (
  3. n
  4. )
  5. 空间复杂度,
  6. O
  7. (
  8. d
  9. n
  10. )
  11. 时间复杂度
  12. O(n)空间复杂度,O(d^n)时间复杂度
  13. O(n)空间复杂度,O(dn)时间复杂度

枚举效率不高

在这里插入图片描述
重复计算

  1. P
  2. (
  3. j
  4. a
  5. )
  6. P
  7. (
  8. m
  9. a
  10. )
  11. P(j|a)P(m|a)
  12. P(ja)P(ma)对于e的每个取值

变量消元

变量消元是贝叶斯网络中一种常用的推理方法,它通过从右到左进行求和,并存储中间结果(因子)以避免重新计算,来简化计算复杂度。

变量消元的基本思想是将网络中的变量根据其与待求变量的关系进行分组,将每组变量的条件概率分布乘起来,得到一个新的因子。然后,对于不需要的变量,可以将它们从因子中消去,最终得到一个只包含待求变量的因子。通过对这个因子进行归一化,我们可以得到待求变量的后验概率分布。

变量消元可以通过多种方式实现,例如求和-乘积算法和置信传播算法等。其中,求和-乘积算法是最常用的变量消元算法之一。该算法使用因子表示联合概率分布,通过从右到左进行求和的方式,逐步消去不需要的变量,最终得到只包含待求变量的因子。

变量消元是一种高效且常用的推理方法,可以用于计算贝叶斯网络中任意变量的后验概率分布。

在这里插入图片描述

精确推理的复杂度

在贝叶斯网络中,精确推理的复杂度取决于网络的结构和大小。对于单联通网络(或多树),变量消元的时间和空间复杂度都与网络规模呈线性关系,具体地说,是

  1. O
  2. (
  3. d
  4. k
  5. n
  6. )
  7. O(d^kn)
  8. O(dkn),其中d是每个节点的最大父节点数,k是每个节点的最大取值数,n是网络中的节点数。

对于多联通网络,精确推理的复杂度可能非常高,实际上,它可以被归约到解决3SAT问题上,从而是NP难的。此外,计算多联通网络的模型数量等价于计数3SAT模型的数量,这被称为#P完全问题。

总的来说,精确推理在单联通网络(或多树)上是高效的,但在多联通网络上可能非常困难,需要使用近似推理或其他高级技术来解决。
在这里插入图片描述

举例:朴素贝叶斯模型

朴素贝叶斯模型是一种基于贝叶斯定理的分类算法,它假设每个特征与其他特征相互独立。这使得朴素贝叶斯模型的计算复杂度低,同时在许多实际应用中表现出色。在这里插入图片描述

在朴素贝叶斯模型中,假设有一个类别变量

  1. Y
  2. Y
  3. Y
  4. n
  5. n
  6. n个特征变量
  7. X
  8. 1
  9. ,
  10. X
  11. 2
  12. ,
  13. .
  14. .
  15. .
  16. ,
  17. X
  18. n
  19. X_1, X_2, ..., X_n
  20. X1​,X2​,...,Xn​。朴素贝叶斯模型假设每个特征变量
  21. X
  22. i
  23. X_i
  24. Xi​与类别变量
  25. Y
  26. Y
  27. Y相互独立,但在给定类别变量
  28. Y
  29. Y
  30. Y的情况下,每个特征变量
  31. X
  32. i
  33. X_i
  34. Xi​可能的取值是有条件依赖的。因此,我们可以使用贝叶斯定理来计算给定类别变量
  35. Y
  36. Y
  37. Y和特征变量
  38. X
  39. 1
  40. ,
  41. X
  42. 2
  43. ,
  44. .
  45. .
  46. .
  47. ,
  48. X
  49. n
  50. X_1, X_2, ..., X_n
  51. X1​,X2​,...,Xn​的联合概率分布:
  52. P
  53. (
  54. Y
  55. ,
  56. X
  57. 1
  58. ,
  59. X
  60. 2
  61. ,
  62. .
  63. .
  64. .
  65. ,
  66. X
  67. n
  68. )
  69. =
  70. P
  71. (
  72. Y
  73. )
  74. i
  75. =
  76. 1
  77. n
  78. P
  79. (
  80. X
  81. i
  82. Y
  83. )
  84. P(Y, X_1, X_2, ..., X_n) = P(Y) \prod_{i=1}^n P(X_i | Y)
  85. P(Y,X1​,X2​,...,Xn​)=P(Y)i=1nP(Xi​∣Y)

其中,

  1. P
  2. (
  3. Y
  4. )
  5. P(Y)
  6. P(Y)是类别变量
  7. Y
  8. Y
  9. Y的先验概率分布,
  10. P
  11. (
  12. X
  13. i
  14. Y
  15. )
  16. P(X_i | Y)
  17. P(Xi​∣Y)是在给定类别变量
  18. Y
  19. Y
  20. Y的情况下,特征变量
  21. X
  22. i
  23. X_i
  24. Xi​的条件概率分布。

可以使用朴素贝叶斯模型进行分类,即给定一个未知的特征向量

  1. X
  2. =
  3. (
  4. X
  5. 1
  6. ,
  7. X
  8. 2
  9. ,
  10. .
  11. .
  12. .
  13. ,
  14. X
  15. n
  16. )
  17. X=(X_1, X_2, ..., X_n)
  18. X=(X1​,X2​,...,Xn​),我们可以计算每个类别变量
  19. Y
  20. Y
  21. Y的后验概率分布
  22. P
  23. (
  24. Y
  25. X
  26. )
  27. P(Y|X)
  28. P(YX),然后选择后验概率最大的类别作为预测结果。

总的来说,朴素贝叶斯模型是一种简单而有效的分类算法,适用于许多实际应用场景,如文本分类、垃圾邮件过滤等。

举例:垃圾邮件检测

假设我们要解决自动检测垃圾邮件的问题。一个简单的起点是仅查看邮件中的“主题:”头,并通过检查一些简单的可计算特征来尝试识别垃圾邮件。我们考虑的两个简单特征是:

Caps:主题头是否全部大写
Free:主题头是否包含单词“free”,无论是大写还是小写

该模型基于以下三个随机变量:Caps(是否全大写)、Free(是否包含单词“free”)和Spam(是否为垃圾邮件),每个变量都取值为Y(是)或N(否)。

具体来说,当且仅当邮件主题不含小写字母时,Caps = Y;当且仅当邮件主题中包含单词“free”(不区分大小写)时,Free = Y;当且仅当邮件是垃圾邮件时,Spam = Y。

我们可以使用联合概率分布来描述这三个变量之间的关系,即:

  1. P
  2. (
  3. F
  4. r
  5. e
  6. e
  7. ,
  8. C
  9. a
  10. p
  11. s
  12. ,
  13. S
  14. p
  15. a
  16. m
  17. )
  18. =
  19. P
  20. (
  21. S
  22. p
  23. a
  24. m
  25. )
  26. P
  27. (
  28. C
  29. a
  30. p
  31. s
  32. S
  33. p
  34. a
  35. m
  36. )
  37. P
  38. (
  39. F
  40. r
  41. e
  42. e
  43. S
  44. p
  45. a
  46. m
  47. )
  48. P(Free, Caps, Spam) = P(Spam) P(Caps|Spam) P(Free|Spam)
  49. P(Free,Caps,Spam)=P(Spam)P(CapsSpam)P(FreeSpam)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

举例:数字识别器

在这里插入图片描述

  • 简单版本: - 每个网格位置<i,j>都有一个特征Fij- 可能的特征值是开/关,基于底层图像中强度是否大于0.5- 每个输入对应一个特征向量,例如:在这里插入图片描述- 这里有很多特征,每个特征都是二进制的- 朴素贝叶斯模型:在这里插入图片描述
  • 条件概率表在这里插入图片描述

对朴素贝叶斯模型的评价:

  1. 通过假设条件独立性,使概率推理变得可行。这个假设虽然很强,但是在许多实际应用中都表现出了较好的效果。
  2. 尽管使用了这个强假设,朴素贝叶斯模型在许多应用中表现出色,尤其是在文本分类等领域。
  3. 实验表明,朴素贝叶斯模型在标准数据集上与其他分类方法相比具有相当的竞争力。
  4. 特别是在文本分类中,例如垃圾邮件过滤,朴素贝叶斯模型非常受欢迎。

总的来说,朴素贝叶斯模型是一种简单而有效的分类算法,尤其适用于文本分类和垃圾邮件过滤等应用。虽然它有一个强假设,但在许多实际应用中,它表现得很好,并且在竞争性实验中也表现出良好的性能。


本文转载自: https://blog.csdn.net/weixin_56462041/article/details/130670497
版权归原作者 之墨_ 所有, 如有侵权,请联系我们删除。

“【人工智能】— 贝叶斯网络、概率图模型、全局语义、因果链、朴素贝叶斯模型、枚举推理、变量消元”的评论:

还没有评论