一、How to construct the dependency?

[Machine Learning] Probabilistic Graphical Models:二、Bayes Network Fundamentals(1、Semantics & Factorization)-LMLPHP

1、首字母即随机变量名称

2、I->G是更加复杂的模型,但Bayes里不考虑,因为Bayes只是无环图。

[Machine Learning] Probabilistic Graphical Models:二、Bayes Network Fundamentals(1、Semantics & Factorization)-LMLPHP

3、CPD = conditional probability distribution。图中的每一个点都是一个CPD,这里5个点,就有五个CPD。

二、Chain Rule for Bayesian Neatworks

[Machine Learning] Probabilistic Graphical Models:二、Bayes Network Fundamentals(1、Semantics & Factorization)-LMLPHP

将整个Bayes网络的所有节点所构成的联合概率(Joint probability)利用链式法则(chain rule)因式分解为多个条件概率之积。

[Machine Learning] Probabilistic Graphical Models:二、Bayes Network Fundamentals(1、Semantics & Factorization)-LMLPHP

步骤:

1、先从没有条件的根节点开始,乘上每个根节点概率;

2、从上往下(从根到叶)逐步写出每个节点的条件概率,如P(G|D,I)、P(S|I)再P(L|G)

三、小结

[Machine Learning] Probabilistic Graphical Models:二、Bayes Network Fundamentals(1、Semantics & Factorization)-LMLPHP

四、Joint Probability Distribution的特性

1、值非负(P>=0);

2、联合分布的所有可能性之和为1;

[Machine Learning] Probabilistic Graphical Models:二、Bayes Network Fundamentals(1、Semantics & Factorization)-LMLPHP

3、P factorizes over G,P可用G中的CPD因式分解表示。

04-28 05:19