Skip to content

Commit

Permalink
merge
Browse files Browse the repository at this point in the history
  • Loading branch information
futianfan committed Mar 15, 2017
1 parent 8afed75 commit c598829
Showing 1 changed file with 3 additions and 3 deletions.
6 changes: 3 additions & 3 deletions Chapter19/approximate_inference.tex
Original file line number Diff line number Diff line change
Expand Up @@ -64,7 +64,7 @@ \section{把推断视作优化问题}


为了构造这样一个优化问题,假设我们有一个包含可见变量$\Vv$\gls{latent_variable} $\Vh$的概率模型。
我们希望计算观察数据的概率对数$\log p(\Vv;\Vtheta)$
我们希望计算观察数据的对数概率$\log p(\Vv;\Vtheta)$
有时候如果边缘化消去$\Vh$的操作很费时,我们会难以计算$\log p(\Vv;\Vtheta)$
作为替代,我们可以计算一个$\log p(\Vv;\Vtheta)$的下界$\CalL(\Vv,{\Vtheta},q)$
这个下界被称为\firstall{ELBO}。
Expand All @@ -78,7 +78,7 @@ \section{把推断视作优化问题}
% 625


因为$\log p(\Vv)$$\CalL(\Vv,{\Vtheta},q)$之间的距离是由\,\gls{KL}来衡量的,且\,\gls{KL}总是非负的,我们可以发现$\CalL$总是小于等于所求的概率对数
因为$\log p(\Vv)$$\CalL(\Vv,{\Vtheta},q)$之间的距离是由\,\gls{KL}来衡量的,且\,\gls{KL}总是非负的,我们可以发现$\CalL$总是小于等于所求的对数概率
当且仅当分布$q$完全相等于$p(\Vh\mid\Vv)$时取到等号。
% 625

Expand Down Expand Up @@ -169,7 +169,7 @@ \section{\glsentrytext{EM}}
\glssymbol{EM}\,算法还包含一些不同的见解。
首先,它包含了学习过程的一个基本框架,就是我们通过更新模型参数来提高整个数据集的似然,其中缺失变量的值是通过后验分布来估计的。
这种特定的性质并不是\,\glssymbol{EM}\,算法独有的。
例如,使用\gls{GD}来最大化似然函数的对数的方法也有相同的性质
例如,使用\gls{GD}来最大化对数似然函数的方法也有相同的性质
计算对数似然函数的梯度需要对\gls{hidden_unit}的后验分布求期望。
\glssymbol{EM}\,算法另一个关键的性质是当我们移动到另一个$\Vtheta$时候,我们仍然可以使用旧的分布$q$
在传统\gls{ML}中,这种特有的性质在推导大\,\gls{m_step}更新时候得到了广泛的应用。
Expand Down

0 comments on commit c598829

Please sign in to comment.