em算法c
Ⅰ em算法的EM算法简述
迭代使用EM步骤,直至收敛。
可以有一些比较形象的比喻说法把这个算法讲清楚。比如说食堂的大师傅炒了一份菜,要等分成两份给两个人吃,显然没有必要拿来天平一点一点的精确的去称分量,最简单的办法是先随意的把菜分到两个碗中,然后观察是否一样多,把比较多的那一份取出一点放到另一个碗中,这个过程一直迭代地执行下去,直到大家看不出两个碗所容纳的菜有什么分量上的不同为止。EM算法就是这样,假设我们估计知道A和B两个参数,在开始状态下二者都是未知的,并且知道了A的信息就可以得到B的信息,反过来知道了B也就得到了A。可以考虑首先赋予A某种初值,以此得到B的估计值,然后从B的当前值出发,重新估计A的取值,这个过程一直持续到收敛为止。
EM 算法是 Dempster,Laind,Rubin 于 1977 年提出的求参数极大似然估计的一种方法,它可以从非完整数据集中对参数进行 MLE 估计,是一种非常简单实用的学习算法。这种方法可以广泛地应用于处理缺损数据,截尾数据,带有噪声等所谓的不完全数据(incomplete data)。
假定集合Z = (X,Y)由观测数据 X 和未观测数据Y 组成,X 和Z = (X,Y)分别称为不完整数据和完整数据。假设Z的联合概率密度被参数化地定义为P(X,Y|Θ),其中Θ表示要被估计的参数。Θ的最大似然估计是求不完整数据的对数似然函数L(X;Θ)的最大值而得到的:
L(Θ;X)= log p(X|Θ) = ∫log p(X,Y|Θ)dY ;
EM算法包括两个步骤:由E步和M步组成,它是通过迭代地最大化完整数据的对数似然函数Lc(X;Θ)的期望来最大化不完整数据的对数似然函数,其中:
Lc(X;Θ) =log p(X,Y |Θ) ;
假设在算法第t次迭代后Θ获得的估计记为Θ(t) ,则在(t+1)次迭代时,
E-步:计算完整数据的对数似然函数的期望,记为:
Q(Θ|Θ (t)) = E{Lc(Θ;Z)|X;Θ(t)};
M-步:通过最大化Q(Θ|Θ(t) ) 来获得新的Θ 。
通过交替使用这两个步骤,EM算法逐步改进模型的参数,使参数和训练样本的似然概率逐渐增大,最后终止于一个极大点。直观地理解EM算法,它也可被看作为一个逐次逼近算法:事先并不知道模型的参数,可以随机的选择一套参数或者事先粗略地给定某个初始参数λ0 ,确定出对应于这组参数的最可能的状态,计算每个训练样本的可能结果的概率,在当前的状态下再由样本对参数修正,重新估计参数λ,并在新的参数下重新确定模型的状态,这样,通过多次的迭代,循环直至某个收敛条件满足为止,就可以使得模型的参数逐渐逼近真实参数。
EM算法的主要目的是提供一个简单的迭代算法计算后验密度函数,它的最大优点是简单和稳定,但容易陷入局部最优。
Ⅱ em算法EM算法简述
EM算法是一种迭代求解参数极大似然估计的方法,由Dempster, Laind, Rubin于1977年提出。想象一下,厨师要均匀分配一份菜肴给两个人,他不会精确称量,而是通过反复调整,使两份量趋于一致。EM算法也是如此,面对未知的参数A和B,通过初始猜测,反复调整,直到两参数估计值接近稳定。
在数据处理中,EM算法特别适用于处理不完整数据,如缺失值、噪声等。给定观测数据X和未观测数据Y,它们构成Z=(X,Y),目标是估计参数Θ。最大似然估计就是找到使不完整数据对数似然函数L(X;Θ)最大的Θ值。这个过程由E步和M步构成,E步计算完整数据对数似然函数的期望,M步则通过最大化这个期望来更新参数估计。
每次迭代,算法首先在当前估计Θ(t)的基础上,进行E步计算Q(Θ |Θ (t) ),然后在E步的结果基础上进行M步更新。这个过程相当于一个逐步逼近的过程:从一个初始参数开始,通过样本修正参数,反复迭代,直到达到某个收敛条件,参数估计逼近真实值。
尽管EM算法简单且稳定,但它可能陷入局部最优,这是其主要的局限性。但其作为求解后验密度函数的工具,其在实际应用中的重要性不容忽视。