首页 文章

算法em:理解和例子

提问于
浏览
1

我正在研究模式识别,我找到了一个有趣的算法,我想加深,期望最大化算法 . 我对概率和统计学知之甚少,而且我已经阅读了一些关于普通或高斯分布算法运算的文章,但我会从一个简单的例子开始,以便更好地理解 . 我希望这个例子可能合适 .

假设我们有一个有3种颜色的 jar ,红色,绿色,蓝色 . 绘制每个彩色球的相应概率是:pr,pg,pb . 现在,让我们假设我们有以下参数化模型来绘制不同颜色的概率:

pr = 1/4

pg = 1/4 p / 4

pb = 1/2 - p / 4

用p未知参数 . 现在假设正在进行实验的人实际上是colourblind并且无法从绿球中辨别出红色 . 他画N球,但只看到m1 = nR nG红/绿球和m2 = nB蓝球 .

问题是,男人是否仍然可以估计参数p并用手中的数据来计算他对红球和绿球数量的最佳猜测(显然,他知道蓝球的数量)?我认为他显然可以,但EM怎么样?我需要考虑什么?

2 回答

  • 0

    那么,EM算法的一般概要是,如果你知道一些参数的值,那么计算其他参数的MLE非常简单 . 通常给出的例子是混合物密度估计 . 如果您知道混合物重量,那么估算单个密度的参数很容易(M步骤) . 然后你回去一步:如果你知道个别密度,那么你可以估算混合物的重量(E步) . 对于每个问题都不一定有EM算法,即使有一个,它也不一定是最有效的算法 . 然而,它通常更简单,因此更方便 .

    在您说的问题中,您可以假装您知道红色和绿色球的数量,然后您可以执行 p (M步)的ML估计 . 然后使用 p 的值返回并估算红色和绿色球的数量(E步) . 没有考虑太多,我的猜测是你可以反转参数的角色,并仍然将它作为EM算法:你可以假装你知道 p 并对球的数量进行ML估计,然后回去估计 p .

    如果您仍在关注,我们可以为所有这些东西制定公式 .

  • 0

    当"p"未知时,您可以选择maximum likihood or MLE .

    首先,根据你的描述,“p”必须在[-1,2]中,否则概率就没有意义 .

    你有两个特定的观察结果:nG nR = m和nB = N - m(m = m1,N = m1 m2)

    发生这种情况的可能性是N! /(m!(N-m)!)(1-pb)^ m(1-pb)^(N-m) . 忽略N的常数选择m,我们将最大化第二项:

    p * = argmax over p(1 - pb)^ m pb ^(N - m)

    简单的解决方案是p *应该使pb =(N - m)/ N = 1 - m / N.所以0.5 - 0.25 p * = 1 = m / N ==> p * = max(-1,-2 4 * m / N)

相关问题