通俗理解最大似然估计,最大后验概率估计,贝叶斯估计

xiaoxiao2021-02-27  287

以下所有例子都是抛硬币问题,在五次试验中出现正, 正,正, 正,反两次结果,求该硬币出现正面的概率p,

最大似然估计:

      假设分布为伯努利分布,也就是二项分布,出现正面的概率是p,则下次出现上述的实验结果现象的概率是:L=PPPP(1-P),如何才能让下次出现相同结过的概率最大?自然是L越大越好,计算得到p=0.8,所以极大似然估计的核心思想是:求参数为何值时才能使样本出现上述现象的概率最大。

最大后验概率估计:

我们知道,一般硬币不是假的话基本都是0.5的概率,所以出现正面p=0.5的概率非常高,这就是所谓的先验知识。所以有人就觉得,你做五次实验难道就能说明这个硬币是0.8的正面概率?我不信,我觉得凭我的认知(先验证知识)也有可能是巧合,其实还是等于0.5,只不过这五次抛桥出现正正正正反这个现象,我觉得应该这样计算:p属于一个高斯分布f(p), 那么出现上述现象的是:pf(p)下面继续分析,为了好理解,都用离散的来表示,假如p只能等于0.5,或者0.4,等于0.5的概率为0.9,等于0.4的概率为0.1(也就是说假钱的概率为0.1),那么再抛出正正正正反的概率是多少?肯定是L=pppp(1-p)*f(p),其中g(p)代表p出现的概率,经过计算可以知道是p=0.5时L最大。所以最大后验概率的核心思想是:参数我已经知道大致的概率分布了,现在我想求参数为何值的时候出现上述现象的概率最大。

贝叶斯估计:

贝叶斯是对最大后验概率的补充,已知上一步的L(0.5)=0.225,L(0.4)=0.024,则L等于0.5的概率为0.225/(0.225+0.024=0.90361,出现0.4的概率为0.009638,可以发现根据样本得到的后验概率与之前先验概率是有区别的,也就是说,我们利用实验结果和经验来推不确定的事,所以贝叶斯估计的参数是个随机变量,如果非要给出一个值得话就是这个值得期望,在这里就是0.90361*0.5+0.009638*0.4。所以贝叶斯估计的核心思想是:你最大后验概率只取一个最大值对吧?,我不,我要取期望值作为参数最终结果,比如你上面最大后验概率只能取0.5或者0.4,但是我要去0.5*p(0.5)+0.4*p(0.4)=0.455(虽然这里是离散的不存在,但是对于连续的就是处在的)

总结

最大似然估计:求出现此现象时参数为多少可能性最大,求得参数就是结果

最大后验估计:我大致知道参数分布概率,求参数为何值时候出现此现象概率最大,那么此参数就是结果

贝叶斯估计:我大致知道参数分布概率,我也知道每一个参数下出现此现象概率(最大后验估计直接选里里面最大的值最为结果),我求了一下参数期望作为结果

其实了解这三个之间的关系,很容易就能看出来最大似然估计是假设所有参数都是均匀分布,可是事实上这种情况很少见,所以实际上我们可以假设是高斯分布,然后用最大后验估计做一下实验,基本可以水一篇论文,然后再用贝叶斯分布又可以水一篇论文,懂得都懂,这里也不多说了,哈哈哈

参考:https://www.cnblogs.com/hapjin/p/6656642.html

转载请注明原文地址: https://www.6miu.com/read-3763.html

最新回复(0)