盘点一下数据平滑算法

本文参考来自于:http://blog.csdn.net/wwjiang_ustc/article/details/50732211

  在自然语言处理中,经常要计算单词序列(句子)出现的概率估计。我们知道,算法在训练时,语料库不可能包含所有可能出现的序列。

    因此,为了防止对训练样本中未出现的新序列概率估计值为零,人们发明了好多改善估计新序列出现概率的算法,即数据平滑算法。

Laplace 法则(Add-one)

  最简单的算法是Laplace法则,思路很简单,统计测试数据集中的元素在训练数据集中出现的次数时,计数器的初始值不要设成零,而是设成1。这样,即使该元素没有在训练集中出现,其出现次数统计值至少也是1。因此,其出现的概率估计值就不会是零了。

  假设测试集 V 中某个元素在训练集 T 中出现 r 次,经过Laplace法则调整后的统计次数为:

                        r=r+1

  当然这样做,纯粹是为了不出现零概率,并没有解决对未见过的实例进行有效预测的问题。因此,Laplace法则仅仅是一种非常初级的技术,有点太小儿科了。

Add-delta 平滑

  Lidstone ’ s  不是加 1, 而是加一个小于 1 的正数,通常 = 0.5 ,此时又称为 Jeffreys-Perks Law 或 ELE  效果比 Add-one 好,但是仍然不理想 。

Good-Turing 估计

  Laplace方法一个很明显的问题是 rr Good-Turning 方法认为这是一个重大缺陷,需要给予改进。其实我觉得这真不算重要,只要能合理估计未见过的新实例的概率,总的统计次数发生变化又怎样呢? 
   
  Good-Turing 修正后的计算公式还真的很巧妙,它在Laplace法则后面乘了一个修正系数,就可以保证总次数不变。这个拿出来炫一炫还是没问题的: 
   

                          

  其中,表示测试集 V 中,一共有个元素在训练集 T 中出现过 次。

  虽然我觉得这个方法没啥用,但是它的确保证了测试集中元素在训练集中出现的总次数不变。即: 

                       
                      
                      

                        

  Good-Turing 估计适合单词量大并具有大量的观察数据的情况下使用,在观察数据不足的情况下,本身出现次数就是不可靠的,利用它来估计出现次数就更不可靠了。

  缺乏利用低元模型对高元模型进行线性插值的思想

  显然,N1=N2。或许这个方法解决不了自然语言处理问题,而且 nr=0 时公式也会失效,但其思路应该还是很有价值的,或许解决其他问题能用得上。

  缺点:(1) 无法保证概率估计的“有序性”,即出现次数多的事件的概率大于出现次数少的事件的概率。

     (2) 不能很好地近似,好的估计应当保证

    (3) 不能实现高阶模型和低阶模型的结合 
  优点:是其它平滑技术的基础 

Backing-off 平滑

 应用于大数据情况下的语言模型 

线性插值平滑

该参数平滑技术的基本思想是利用低元 n-gram  模型对高元 n-gram  模型进行线性插值。

用降元的方法来弥补高元的数据稀疏问题,数据估计有一定的可靠性。但是参数估计较困难。

绝对折扣和线性折扣

  估计发明的作者受到 Good-Turing 的刺激了,认为这个方法就是“劫富济贫”,把数量较大的统计次数拿出一部分均给了较小的统计次数,减少贫富差距。只不过这个方法用了一个很有技巧的公式掩盖的其本质。 
   
  与其羞羞答答“劫富济贫”,不如来个赤裸裸的方法,于是乎就出现了绝对折扣和线性折扣方法。 
   
  问题是,“劫富济贫”并不是我们的目的,我们需要的是能够对语料库中从未出现过的句子做出概率判断。要得到正确的判断,需要“劫”多少?“济”多少?这个问题绝对折扣和线性折扣都回答不了。所以,无论Good-Turing方法,还是这两种折扣方法,本质上都没跳出 Laplace 法则的思路。 

Witten-Bell算法

  Witten-Bell算法终于从 Laplace 算法跳了出来,有了质的突破。这个方法的基本思想是:如果测试过程中一个实例在训练语料库中未出现过,那么他就是一个新事物,也就是说,他是第一次出现。那么可以用在语料库中看到新实例(即第一次出现的实例)的概率来代替未出现实例的概率。 
   
  假设词汇在语料库出现的次数参见下表:


            

               

  那么,我们可以用       近似表示在语料库看到新词汇的概率。

  我不能说这个方法有多少道理,但与那些“劫富济贫”的方法相比,它至少提供了一个说得过去的理由。 

原文地址:https://www.cnblogs.com/hellochennan/p/6623991.html