00005. 在朴素Bayes模型中,为什么需要Laplace平滑?

统计学上,在计算实例的概率时,如果某个量x,在观察样本库(训练集)中没有出现过,会导致整个实例的概率结果是0。然而只因为在以前的有限的训练数据集中没见到过一件事,就估计这个事件的概率为零,这明显是不合理的。

为了解决零概率的问题,法国数学家拉普拉斯最早提出用加1的方法估计没有出现过的现象的概率,所以加法平滑也叫做拉普拉斯平滑。
  假定训练样本很大时,每个分量的计数加造成的估计概率变化可以忽略不计,但可以方便有效地避免零概率问题。

你可能感兴趣的:(00005. 在朴素Bayes模型中,为什么需要Laplace平滑?)