机器学习基础 - 分类模型之朴素贝叶斯

朴素贝叶斯


文章目录

  • 朴素贝叶斯
    • 1. 基本概念
      • 1. 条件概率
      • 2. 先验概率
      • 3. 后验概率
    • 2. 贝叶斯公式
    • 3. 条件独立假设
    • 4. 从机器学习视角理解朴素贝叶斯
    • 朴素贝叶斯中的三种模型
      • 1. 多项式模型
      • 2. 高斯模型
      • 3. 伯努利模型
    • QA
      • 1. 朴素贝叶斯为何朴素?
      • 2. 朴素贝叶斯分类中某个类别的概率为0怎么办?
      • 3. 朴素贝叶斯的要求是什么?
      • 4. 朴素贝叶斯的优缺点?
      • 5. 朴素贝叶斯与 LR 区别?

1. 基本概念

1. 条件概率

P ( X ∣ Y ) = P ( X , Y ) P ( Y ) P(X|Y) = \frac{P(X,Y)}{P(Y)} P(XY)=P(Y)P(X,Y)

  • P ( X ∣ Y ) P(X|Y) P(XY)含义: 表示 y 发生的条件下 x 发生的概率。

2. 先验概率

  • 含义: 表示事件发生前的预判概率。 这个可以是基于历史数据统计,也可以由背景常识得出,也可以是主观观点得出。一般都是单独事件发生的概率,如 P(A)

3. 后验概率

  • 基于先验概率求得的反向条件概率,形式上与条件概率相同(若 P(X|Y) 为正向,则 P(Y|X) 为反向)

2. 贝叶斯公式

贝叶斯公式如下:
P ( Y ∣ X ) = P ( X ∣ Y ) P ( Y ) P ( X ) P(Y|X) = \frac{P(X|Y) P(Y)}{P(X)} \\ P(YX)=P(X)P(XY)P(Y)

  • P(Y) 叫做先验概率,意思是事件X发生之前,我们对事件Y发生的一个概率的判断
  • P(Y|X) 叫做后验概率,意思是时间X发生之后,我们对事件Y发生的一个概率的重新评估
  • P(Y,X) 叫做联合概率, 意思是事件X与事件Y同时发生的概率。

3. 条件独立假设

P ( x ∣ c ) = p ( x 1 , x 2 , ⋯ x n ∣ c ) = ∏ i = 1 N p ( x i ∣ c ) P(x|c) = p(x_1, x_2, \cdots x_n | c) = \prod_{i=1}^Np(x_i | c) P(xc)=p(x1,x2,x

你可能感兴趣的:(杂项,机器学习,分类,人工智能)