廖老师挑战杜达(Duda)——对贝叶斯公式的理解

Richard.O.Duda的《模式分类》是从国外引入的经典教材,国内某人誊抄他之后,其他人都誊抄这个人的,所以只要杜达错了,国内的书基本上就都错了。

杜达是从依据先验概率判决引入贝叶斯公式的,早些时候和廖老师讨论过,廖老师说先验分布比样本分布更难获得,而且从先验概率判决简直不合理(确实荒谬),他也指出“后验概率是对先验概率修正”这样的表达是错误的。当时感觉想通了,因为修正图像处理书中滤波器这件事更重要,就把这个地方暂时先放下了。本周就要讲到贝叶斯决策了,我备课的时候发现数学教材确实说的是后验概率是先验概率的修正,数学教材是经过千锤百炼的,一定有哪里想的不对。

定理 设 B 1 , B 2 , ⋯   , B n B_1, B_2, \cdots, B_n B1,B2,,Bn为样本空间 Ω \varOmega Ω的一个划分且 P ( B i ) > 0 , i = 1 , 2 , ⋯   , n P(B_i) > 0, i = 1, 2, \cdots, n P(Bi)>0,i=1,2,,n,则对于任意随机事件 A A A P ( A ) > 0 P(A) > 0 P(A)>0 P ( B i ∣ A ) = P ( A ∣ B i ) P ( B i ) ∑ j = 1 n P ( A ∣ B j ) P ( B j ) , i = 1 , 2 , ⋯   , n P(B_i|A) = \frac{P(A|B_i)P(B_i)}{\sum\limits_{j=1}^{n} P(A|B_j)P(B_j)}, i = 1, 2, \cdots, n P(BiA)=j=1nP(ABj)P(Bj)P(ABi)P(Bi),i=1,2,,n贝叶斯公式是利用已有结论重新评估或修正各个条件出现的概率,公式中的 P ( B i ) P(B_i) P(Bi) P ( B i ∣ A ) P(B_i|A) P(BiA)分别称作原因或条件的先验概率和后验概率。 P ( B i ) , i = 1 , 2 , ⋯   , n P(B_i), i = 1, 2, \cdots, n P(Bi),i=1,2,,n是在没有进一步信息(不知道事件 A A A是否发生)的前提下认定的各条件发生的概率;在获得了新的信息(事件 A A A已经发生)后,对先前各条件发生概率的修正,即形成概率 P ( B i ∣ A ) P(B_i|A) P(BiA)

在分类任务当中,先验概率确实是比类条件概率更难获取的信息(很多刊物有误,都是没有实际经验的本本主义者)。贝叶斯公式实际解决的是逆概率问题,即在已知结果的情况下,推断原因发生的概率。思考了一晚上,我认为贝叶斯公式引入先验概率的目的,不是,先验概率能作为判决的依据,它不能,而是,在此之前通过样本分布判决,在引入先验分布之后,不是通过样本分布判决,而是通过样本修正先验概率,然后通过后验概率判决(待讨论、确认)。

我现在的工作困难重重,太死脑细胞。模式识别本身就很难,信号处理对我来说本身难度不高,但是难在如何用通俗语言表达,且打补丁很难,由于冈萨雷斯完全不懂数字滤波器,被他坑的前面没有DTFT的基础,没有连续到离散FT的桥梁,很难统一。真是没有太多的时间放在备课上,现在完全靠人格魅力讲课。好在祖先给的记忆力足够优秀,有几个公式我就能把一节课讲下去,上天保佑我平稳度过本学期。

廖老师挑战杜达(Duda)——对贝叶斯公式的理解_第1张图片
廖老师挑战杜达(Duda)——对贝叶斯公式的理解_第2张图片

你可能感兴趣的:(模式识别中的数学问题,概率论)