模式识别与机器学习(三)——高斯分布基础

1.2中 高斯分布基础

高斯分布是概率论中最常用的概率分布之一,其概率密度函数如下

高斯分布由两个参数控制,其中 是均值, 是方差。 称为标准差,方差的倒数 称为精度。显然高斯分布满足概率的以下两个性质:

高斯分布的期望为

高斯分布的二阶矩为

方差为

设 是 维的向量,则其对应的多元高斯分布的概率密度函数为:

其中 是 维的均值向量, 是 的协方差矩阵, 表示 的行列式。
现在假设有一组观测数据 ,每个 均为 维向量。为了确定高斯分布的参数我们假定它们是独立同分布地从同一个分布产生的,于是这组数据的似然函数可以表示为

频率派最常用的参数估计方法是最大似然估计,其思想是通过最大化似然函数找到参数的估计。

MLE

⾼斯概率分布的似然函数,由红⾊曲线表⽰。这⾥,黑点表⽰数据集 的值,似然函数对应于蓝⾊值的乘积。最大化似然函数涉及到调节⾼斯分布的均值和⽅差,使得这个乘积最⼤。

由于对似然函数取对数不影响优化,我们可以得到对数似然函数:

关于 优化,得到其最大似然估计

注意到 的最大似然估计等价于样本均值。关于 我们得到

注意到 的最大似然估计是有偏估计:

也就是说 低估了 ,这种有偏性随着样本量增大而逐渐减轻。为了无偏,很简单的,我们得到修正的估计:

上述估计是无偏的。

当数据点的数量 增大时, 最⼤似然解的偏移会变得不太严重, 并且在 的情况下,⽅差的最大似然估计与产⽣数据的分布的真实方差相等。

补充证明:
\begin{align} \mathbb{E}[\mu_{ML}]&=\mathbb{E}[\frac{1}{N}\sum\limits _{i=1}^{N}x_{i}]=\frac{1}{N}\sum\limits _{i=1}^{N}\mathbb{E}[x_{i}]=\mu \\ \mathbb{E}[\sigma_{ML}^{2}] &=\mathbb{E}[\frac{1}{N}\sum\limits _{i=1}^{N}(x_{i}-\mu_{ML})^{2}]=\mathbb{E} [\frac{1}{N}\sum\limits _{i=1}^{N}(x_{i}^{2}-2x_{i}\mu_{ML}+\mu_{ML}^{2})\nonumber\\ &=\mathbb{E} [\frac{1}{N}\sum\limits _{i=1}^{N}x_{i}^{2}-\frac{2}{N}\mu_{ML}\sum_{i=1}^{N}x_i+\frac{1}{N}\sum_{i=1}^{N}\mu_{ML}^{2}]=\mathbb{E} [\frac{1}{N}\sum\limits _{i=1}^{N}x_{i}^{2}-\mu_{ML}^{2}]\nonumber\\ &= \mathbb{E} [\frac{1}{N}\sum\limits _{i=1}^{N}x_{i}^{2}]-E [\mu_{ML}^{2}]\\ &=\frac{1}{N}\cdot N(\sigma^2+\mu^2)-(\frac{\sigma^2}{N}+\mu^2) =\frac{N-1}{N}\sigma^{2} \end{align}

从贝叶斯角度看曲线拟合问题

我们已经看到,多项式曲线拟合的问题可以通过误差最小化问题来表⽰。这⾥我们回到曲线拟合的问题,从概率的⾓度来考察它,可以更深刻地认识误差函数和正则化,并且能够让我们完全从贝叶斯的角度来看待这个问题。

假设给定输入变量 ,目标变量值 服从一个均值为 的高斯分布:

其中 为高斯分布的精度。 可以看到上述分布的控制变量为 和 。

我们进一步假设数据集 中的样本点独立同分布地从上述的高斯分布产生。那么为了求得 的分布,使用最大似然估计方法。该数据集的似然函数为:

最大似然估计的目标是最大化对数似然函数:

通过取对数,我们得到对数似然函数:

我们不去最大化似然函数,等价地我们来最小化负对数似然函数。

上公式的最后两项与 无关,因此我们可以丢掉它们。于是我们的目标变为最小化

基于 不依赖于 且 的事实,我们可以任意放缩系数 。为了后序处理的方便,我们将系数定为 。最终,我们的目标函数定义如下:

发现这个函数就是1.1节中的平方和误差函数。至此我们证明了在高斯分布的假设下,最大化似然函数等价于最小化平方和误差函数。接着,我们还要优化 :

由此可得

将 代回到本节开头的概率密度式就得到了关于 的预测分布:

如图所示,给定 的条件下 的⾼斯条件概率分布如下,其中均值为多项式函数 ,精度由参数 给出 :

贝叶斯方法

接下来介绍一种更“贝叶斯”的方法,我们可以对参数 假设一个先验,简单起见假设其为一个零均值,协方差为对角阵的多元高斯(即其各个分量彼此不相关):

其中 是高斯分布的精度,也称为超参数; 是 中的参数个数。 根据贝叶斯公式, 的后验概率正比于似然与先验的乘积:

很显然, 的后验依赖于 和 ,此时还需注意到 、 和 是 的共同祖先,因此 也依赖于 和 。

给定数据集,我们现在通过寻找最可能的 值(即最⼤化后验概率)来确定 。将 和 的具体形式代入并取对数,通过最大化对数后验分布我们得到关于 的最大后验估计(MAP, maximum a posteriori):
\begin{aligned}\mathbf{w}_{MAP}&=\arg\max_{\mathbf{w}} \ln\ p(\mathbf{w}|\mathbf{x},\mathbf{t},\alpha,\beta)\\&=\arg\max_{\mathbf{w}} - \frac{\beta}{2}\sum_{n=1}^N(t_n-y(x_n,\mathbf{w}))^2-\frac{\alpha}{2}\mathbf{w}^T\mathbf{w}\\&=\arg\min_{\mathbf{w}} \frac{1}{2}\sum_{n=1}^N(t_n-y(x_n,\mathbf{w}))^2+\frac{\alpha}{2\beta}\mathbf{w}^T\mathbf{w}\\&= \arg\min_{\mathbf{w}} \frac{1}{2}\sum_{n=1}^N(t_n-y(x_n,\mathbf{w}))^2+\frac{\lambda}{2}\mathbf{w}^T\mathbf{w}\end{aligned}
其中 ,就是1.1节中的正则化系数。因此我们看到给定参数先验、最大化后验概率等价于最小化正则化的平⽅和误差函数。

你可能感兴趣的:(模式识别与机器学习(三)——高斯分布基础)