径向基函数(Radial Basis Function)插值

曲面重构

当高维数据稀疏,需要预测一些数据,需要使用曲面重构的方法。 曲面重构一般可以分为:

  • 插值
  • 重构

曲面插值里我们一般使用径向基函数插值。

RBF (Radial Basis Function)可以看作是一个高维空间中的曲面拟合(逼近)问题,学习是为了在多维空间中寻找一个能够最佳匹配训练数据的曲面,然后来一批新的数据,用刚才训练的那个曲面来处理。

RBF是一系列精确插值方法的组合,即表面必须通过每一个测到的曲面值。

RBF网络能够逼近任意的非线性函数,可以处理系统内的难以解析的规律性,具有良好的泛化能力,并有很快的学习收敛速度,已成功应用于非线性函数逼近、时间序列分析、数据分类、模式识别、信息处理、图像处理、系统建模、控制和故障诊断等。 简单说明一下为什么RBF网络学习收敛得比较快。当网络的一个或多个可调参数(权值或阈值)对任何一个输出都有影响时,这样的网络称为全局逼近网络。由于对于每次输入,网络上的每一个权值都要调整,从而导致全局逼近网络的学习速度很慢。BP网络就是一个典型的例子。 如果对于输入空间的某个局部区域只有少数几个连接权值影响输出,则该网络称为局部逼近网络。常见的局部逼近网络有RBF网络、小脑模型(CMAC)网络、B样条网络等。

将设RBF是非线性函数:
ϕ ( r ) = ϕ ( ∣ x − x i ∣ ) \phi(r)=\phi(|x-x_i|) ϕ(r)=ϕ(xxi)

其参数依赖于n维空间的欧式范数:

∥ x ⃗ − x i → ∥ = ∑ m = 1 n ( x m − x i , m ) 2 \left\|\vec{x}-\overrightarrow{x_i}\right\|=\sqrt{\sum_{m=1}^n\left(x_m-x_{i, m}\right)^2} x xi =m=1n(xmxi,m)2

RBF的常见函数形式可有以下几种:

  • Gaussian: φ ( r ) = exp ⁡ ( − r 2 2 σ 2 ) \varphi(r)=\exp \left(-\frac{r^2}{2 \sigma^2}\right) φ(r)=exp(2σ2r2)

  • Muliquadrics : φ ( r ) = 1 + r 2 σ 2 \varphi(r)=\sqrt{1+\frac{r^2}{\sigma^2}} φ(r)=1+σ2r2

  • Linear: φ ( r ) = r \varphi(r)=r φ(r)=r

  • Cubic: φ ( r ) = r 3 \varphi(r)=r^3 φ(r)=r3

  • Thinplate: φ ( r ) = r 2 ln ⁡ ( r + 1 ) \varphi(r)=r^2 \ln (r+1) φ(r)=r2ln(r+1)

径向基函数的插值函数表达式例子:

f ( x ) = c 0 + c 1 x + ∑ ⁡ i = 1 n λ i φ ( ∣ x − x i ∣ ) f(x)=c_0+c_1 x+\operatorname{\sum}_{i=1}^n \lambda_i \varphi\left(\left|x-x_i\right|\right) f(x)=c0+c1x+i=1nλiφ(xxi)

现在我们的目的是根据已知的N个数据,求出函数 f ( x ) f(x) f(x)的系数 : c 0 , c 1 , λ i c_0,c_1,\lambda_i c0,c1,λi,其中 x i x_i xi 是已知的数据点集。


RBF的方法是要选择P个基函数,每个基函数对应一个训练数据,各基函数形式为,由于距离是径向同性的,因此称为径向基函数。

基于径向基函数的插值函数为:

f ( x ) = ∑ P = 1 P W P φ P ( ∥ x − x P ∥ ) f(x)=\sum_{P=1}^P W_P \varphi_P\left(\left\|x-x_P\right\|\right) f(x)=P=1PWPφP(xxP)

而我们这里得到这些未知参数的方法主要是:最小二乘法,或者SVD 假设我们有N组数据集,以及对应的函数f(xi)的值,

这样由N组数据我们可以一个矩阵:A *B=Y 其中A是未知参数矩阵,B是数据集得到的值,Y是数据集对应的输出值, 我们可以用最小二乘法得到参数A的值。

原文链接:径向基函数(Radial Basis Function)插值

你可能感兴趣的:(数理基础)