几何建模与处理之二 数据拟合(2)

几何建模与处理之二 数据拟合(2)

回顾:学习了函数、映射、变换等数学上的基础概念和知识,数据拟合的三步曲方法论,四种拟合方法,继续学习函数拟合问题。

函数拟合

输入:一些观察(采用)点(lbrace x_i,y_i brace_{i=0}^n)

输出:拟合数据点的函数(y=f(x)),并用于预测

拟合函数的“好坏”

分段线性插值函数(y=f_1(x))

  • 数据误差为0
  • 函数性质不好:只有C0连续,不光滑(数值计算)
image-20210722195604081

光滑插值函数(y=f_2(x))

  • 数据误差为0
  • 可能被“差数据”(噪声、outliers)带歪,导致函数性质不好、预测不可靠
image-20210722195804680

逼近拟合函数(y=f_3(x))

  • 数据误差不为0,但足够小
image-20210722195919912

多项式插值

多项式插值定理:若(x_i)两两不同,则对于任意给定的(y_i),存在唯一的次数至多是

n次的多项式(p_n),使得(P_n(x_i)=y_i,i=0,dots,n)

技巧1:构造插值问题的通用解

寻找一组次数为n的多项式基函数(l_i)使得

[l_i(x_j)=egin{cases} 1,i=j\0,i e jend{cases} ]

插值问题的解为:

[P(x)=y_0l_0(x)+y_1l_1(x)+cdots+y_nl_n(x)=sum_{i=0}^ny_il_i(x) ]

计算多项式(l_i(x)):

[l_i(x)=C_i(x-x_0)(x-x_i)...(x-x_{i-1})(x-x_{i+1})...(x-x_n)\=C_iprod_{j e i}(x-x_j)\ C_i=frac{1}{prod_{j e i}(x-x_j)} ]

最终多项式基函数(拉格朗日多项式)为

[l_i(x)=prod_{j=0,j e i}frac{x-x_j}{x_i-x_j} ]

技巧2:更方便的求解表达

Newton插值:具有相同“导数”(差商)的多项式 构造(n阶Taylor展开)

定义:

一阶差商:

[f[x_0,x_1]=frac{f(x_1)-f(x_0)}{x_1-x_0} ]

k阶差商:

[f[x_0,x_1,dots,x_k]=frac{f[x_1,dots,x_k]-f[x_0,x_1,dots,x_k]}{x_k-x_0} ]

Newton 插值多项式:

[N_n(x)=f(x_0)+f[x_0,f_1](x-x_0)+dots+f[x_0,x_1,dots,x_k](x-x_0)cdots(x-x_n-1) ]

多项式插值存在的问题

  • 系统矩阵稠密

  • 依赖于基函数选取,矩阵可能病态,导致难以求解(求逆)

病态问题:

  • 输入数据的细微变化导致输出(解)的剧烈变化

    image-20210722204101887
  • 将线性方程看成直线(超平面)当系统病态时,直线变为近似平行,求解(即直线求交)变得困难、不精确

矩阵条件数:

[k_2(A)=frac{max_{x e 0}frac{||Ax||}{x}}{min_{x e 0}frac{||Ax||}{x}} ]

  • 等于最大特征值和最小特征值之间比例
  • 条件数大意味着基元之间有太多相关性

对于等距分布的数据点(x_i),范德蒙矩阵的条件数随着数据点数n呈指数级增长(多项式的最高次数为n -1)

原因:

幂(单项式)函数基:幂函数之间差别随着次数增加而减小;不同幂函数之间唯一差别为增长速度((x^i)(x^{x-i})增长块)

趋势:

好的基函数一般需要系数交替;互相抵消问题

解决方法:

使用正交多项式基( Gram‐Schmidt正交化 )

多项式插值的结果:

  • 振荡(龙格Runge)现象;
  • 对插值点数高度敏感性

多项式逼近

使用逼近型的好处:

  • 数据点含噪声、outliers等
  • 更紧凑的表达
  • 计算简单、更稳定

最小二乘逼近

[mathop{argmin}_{fin span(B)}sum_{j=1}^m(f(x_j)-y_j)^2\ egin{aligned} sum_{j=1}^m(f(x_i)-y_j)^2 &=sum_{j=1}^m(sum_{i=1}^nlambda _ib_i(x_j)-y_j)^2\ &=(Mlambda-y)^T(Mlambda-y)\ &=lambda^TM^TMlambda-y^TMlambda-lambda^TM^Ty+y^Ty\ &=lambda^TM^TMlambda-2y^TMlambda+y^Ty end{aligned} ]

法方程 最小解满足

[M^TMlambda=M^Ty ]

(最小化二次目标函数:(x^TAx+b^T+c),充分必要条件:(2Ax=-b))

函数空间及基函数

Bernstein多项式做逼近

伯尔斯坦Bernstein给出了构造性证明。

对[0,1]区间上任意连续函数(f(x))和任意正整数(n),以下不等式对所有(xin [0,1])成立

[|f(x)-B_n(f,x)|lt frac94m_{f,n}\ m_{f,n}=mathop {lower upper bound}_{y_1,y_2in [0,1]且|y_1-y_2|lt frac{1}{sqrt n}}|f(y_1)-f(y_2)|\ B_n(f,x)=sum_{j=0}^nf(x_j)b_{n,j}(x),其中$x_j$为[0,1]上等距采样点\ b_{n,j}=egin {pmatrix} n\i end {pmatrix}x_j(1-x)^{n-j} ]

(b_{n,j})Bernstein多项式

Bernstein基函数的良好性质:非常好的几何意义!

  • 正性、权性(和为1)

  • 凸包性

  • 变差缩减性

  • 递归线性求解方法

  • 细分性

  • ...

    (在Bezier曲线和B样条篇更详细地学习)

RBF函数插值/逼近

Gauss函数

  • 两个参数:均值(mu),方差(sigma)

    (g_{mu, sigma}(x)=frac{1}{sqrt{2pi}}e^{-frac{(x-mu)^2}{2sigma^2}})

  • 几何意义:

    • 均值(mu):位置
    • 方差(sigma):支集宽度
  • 不同均值和方差的Gauss函数都线性无关

RBF函数拟合

RBF函数:

[f(x)=b_0+sum_{i=1}^nb_ig_i(x) ]

均值(mu),方差(sigma)对函数的形状影响较大,考虑同时对均值(mu),方差(sigma)优化。

一般Gauss函数表达为标准Gauss函数的形式:

[g_{mu, sigma}(x)=frac{1}{sqrt{2pi}}e^{-frac{(x-mu)^2}{2sigma^2}}=frac{1}{sqrt{2pi}}e^{-frac12(frac xsigma-frac mu sigma)^2}=g_{0,1}(ax+b)\ a=frac 1sigma,b=-frac mu sigma ]

则RBF函数表达为:

[f(x)=omega_0+sum_{i=1}^nomega_ig_{0,1}(a_ix+b_i) ]

用标准表达后,基函数是由一个基本函数通过平移和伸缩变换而来的。n足够大,a和b足够多(随机),所产生的函数空间可以逼近所有函数。

将Gauss函数看成网络

神经元:

RBF神经网络

  • 高维情形:RBF(Radial Basis Function),径向基函数
  • 一种特殊的BP网络,优化:BP算法
  • 核函数思想
  • Gauss函数的特性:拟局部性

启发:由一个简单的函数通过(仿射)变换构造出一组基函数,张成一个函数空间

几种常用的激活函数:

高维情形:多元函数

变量的多个分量的线性组合:

[(x_1,x_2,dots,x_n) o g_{0,1}(a_1^ix_1+a_2^ix_2+dots+a_n^ix_n+b_i) ]

单隐层神经网络函数:

[f(x_1,x_2,dots,x_n)=omega_0+sum_{i=1}^nw_ig_{0,1}(a_1^ix_1+a_2^ix_2+dots+a_n^ix_n+b_i) ]

多层神经网络:多重复合的函数

线性函数和非线性函数的多重复合:

[h_{W,b}(x)=f(W^Tx)=f(sum_{i=1}^3W_ix_i+b) ]

image-20210723155751573

[a_1^{(2)}=f(W_{11}^{(1)}x_1+W_{12}^{(1)}x_2+W_{13}^{(1)}x_3+b_1^{(1)})\ a_2^{(2)}=f(W_{21}^{(1)}x_1+W_{22}^{(1)}x_2+W_{23}^{(1)}x_3+b_2^{(1)})\ a_3^{(2)}=f(W_{31}^{(1)}x_1+W_{32}^{(1)}x_2+W_{33}^{(1)}x_3+b_3^{(1)})\ h_{W,b}(x)=a_1^{(3)}=f(W_{11}^{(2)}a_1^{(2)}+W_{12}^{(2)}a_2^{(2)}+W_{13}^{(2)}a_3^{(2)}+b_1^{(2)}) ]

image-20210723155942851

用神经网络函数来拟合数据

理论支撑:万能逼近定理:自由度足够多

问题建模

  • 理解问题、问题分解(多个映射级联) …

找哪个?

  • 损失函数、各种Penalty、正则项 …

到哪找?

  • 神经网络函数、网络简化 …

怎么找?

  • 优化方法(BP方法)

  • 初始值、参数 …

调参:有耐心、有直觉

作者:YIMG
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须在文章页面给出原文链接,否则保留追究法律责任的权利。
原文地址:https://www.cnblogs.com/YIMG/p/15049413.html