最优化理论与方法学习笔记

最优化理论与方法学习笔记

一、引论

1、范数

 

Frobenius范数:

 

加权Frobenius范数和加权l2范数(其中M是n x n的对称正定矩阵):

 

 椭圆向量范数:

特别,我们有

 

关于范数的几个重要不等式是: 

 

 

 2、无约束问题的最优性条件

 

 

 

 

3、最优化方法的结构

 

 

二、一维搜索

1、引论

   所谓一维搜索,又称线性搜索,就是指单变量函数的最优化,它是多变量函数最优化的基础。

  一维搜索的主要结构如下:首先确定包含问题最优解的搜索区间,再采用某种分割技术或插值方法缩小这个区间,进行搜索求解。

  确定搜素区间的一种简单方法叫进退法,其基本思想是从一点出发,按一定步长,试图确定出函数呈现“高-低-高”的三点。一个方向不成功,就退回来,再沿相反方向寻找。

    

 

 

2、分割方法

 

 

 

 

             

 

 

 

 3、插值法

 

 牛顿法具有局部二阶收敛速度。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

三、牛顿法

1、最速下降法(梯度下降法,简称梯度法)—— P118

 

收敛性:线性收敛

2、两点步长梯度法 —— P127

 其中,

 

 收敛性:R-超线性收敛

3、牛顿法 —— P131

  对于正定二次函数,牛顿法一步即可达到最优解。对于非二次函数,牛顿法并不能保证经有限次迭代求得最优解,但由于目标函数在极小点附近近似于二次函数,故当初始点靠近极小点时,牛顿法的收敛速度一般是快的。牛顿法具有局部收敛性和二阶收敛速度。

  应该注意的是,当初始点远离最优解时,Gk不一定正定。牛顿方向不一定是下降方向,其收敛性不能保证。这说明恒取步长因子为1的牛顿法是不合适的,应该在牛顿法中采用某种一维搜索来确定步长因子。但是应该强调,仅当步长因子{ ak }收敛到1时,牛顿法才是二阶收敛的。这时牛顿法的迭代公式为

 

 其中ak是一维搜索产生的步长因子。

这种带步长因子的牛顿法是总体收敛的。

4、修正牛顿法 —— P136

  牛顿法面临的主要困难是Hesse矩阵Gk不正定。这时候二次模型不一定有极小点,甚至没有平稳点。当Gk不定时,二次模型函数是无界的。

原文地址:https://www.cnblogs.com/lucifer1997/p/11525084.html