目录
1 最优化方法的结构
2 常用最优化方法对比分析
3 相关计算公式
1 最优化方法的结构
最优化问题的一般形式为:
![min f(x)](https://latex.csdn.net/eq?min%20f%28x%29) ![s.t. x\in X](https://latex.csdn.net/eq?s.t.%20x%5Cin%20X)
其中 为决策变量, 是目标函数, 为约束集或可行域。特别地,如果 ,则最优化问题成为无约束最优化问题。
最优化方法通常采用迭代法求它的最优解,其基本思想是:给定一个初始点 ,按照某一迭代规则产品一个点列{ },使得当{ }是有穷点列时,其最后一个点是最优化模型问题的最优解。迭代规则由迭代公式决定,迭代公式的基本表示形式如下:
![x_{k+1}=x_k+\alpha _kd_k](https://latex.csdn.net/eq?x_%7Bk+1%7D%3Dx_k+%5Calpha%20_kd_k)
式中, 为步长因子, 为搜索方向。在最优化算法中,搜索方向 是 在 点处的下降方向,即:
![f(x_k+\alpha _kd_k)f(x_k)](https://latex.csdn.net/eq?f%28x_k+%5Calpha%20_kd_k%29%3Cf%28x_k%29)
最优化方法的基本结构如下:
给定初始点 ;确定搜索方向 ,即按照一定规则,构造 在 点处的下降方向作为搜索方向;确定步长因子 ,使目标函数有某种意义的下降;令 ,若 满足某种终止条件,则停止迭代,得到近似最优解 .否则,重复以上步骤。
2 常用最优化方法对比分析
从迭代公式可知,最优化方法求解时的关键就是构造搜索方向 和步长因子 。不同的搜索方向和不同的步长因子构成了不同的方法,常见的最优化方法有梯度下降法、最速下降法、牛顿法、高斯牛顿法、LM法、拟牛顿法,对应的迭代公式总结如下表:
迭代公式梯度下降法 最速下降法 牛顿法 高斯牛顿法 LM法 拟牛顿法
对比分析:
梯度下降法最速下降法牛顿法高斯牛顿法LM法拟牛顿法步长因子![\alpha](https://latex.csdn.net/eq?%5Calpha) ![\alpha _k](https://latex.csdn.net/eq?%5Calpha%20_k) ![\alpha _k](https://latex.csdn.net/eq?%5Calpha%20_k) ![\alpha _k](https://latex.csdn.net/eq?%5Calpha%20_k) ![\alpha _k](https://latex.csdn.net/eq?%5Calpha%20_k) 搜索方向![-\triangledown f(x^k)](https://latex.csdn.net/eq?-%5Ctriangledown%20f%28x%5Ek%29) ![-\triangledown f(x^k)](https://latex.csdn.net/eq?-%5Ctriangledown%20f%28x%5Ek%29) ![-H(x^k)^{-1}\triangledown f(x^k)](https://latex.csdn.net/eq?-H%28x%5Ek%29%5E%7B-1%7D%5Ctriangledown%20f%28x%5Ek%29) ![-G(x^k)^{-1}\triangledown f(x^k)](https://latex.csdn.net/eq?-G%28x%5Ek%29%5E%7B-1%7D%5Ctriangledown%20f%28x%5Ek%29) ![-J(x^k)^{-1}\triangledown f(x^k)](https://latex.csdn.net/eq?-J%28x%5Ek%29%5E%7B-1%7D%5Ctriangledown%20f%28x%5Ek%29) 参数说明 ① 步长因子 为一个固定值,工程师预先设定;② 搜索方向为梯度方向 的反方向 步长因子是一个变化的常数 ,每一次迭代需要重新计算。通过一位搜索算法得到H为二阶偏导矩阵,即海塞矩阵 G矩阵用来近似替代H矩阵,![G=\triangledown f\triangledown f^T](https://latex.csdn.net/eq?%5Cdpi%7B100%7D%20G%3D%5Ctriangledown%20f%5Ctriangledown%20f%5ET) J矩阵替代G矩阵, ,u为常数, 为单位矩阵B矩阵用来近似替代H矩阵,B矩阵的形式有多种目的求解最优化问题的基本方法梯度下降法的一种具体的实现方式提高收敛速度减小计算量解决G矩阵不正定的问题减小计算量以及H矩阵不正定的问题
几种算法之间的关系总结如下:
![](https://img-blog.csdnimg.cn/391551c8d9544b25998810576c552f8b.jpeg)
最速下降法是梯度下降法的一种具体实现方式。梯度下降法的步长因子是固定值,最速下降法的步长因子 是一个变化的常数 ,即由一位搜索得到步长因子 ,使得
![f(x_k+\alpha _kd_k)=minf(x_k+\alpha d_k),\alpha 0](https://latex.csdn.net/eq?f%28x_k+%5Calpha%20_kd_k%29%3Dminf%28x_k+%5Calpha%20d_k%29%2C%5Calpha%20%3E0)
牛顿法可以看成相对于梯度下降法的改进,提高了收敛速度。梯度下降法/最速下降法在确定搜索方向的时候,只用到了一阶导数,因此它的收敛速度是一阶收敛,收敛速度较慢。而牛顿法用到了二阶偏导,它的收敛速度是二阶收敛,收敛速度比梯度下降法快。高斯牛顿法是相对于牛顿法改进,简化了计算。牛顿法中的H矩阵需要计算目标函数的二阶偏导,计算量巨大,高斯牛顿法采用G矩阵替代H矩阵,大大减小了计算量。LM法是相对于高斯牛顿法的改进,解决G矩阵正定问题。高斯-牛顿法的逼近步长由矩阵G的逆矩阵决定,如果矩阵G非正定,那么其逆矩阵不一定存在,即使存在逆矩阵,也会导致逼近方向出现偏差,严重影响优化方向。LM法正是为了解决矩阵G的正定问题而提出的,其将矩阵G加上单位矩阵I的倍数来解决正定问题。LM法相当于最速下降法和高斯牛顿法的结合体。当u很小时,矩阵J接近矩阵G,其相当于高斯-牛顿法,此时迭代收敛速度快,当u很大时,其相当于梯度下降法,此时迭代收敛速度慢。因此LM算法即具有高斯-牛顿法收敛速度快、不容易陷入局部极值的优点,也具有梯度下降法稳定逼近最优解的特点。拟牛顿法是相对于牛顿法的改进。牛顿法虽然收敛速度快,但是需要计算海塞矩阵的逆矩阵 ,而且有时目标函数的海塞矩阵无法保持正定,从而使得牛顿法失效。为了克服这两个问题,人们提出了拟牛顿法。这个方法的基本思想是:不用二阶偏导数而构造出可以近似海塞矩阵(或海塞矩阵的逆)的正定对称阵。不同的构造方法就产生了不同的拟牛顿法,常用的拟牛顿算法有:DFP算法、BFGS算法、L-BFGS算法。严格意义上讲高斯牛顿法和LM法都属于拟牛顿法。
3 相关计算公式
![](https://imgconvert.csdnimg.cn/aHR0cHM6Ly9tbWJpei5xcGljLmNuL21tYml6X3BuZy8wQkJyc0tmRmNWbHJZUFIxaHBBeks1aWJjU2IzUlZQTmVpYjA2Qzh4aWJoS2dTanpQeDJvaGZRQ2RTM2VkckRvY2w2TmlidUZOSkRSa1VSdjU5NmFBb0lXN3cvNjQw?x-oss-process=image/format,png)
![](https://imgconvert.csdnimg.cn/aHR0cHM6Ly9tbWJpei5xcGljLmNuL21tYml6X3BuZy8wQkJyc0tmRmNWbHJZUFIxaHBBeks1aWJjU2IzUlZQTmVoaWN4NHhIUnZuQ0g2Q1FXREdZOW5ZSW5zYnZtVkczV0Ewcnhrc1MwMGtyZFMxem1rQTJiYzl3LzY0MA?x-oss-process=image/format,png)
![](https://imgconvert.csdnimg.cn/aHR0cHM6Ly9tbWJpei5xcGljLmNuL21tYml6X3BuZy8wQkJyc0tmRmNWbHJZUFIxaHBBeks1aWJjU2IzUlZQTmVYV0lKNnJnWWRhYUV4SkNLRjhRdEEwc2hMaWJ5RjdXazBWWnFIUXJuZ2hJNkRPekVha2pGYW93LzY0MA?x-oss-process=image/format,png)
参考链接:
最优化算法之牛顿法、高斯-牛顿法、LM算法_萌萌哒程序猴的博客-CSDN博客
梯度下降法和最速下降法的细微差别_TimingSpace的博客-CSDN博客_最速下降法
|