最优化理论

更新时间:2023-05-24 04:30:18 阅读: 评论:0

修正人生-365夜童话

最优化理论
2023年5月24日发(作者:银杏科)

一维搜索:

1精确一维搜索

精确一维搜索可以分为三类:区间收缩法函数逼近法(插值法)

以及求根法

区间收缩法:用某种分割技术缩小最优解所在的区间(称为搜索

区间)。包括:黄金分割法、成功失败法、斐波那契法、对分搜索法

以及三点等间隔搜索法等。

优化算法通常具有局部性质,通常的迭代需要在单峰区间进行操

作以保证算法收敛。确定初始区间的方法:进退法

①已知搜索起点和初始步长;②然后从起点开始以初始步长向前

试探,如果函数值变大,则改变步长方向;③如果函数值下降,则维

持原来的试探方向,并将步长加倍。

1.1黄金分割法:

黄金分割法是一种区间收缩方法(或分割方法),其基本思想是通

过取试探点和进行函数值比较,使包含极小点的搜索区间不断缩短以

逼近极小值点。具有对称性以及保持缩减比原则。

优点:不要求函数可微,除过第一次外,每次迭代只需计算一个

函数值,计算量小,程序简单;

缺点:收敛速度慢;

函数逼近法(插值法):用比较简单函数的极小值点近似代替原

函数的极小值点。从几何上看是用比较简单的曲线近似代替原的曲线,

用简单曲线的极小值点代替原曲线的极小点。

1.2牛顿法:

将目标函数二阶泰勒展开,略去高阶项后近似的替代目标函数,

然后用二次函数的极小点作为目标函数的近似极小点。

牛顿法的优点是收敛速度快,缺点是需要计算二阶导数,要求初

始点选的好,否则可能不收敛。

1.2抛物线法:

抛物线法的基本思想就是用二次函数抛物线来近似的代替目标

函数,并以它的极小点作为目标函数的近似极小点。在一定条件下,

1

抛物线法是超线性收敛的。

1.3三次插值法:

三次插值法是用两点处的函数值和导数值来构造差值多项式,

该曲线的极小点来逼近目标函数的极小点。一般来说,三次插值法比

抛物线法的收敛速度要快。

精确一维搜索的方法选择:

1如目标函数能求二阶导数:Newton法,收敛快。

2如目标函数能求一阶导数:

1如果导数容易求出,考虑用三次插值法,收敛较快;

2对分法、收敛速度慢,但可靠;

3只需计算函数值的方法

1二次插值法, 收敛快,但对函数单峰依赖较强;

2黄金分割法收敛速度较慢,但实用性强,可靠;

4减少总体计算时间:非精确一维搜索方法更加有效。

2非精确一维搜索

精确搜索计算量较大,特别是当迭代点远离最优解时,效率很低;

而且,很多最优化方法的收敛速度并不依赖于精确一维搜索的过程。

非精确的一维搜索:通过计算少量的函数值,得到一个可接受步

长,使得后续迭代点使目标函数要“充分”下降,达到一个满意水平,

非精确一维搜索方法可大大节省计算量,且总体上有较快的收敛速度。

不用寻找单谷区间!

包括Armijo-Goldstein准则和Wolfe准则。Armijo-Goldstein 准则

可能将目标函数的极小点给排除在可接受区域外! Wolfe将准则更

新后可避免最优解被排除。

2

2无约束优化

2.1一维搜索

(精确一维搜索,非精确一维搜索)

2.2最速下降法

基本思想:以负梯度方向为下降方向,利用精确一维搜索得最佳

步长。

最速下降法中,利用精确一维搜索求最佳步长,使得相邻两次迭

代的搜索方向总是垂直的,使得逼近极小点过程是“之”字形,这样

从任何一个初始点开始,都可以很快到达极小点附近,但是越靠近极

小点步长越小,移动越慢,导致最速下降法的收敛速度很慢。实际运

用中,在可行的计算时间内可能得不到需要的结果。

优缺点:

优点:1方法简单,每迭代一次的工作量和存贮量小;2从一个

不好的初始点出发,也能保证算法的收敛性。

缺点:1在极小值点附近收敛得很慢;2梯度法的收敛速度与变

量的尺度关系很大;3梯度法对小的扰动是不稳定的,这样就可能破

坏方法的收敛性。

2.3牛顿法

基本思想:将目标函数二阶泰勒展开,略去高阶项后近似的替代

目标函数,然后用二次函数的极小点作为目标函数的近似极小点。

优点:

1初始点离最优解很近时,算法收敛速度快;

2算法简单,不需要进行一维搜索(确定步长=1)

3正定二次函数,迭代一次就可得到最优解。

缺点:

1对多数算法不具有全局收敛性,对初值依赖;

2每次迭代都要计算Hes矩阵的逆,计算量大;

3海塞矩阵的逆可能不存在或者对应方程组奇异(或病态);

4海塞矩阵可能非正定,d可能不是下降方向,算法也可能收敛

于最大值点或者鞍点。

3

2.4阻尼牛顿法:

基本思想:阻尼牛顿法中下降方向仍为牛顿方向,但最佳步长通

过精确一维搜索得到。

f(x)存在二阶连续偏导数,函数的Hes矩阵正定,且水平集

有界,则阻尼Newton法或者在有限步迭代后终止,即具有二次终止

性。

2.5共轭梯度法

用迭代点处的负梯度向量为基础产生一组共轭方向的方法叫做

共轭梯度法。

最速下降法计算简单,但收敛速度慢,Newton(阻尼)具有收敛

速度快的优点,但需要计算Hes矩阵的逆,计算量大。共轭梯度法

它比最速下降法的收敛速度要快得多,同时又避免了像牛顿法所要求

的海塞矩阵的计算,存贮和求逆。

共轭梯度法的特点:

1对凸函数全局收敛(下降算法)

2计算简单,不用求Hes矩阵或者逆矩阵,计算量小,存储量

小,每步迭代只需存储若干向量,适用于大规模问题;

3具有二次收敛性;

4共轭梯度法的收敛速率不坏于最速下降法。如果初始方向不用

负梯度方向,则其收敛速率是线性收敛的;

2.6变尺度法(拟牛顿法)

最速下降法计算简单,但收敛速度慢,Newton(阻尼)具有收敛

速度快的优点,但需要计算Hes矩阵的逆。上述两种方法可用一个

统一的模型描述,为减小计算量,用尺度矩阵近似代替海塞矩阵的逆,

由此产生搜索方向的方法称为变尺度法。

特点:

1若尺度矩阵正定,,则每一迭代步总使得函数值下降,即算法

是稳定的。

2易计算性,尺度矩阵在迭代中逐次生成,初始矩阵为任一正定

矩阵,修正矩阵选取的不同,对应着不同的变尺度法。包括对称秩1

4

校正公式、DFP算法、BFGS算法以及布洛伊登族尺度法。

对称秩1校正公式:

SR1校正公式的缺点是尺度矩阵的正定性不具有遗传性质,从能

可能导致算法终止,即算法不稳定。SR1的优点是其对海塞矩阵的逆

的近似比BFGS法还好;算法具有二次终止性。

DFP算法:

若目标函数是正定二次函数,则DFP算法经过有限步迭代必达

到极小点,既具有二次收敛性。 f (x)是可微的严格凸函数,DFP

算法全局收敛。实际运算中,由于舍入误差的存在可能影响算法的稳

定性,但BFGS算法受到的影响要小得多。

BFGS算法:

它比DFP的数值稳定性更好并且在一定条件下可以证明在

BFGS法中使用不精确一维搜索时有全局收敛性。

2.7直接搜索法

直接搜索法包括:模式搜索法、Powell法、和单纯形法。

1模式搜索法

Hooke & Jeeves方法:

逼近极小点,算法从初始基点开始,包括两种类型的移动,探测移

动和模式移动

探测移动:依次沿n个坐标轴进行,用以确定新的基点和有利于函数

值下降的方向。

模式移动:沿相邻两个基点连线方向进行。

Ronbrock算法(转轴法)

算法每次迭代包括探测阶段构造搜索方向两部分。

探测阶段:从一点出发,依次沿n个单位正交方向进行探测移动,

一轮探测之后,再从第1个方向开始继续探测.经过若干轮探测移动,

成一个探测阶段。

构造搜索方向:利用探测阶段得到的结果构造一组新的正交方向,

并将其单位化称之为转轴。下次探测方向按照最新生成的正交方向进

5

行探测。

2 Powell方法

基本思想:Powell方法主要由基本搜索、加速搜索和调整搜索方

三个部分组成。基本搜索包括从基点出发沿着已知的n个搜索方向

进行一维搜索,确定一个新基点;加速搜索是沿着相邻的两个基点的

连线方向进行一维搜索,使函数下降更快;最后用基点连线方向代替

已知的n个搜索方向之一,构造新的搜索方向组并进行下一步迭代。

与模式搜索法的异同:

Powell方法用一维搜索取代模式搜索中的试探方式;

Powell方法的加速搜索采用的方式与模式搜索法类似,仅在步长

的取法上有一定差异,Powell方法仍然采用一维搜索方法;

Powell方法产生新的迭代方向,而模式搜索法迭代方向保持不变

或者产生正交迭代方向,与之相比,Powell方法所产生的迭代方向为

共轭方向,具有二次收敛性。

Powell法存在的问题:

在迭代中的n个搜索方向有时会变成线性相关而不能形成共轭

方向。这时组不成n维空间,可能求不到极小点。

3单纯形法

基本思想:单纯形替换法不是利用搜索方向从一个点迭代到另一个更

优的点,而是从一个单纯形迭代到另一个更优的单纯形。在单纯形替

换算法中,从一个单纯形到另一个单纯形的迭代主要通过反射、扩张、

收缩和缩边4个操作来实现。

2.8信赖域算法

信赖域方法是把最优化问题转化为一系列相对简单的局部寻优

问题。方法能够对局部的所有方向进行“搜索”,进而同时确定“局

部最好”的前进方向及长度。接着用某一评价函数来决定是否接受该

位移以及确定下一次迭代的信赖域。如果试探步较好,下一步信赖域

扩大或保持不变,否则减小信赖域。在迭代过程中不断利用二次函数

模型对目标函数进行逐步逼近。

6

信赖域算法特点:

1这种方法既具有牛顿法的快速局部收敛性,又具有理想的全局

收敛性;

2不要求目标函数的Hes阵是正定的;

3利用了二次模型来求修正步长,使得目标函数的下降比线性搜

索方法更有效。

1折线法:

折线法思想:用低维空间内满足一定要求的折线,代替最优曲线。

单折线法:

连接Cauchy点和牛顿点,其连线与信赖域的边界的交点即为子

模型的近似解。

双折线法:

原理:若信赖域迭代产生的点一开始就偏向牛顿方向,能够改善

算法性能。于是把Cauchy点和牛顿方向上的点连接起来,这条连

线与信赖域边界的交点即为子模型的近似最优解。

2.9非线性最小二乘

非线性最小二乘法包括Gauss-NewtonLevenberg-Marquardt法。

Gauss-Newton

基本思想:Gauss-Newton法也可以看成是对目标函数线性化得到的。

Gauss-Newton法的优缺点:

1对于不是很严重的大残量问题,有较慢的收敛速度。对于残量很大

的问题,算法不收敛。对于小残量问题,具有较快的局部收敛速度。

对于零残量问题,具有局部二阶收敛速度;

2如果雅克比矩阵不满秩,方法没有定义;算法不一定总体收敛。

3对于线性最小二乘问题,一步达到极小值点。

Levenberg-Marquardt法:

Gauss-Newton法在迭代过程中要求雅克比矩阵列满秩以保证搜

索方向为下降方向,限制了其应用。L-M法则通过优化模型来获取下

7

降方向。

3约束优化

3.1罚函数法

借助罚函数将约束非线性规划转化为一系列无约束问题,通过求

解无约束问题来求解约束非线性规划。

外点法:

对违反约束的点在目标函数中加入相应的惩罚,可行点不予惩罚,

这种方法的迭代点一般在可行域D的外部移动。

内点法:

对从内部企图穿越可行域D边界的点在目标函数中加入障碍,

距边界越近,障碍越大,在边界上给予无穷大的障碍,从而保证迭代

点一直在可行域内部移动。

1内点法要求迭代点在可行域内部移动,初始点必须是内点,可

行域的内部必须是非空的,内点法只能处理不等式约束

2惩罚函数的有效区域是约束的可行域,目标函数在可行域内的

所有点都受到惩罚,越靠近边界惩罚越多。

3不同的惩罚因子对应不同的惩罚函数,惩罚因子越小,惩罚函

数的极小点越接近于边界处的最优点。

4当惩罚因子趋近与零时,惩罚函数的极小点就是原约束问题的

最优点。

混合法:

外点法适用于求解一般约束问题,且初始值任意选取但求解结果

常为不可行解,内点法适于解仅含不等式约束问题,并且每次迭代的

点都是可行点。但要求初始点为可行域的内点,需要浪费相当的工作

量,将外点法和内点法结合,两种惩罚函数联合使用。

外点罚函数的特点:

1初始点可以任选,对等式约束和不等式约束均可适用;

2初始罚因子要选择得当,否则会影响迭代计算的正常进行;

3每个近似解往往不是可行解,这是某些实际问题所无法接受的;

8

4外点法中要求罚因子趋于无穷大,而罚因子太大将造成增广目

标函数的Hes阵条件数越大,趋于病态,给无约束问题求解增加很

大困难,甚至无法求解。

5如果在可行域外目标函数f(x)的性质复杂或者没有定义时,外

点法不适用了。

内点罚函数法的几点说明:

1使用内点法时,初始点应选择一个离约束边界较远的可行点。

如果太靠近某一约束边界,求解无约束优化问题时可能会发生困难。

2惩罚因子的初值应适当,否则会影响迭代计算的正常进行。

3为求解约束优化问题,需要求解一系列的无约束优化问题,计

算量大,且罚因子的选取方法对收敛速度的影响比较大。并且罚因子

的增大(外点法)与缩小(内点法)使得问题的求解变得很困难。常

常会使增广目标函数趋于病态。

3.2乘子法

1 Hestenes

Hestenes乘子法相当于对拉格朗日函数进行外点惩罚。结论:将

等式约束优化问题转化为增广拉格朗日函数求解问题(无约束优化问

题),乘子法不需过分地增大惩罚因子,确实比外点法有效很多。

2 Powell

3 Rockafellar

Rockafellar1973年将乘子法推广到不等式约束优化问题,其

思想是引入松弛变量,将不等式约束转化为等式约束。此乘子法比外

点法收敛速度快很多。

3.3二次逼近法

对于较为复杂的非线性问题,一种很自然的想法:将问题的约束

和目标函数通过泰勒展式线性化(二次规划时,目标函数的拉格朗日

函数展开为二次逼近函数)。数值实验表明,二次逼近法具有很好的

计算效率。

9

有效集法:

等式约束下的二次规划问题有很多求解方法,如消去法、QR

解法等。上述求解方程组对病态方程组求解会遇到一定困难。

有效集法:只要能够找到最优解对应的有效集,就可以通过求解

等式约束下的二次规划问题得到最优解。从二次规划问题的一个子问

题出发,求出对应的有效集,然后按照使目标函数减少的原则,对有

效集不断调整,直到迭代到最优解对应的有效集为止。

3.4可行方向法

基本思想:从可行点出发,沿着下降的可行方向进行搜索,求出

使目标函数值下降的新的可行点,直到满足终止条件,得到最优解

x*

可行方向法的核心是选择可行下降搜索方向和确定搜索步长。

索方向的选择方式不同就形成不同的可行方向法。如Frank Wolfe

法、梯度投影法、既约梯度法。

梯度投影法:

基本思想: 当迭代点在可行域内部时,取该点处的负梯度方向为

可行下降方向;当迭代点在可行域边界上时,取该点处负梯度方向在

可行域边界上的投影产生一个可行下降方向.

目标函数的最速下降方向是负梯度方向.但是,在有约束情况下,

沿最速下降方向移动可能导致非可行点.对负梯度进行投影,使得目

标函数值不仅改进,同时又保持迭代点的可行性.

既约梯度法:

基本思想借鉴求解线性规划的单纯形算法,选择某些变量为基

变量,其它的作为非基变量,将基变量用非基变量表示,并从目标函

数中消去基变量,得到以非基变量为自变量的简化的目标函数,进而

利用此函数的负梯度构造下降可行方向。

Frank Wolfe方法:

算法思想:在每次迭代中,将目标函数线性化,通过求解线性规

划方法求得可行下降方向,并沿该方向在可行域内进行一维搜索。

10

自开头的成语-文明的作文

最优化理论

本文发布于:2023-05-24 04:30:17,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/zhishi/a/1684873818176628.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

本文word下载地址:最优化理论.doc

本文 PDF 下载地址:最优化理论.pdf

标签:优化理论
相关文章
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2022 Comsenz Inc.Powered by © 实用文体写作网旗下知识大全大全栏目是一个全百科类宝库! 优秀范文|法律文书|专利查询|