搜索下的记忆梯度法及其收敛性
一类新的记忆梯度法及其收敛性

21 0 0年
第 5期
9月
中山大学学报 ( 自然科学版 )
A T S IN I R M N T R LU U I E ST TS S N A S N C A CE TA U A U A I M N V R IA I U Y T E I
Vo. No 5 149 . S p. 2 0 e 01
A w e o y G r d e e ho nd IsCo v r e e Ne M m r a intM t d a t n e g nc
T NG Jn y n DO A ig o g 一, NG L i
( . o eeo te ai n fr ai c n e Xn agN r a U i r t, i a g 6 00,hn ; 1 C l g f h m t s dI om t nSi c ,iyn o l nv sy X n n 4 0 C ia l Ma ca n o e m ei y 4
s o t tt e n w eh d i f c e ti r ci a o h w ha h e m t o Sef in n p a tc lc mpu ai n i tto . Ke y wor ds: u c n tan d o tmia in; me r a i n eh d;g o l c n e g nc n o sr ie p i z t o mo y g d e tm t o r lba o v r e e;ln a o e — i e r c nv r
g n e r t e c a e
考虑无 约束 优 化 问题
mi - ) ∈ R n厂 , ( () 1
方 法之 一 ,它在 每 步 迭 代 中不 需 计 算 和存 储 矩 阵 , 算 法简单 ,其搜 索方 向的基本 结构 为
Armijo搜索下的记忆梯度法及其收敛性

维普资讯
第 1 期
张祖 华 , :Ar j 搜 索下的记 忆梯 度 法及其 收敛性 等 mi o
2 5
信 息 , 加 了参数 选择 的 自由度 , 增 由此 可 以构造 稳定 的 收敛 均匀 的算 法 潮 , 于 求解 大 规模 优化 问题 也 对 是 一种 有效 的算 法 。但是 , 记忆 步数越 多 , 则计 算公 式越 复杂 。在实 际问题 中 , 忆二 步到三 步 比较 合适 。 记
Chi n)
Absr c : n t s p p rwe pr s nta n w m o y g a intme ho ors l ng u o t a n d op i z ton ta t I hi a e e e e me r r d e t d f o vi nc ns r i e tmia i
于 求解 大规 模无 约束 优化 问题. 忆梯 度法也具 有类 似的性 质 。舟 。 记 ]
记 忆梯 度算 法和 超记忆 梯度算 法 实际上是 共轭梯 度 法的 一 推广 பைடு நூலகம் 可更 充 分地 利 用前 面 迭 代点 的 它
收 稿 日期 : 0 60 — 4 2 0-90
作者简介 : 张祖 华 ( 9 4) 男 , 东济 南人 , 究 生 ; 贞军 (9 3) 男, 东新 泰 人 , 授 , 要 研 究 方 向 : 筹 学 。 1 7一 . 山 研 时 1 6 一, 山 教 主 运
Ar j e r h r l n d h r e o o o a a t r.Th r f r ti ut b et ov a g c l mi s a c uea d a dt efe d m fs mep rmee s o e eo ei ss ia l O s l elr es ae
Wolfe线性搜索下的超记忆梯度法及其收敛性

Wof 性 搜 索 下 的超 记 忆梯 度 法及 其收 敛 性 l e线
汤 京 永 ,董 。 丽
( .信 阳师范学院 数学与信息科学学 院 , 1 河南 信阳 4 40 ; .上海交通大学 数学系 , 60 0 2 上海 2 04 ) 02 0
摘 要 : 究 无约 束优 化 问题 ,给 出 了一 种新 的超 记 忆梯 度 法 ,在 较 弱 条件 下 证 明 了算 法具 有 研
X+ 1=X d , + (.) 12
这 里 d 为 ,X 在 X 点 的下 降方 向 , L为 _ X 沿该 方 向 的搜 索步 长.对 和 d 的不 同选择 构成 了不 () 0 厂 ) (
同的迭 代法 J . 对于 d , 可采 用 d = 一 此 种算 法称 为最 速下 降 法 .此 类算 法 虽 然 结构 简 单 ,每次 迭代 的计 g,
收 稿 日期 : 0 90 -6 2 0 -62 .
作者简介 :汤京永( 9 9 ) 男 ,汉族 , 士 , 17 一 , 博 讲师 ,从事非 线性规划 的研究 ,Ema : ag n-og o cr. — i tnj gyn @t o l i m. n
基金项 目: 国家 自 然科学基 金( 准号 : 0 7 19 、山东省 自然 科学 基金 ( 批 15 10 ) 批准 号 : 2 0 A 1 和信 阳师 范学 院青年科 研基 金 Y08 0 )
全局 收敛 性和 线性 收敛 速率 .数值试 验表 明新算 法是有 效 的. 关 键词 :无 约束 优化 ; 记 忆梯度 法 ;全局 收 敛性 ;线 性收敛速 率 超
中图分 类号 :0 2 . 2 12 文献标 志码 : A 文章编 号 : 6 15 8 (0 0)30 9 -5 17 .4 9 2 1 0 -3 60
梯度法

A1=A0+△A0 推广到一般的k+1次构造矩阵
Ak+1=Ak+△Ak
矩阵序列的 基本迭代式
△Ak称为校正矩阵
拟牛顿条件
设F(x)为一般形式n阶的目标函数,并具有连续的一、二 阶偏导。在点 处的二次泰勒近似展开
该近似二次函数的梯度是
沿g(k)方向一维搜索,
求最优步长(k)。
x(k+1)= x(k)- (k) g(k)
出口
例 8-4 用最速下降法求解下列问题
min f (x) 2x12 x22 ,
给 定 初 始 点 x(1) (1, 1)T , 1 .
10
解 目 标 函 数 f (x) 的 梯 度 及 x(1) 处 的 最 速 下 降 方 向 为
f(xk+1)
>
阻尼牛顿法
对原始牛顿法的改进
为解决原始牛顿法的不足,加入搜索步长(k)
因此,迭代公式变为:
x (k+1) = x (k) - (k) Hk-1gk 这就是阻尼牛顿法的迭代公式,最优步长(k)也称
为阻尼因子,是沿牛顿方向一维搜索得到的最优步 长。
牛顿法算法步骤
⑴任选初始点 ,给定精度ε,置k←0 ⑵计算 点的梯度矢量及其模
(x)=
x (k)
gk+
Hkx=0
得 x (k+1) = x (k) - Hk-1gk
即牛顿法迭代公式,方向- Hk-1gk称为牛顿方向
三、原始牛顿法的特点
若用原始牛顿法求某二次目标函数的最优解,则 构造的逼近函数与原目标函数是完全相同的二次式, 其等值线完全重合,故从任一点出发,一定可以一次 达到目标函数的极小点。
二、 确k定的方确法定自学,不作要求。记住
三项记忆梯度法及其投影算法的收敛性分析

S be t asf a in( B T 34-2 . u jc sic t Cl i o G / 1759)107 1 4
三项记忆 梯 度法 及其投影 算 法的收敛 性 分析
李 梅 霞 t 刘 茜 { 孙 清 滢
摘要 对于无 约束优化 问题 , 出 了一 类新 的三项记忆 梯度算 法.这 类算法 是在参数 提
p o e n e oa s m p i no he h n p u o c n e iy a d c n i u u i e e ta i t r v u d rn s u d to t rt a s d -o v x t o tn o sd f r n ib l y e n i
维普资讯
20 0 7年 3月
Mac 2 0 r h, 0 7
运 筹 学 学 报
o R TRA A TI NS NS C O
第 l 1卷 第 1期
Vb . 1 No 1 I1 .
Con e g nc o r y he Thr e t r e o y v r e e Pr pe t oft e -e m M m r
 ̄ p rme to p idM a h ma i ,Unv ri fP toe m,Do g igS a d n 5 0 1 De at n f Ap l t e tc e s ie s y o e rlu t n yn h n o g 2 7 6 ,Chn ;石 ia
Gr d e tM e h d a d IsPr jc in M e h d a in t o n t o e to t o
L iit LuQi * S nQig ig§ i xa Me i a u n yn n
A bs r c I h s pa e ,we pr p s e k n ft r e t r e r r d e t t a t n t i p r o o e a n w i d o h e -e m m mo y g a i n
无约束优化的超记忆梯度法及其全局收敛性

第 l期
20 0 8年 1 月
基础理 论研 究 ・
无 约 束 优 化 的 超 记 忆 梯 度 法 及 其 全 局 收 敛 性
汤 京永 , 金 华 , 秦 董
摘
丽
( 阳师范学院 数学与信息科学学院 , 信 河南 信 阳 4 40 ) 60 0
要 : 出一类新的求解无 约束优化 问题的超记 忆梯度 法, 提 并在较弱条件 下证 明 了算法的全局收敛性
:
1 假设与算法
假 设
( :( 在 水平集 = { ∈R l ( H ), ) , )≤, 。 } ( ) 上
有 下界 .
( -( 在 水 平集 上 连 续 可微 , ( ) H ), ) g x 在 上 一 致
连续 的 .
f ,= ;
L +卢 d 一 , —g 1k≥ 2 ,
其中, )R 一 R为连续可微 函数 ,( 为其梯度 .求解 ( : g ) (P U )的算法主要是迭代法 , 其一般形式 为
+ = l Байду номын сангаас O , td
其中 O 是搜索步长 , t d 为搜索方向 .若 为 当前迭代点 , 则记 g ) g ( 为 )为^ ’ )为厂 . ) ~ ( ] g x) 对 O 和 d 的不同选择就构成 了不 同的迭代算法 , t 如最 速下降法 ( =一g ) 牛顿法 ( =一[ d , d 等 , 中一个 著名 的方法叫共轭梯度法 , 其 其搜索方向为
步 1 若 l l : l l=0 则停止迭代; g , 否则 , 转步 2 ; 步 2 计算 d , : 使其满足
维普资讯
信 阳师范学院学报 : 自然科学版 第2卷 l
・
Armijo线搜索下一个杂交共轭梯度法及其强收敛性
( 1 . 2 )
其 中 = v f ( x ) , 是沿 搜索 方 向 执行 某 种线 搜 索产 生 的步长 ,其 中 为 方 向调控 参数 , 不 同的卢 对应 不 同 的共 轭梯 度法 ,著名 的 计 算 公式 。 卜 副 有:
卢 :
丝 , J J g k 一 1 J J
[ 摘 要] 讨论无约束优化问题, 提 出了一个新的杂交共轭梯度法公式.基于新公式,采用 A r m 1 j o 型线搜索条件确定步长,建立了一个杂交共轭梯度算法,在常规假设条件下证明了新算法的 下降性和强收敛. [ 关 键 词] 无约束优化;共轭梯度法;A r m i j o  ̄# # L 索;强收敛性
出 了一 个杂 交 共轭 梯度 法 公式 :
ax
—
{ o ,
一
( g 一g 一 )
,
}
【 收稿 日期】2 0 1 3 — 0 3 — 0 1 [ 基 金项 目】国家 自然科学基金 ( 1 1 2 7 1 0 8 6 ),广西 自然科学基金 ( 2 0 1 1 G X N S F D O 1 8 0 2 2 ),广西人才小高地建 设运 筹学 与最优化控制创新 团队联合 资助。 [ 作者简 介】 韩麟 ,广西大学数学与信息科学学 院研 究生。通 讯作 者 :简金宝 ( 1 9 6 4  ̄ ),男,玉林师范学 院教授 ,博 士 ,博士生导师 ,主要研究方 向:最优 化理论与算法 。E - m a i 1 :j i a n j b @ g x u . e d u . C F I 。
其 中 为g 与g ¨的 夹 角 ,O ' k  ̄g 与以一 的夹 角 . 显 然 , 当 目标 函数 为 严 格 凸且 在 精 确线 搜 索 条 件 下 ,公 式
Wolfe线性搜索下的超记忆梯度法及其收敛性
Wolfe线性搜索下的超记忆梯度法及其收敛性汤京永;董丽【摘要】研究无约束优化问题, 给出了一种新的超记忆梯度法, 在较弱条件下证明了算法具有全局收敛性和线性收敛速率. 数值试验表明新算法是有效的.【期刊名称】《吉林大学学报(理学版)》【年(卷),期】2010(048)003【总页数】5页(P396-400)【关键词】无约束优化;超记忆梯度法;全局收敛性;线性收敛速率【作者】汤京永;董丽【作者单位】信阳师范学院,数学与信息科学学院,河南,信阳,464000;上海交通大学,数学系,上海,200240;信阳师范学院,数学与信息科学学院,河南,信阳,464000【正文语种】中文【中图分类】O221.21 引言考虑无约束优化问题min f(x), x∈Rn,(1.1)其中: Rn是n维欧氏空间; f(x): Rn→R为连续可微函数. 本文设f(x)的梯度函数为g(x), 若xk为当前迭代点, 则g(xk)简记为gk, f(xk)简记为fk, f(x*)简记为f *.求解问题(1.1)的算法主要是迭代法, 基本格式为xk+1=xk+αkdk,(1.2)这里dk为f(x)在xk点的下降方向, αk为f(x)沿该方向的搜索步长. 对αk和dk的不同选择构成了不同的迭代法[1].对于dk, 可采用dk=-gk, 此种算法称为最速下降法[1]. 此类算法虽然结构简单, 每次迭代的计算量小, 但收敛速度慢且容易产生拉锯现象. 若f(x)二次连续可微, 则可采用dk=-Hkgk, 其中Hk为▽2f(xk)-1或▽2f(xk)-1的某种近似, 此种算法称为拟牛顿法[1]. 拟牛顿法虽然在一定条件下有较快的收敛速度, 但每次迭代时都需要计算和存储矩阵, 不适于求解大型优化问题. 上述两种算法在每步迭代时仅利用当前点的信息产生下一个迭代点, 而忽略了前面迭代点的信息, 这在算法设计中是一种信息浪费.共轭梯度法在每次迭代时通过记忆前一步的迭代信息产生下一个迭代点, 搜索方向的基本结构为其中βk是一个参数, 当βk用不同的公式时即得到了不同的共轭梯度法[1-2]. 此类算法有效避免了计算和存储矩阵, 是求解大型优化问题的有效方法之一, 但很多共轭梯度法不具有全局收敛性[2-3].为了充分利用前面迭代点的信息, 以改进算法的性能, 保证算法具有全局收敛性, 文献[4]提出了记忆梯度法[4]. 记忆梯度法是共轭梯度法的推广, 在每步迭代时同样不需计算和存储矩阵, 算法简单, 因而适于求解大型优化问题, 且与共轭梯度法相比, 此类算法增加了参数选择的自由度, 更有利于构造稳定的快速收敛算法[5-7]. 但很多记忆梯度法仅利用前一步的迭代信息, 同样忽略了前面迭代点的信息. 文献[8]提出一种超记忆梯度法, 算法在每步都能充分利用前面多步迭代点的信息, 并且具有全局收敛性.本文提出一种新的求解无约束优化问题的超记忆梯度法, 算法在每步迭代时都充分利用前面多步迭代点的信息产生下降方向, 采用Wolfe线性搜索产生步长, 在较弱条件下证明了算法具有全局收敛性. 当目标函数为一致凸函数时, 证明了算法具有线性收敛速率. 数值试验表明算法是有效的.2 超记忆梯度法及其性质假设:(H1) 目标函数f(x)在水平集L0={x∈Rn|f(x) ≤f(x1)}上有下界;(H2) 梯度函数g(x)在包含L0的开凸集B上一致连续;(H3) f(x)是二次连续可微的一致凸函数.算法2.1 ρ∈(0,1), 0<σ1<σ2<1, m>0是一个整数, x1∈Rn. 令k ∶=1.步骤如下:(1) 若‖gk‖=0, 则停止迭代; 否则, 转(2);(2) 计算dk, 使其满足:(2.1)其中(2.2)(3) xk+1=xk+αkdk, 其中αk由Wolfe线性搜索确定, 即要求αk满足:(2.3)(2.4)(4) 令k ∶=k+1, 转(1).引理2.1 对任意的k≥1, 有注2.1 由引理2.1及式(2.3)可知{fk}单调不增, 即fk≤fk-1≤…≤f1, 从而知xk∈L0.引理2.2 对任意的k≥1, 有‖dk‖≤(1+ρ)‖gk‖.3 算法的全局收敛性定理3.1 假设(H1)和(H2)成立, {xk}是由新算法产生的迭代点列, 则证明: 首先证明{‖dk‖}有界. 由引理2.2知, 只需证明{‖gk‖}有界. 假设{‖gk‖}无界, 则存在无穷子列N⊂{1,2,…,}, 使得‖gk‖→+∞, k∈N, k→+∞.(3.1)由式(2.3)和引理2.2知(3.2)因为{fk}单调不增且有下界, 故知{fk}有极限, 从而由式(3.2)知(3.3)因此αk‖gk‖2→ 0 (k∈N, k→+∞), 于是由式(3.1)可知αk‖gk‖→ 0 (k∈N,k→+∞), 进而再由引理2.2可得αk‖dk‖→0, k∈N, k→+∞.(3.4)由式(2.4)、引理2.1及引理2.2可得(3.5)从而由(H2)和式(3.4)可得‖gk‖→ 0 (k∈N, k→+∞), 这与式(3.1)矛盾. 因此, {‖gk‖}有界.假设则存在无穷子列K⊂{1,2,…}及υ>0, 使得‖gk‖>, ∀k∈K.(3.6)由式(3.3)和(3.6)知,(3.7)从而知αk→ 0 (k∈K, k→+∞). 因为{‖dk‖}有界, 故知式(3.4)成立. 又由式(3.5)及假设(H2)和式(3.4)知‖gk‖→ 0 (k∈K, k→+∞), 这与式(3.6)矛盾. 因此,4 算法的线性收敛速率引理4.1[5] 若假设(H3)成立, 则假设(H1)和(H2)成立, f(x)在Rn上有唯一的极小点x*, 且存在M≥m>0, 使得:(4.1)m‖x-x*‖≤‖g(x)‖≤M‖x-x*‖.(4.2)引理4.2[5] 若假设(H3)成立, 则g(x)在水平集L0上Lipschitz连续, 即存在常数L>0, 使得‖g(x)-g(y)‖≤L‖x-y‖, ∀x,y∈L0.定理4.1 若假设(H3)成立, {xk}是由算法2.1产生的无穷点列, 则{xk}至少线性收敛于x*.证明: 由式(2.3)和引理2.1可知(4.3)又由式(3.5)知(4.4)从而由引理4.2可得于是由引理2.2知(4.5)又由式(4.3)和(4.5)可得(4.6)令则易知0<ω<1/2, 从而由式(4.6)知fk-fk+1≥ω‖gk‖2.余下的证明类似于文献[5]中的定理3, 故略.5 数值试验为进一步检验算法2.1的实用效果, 选取两个算例对本文算法进行数值试验, 并与Wolfe搜索下的共轭梯度法和最速下降法进行比较. 用IT表示达到相应精度时算法的迭代次数, fk表示迭代结束时的目标函数值, NA表示本文提出的新算法, 用FR,PRP,HS,CD和DY分别表示FR,PRP,HS,CD及DY共轭梯度法[1-2], SM表示最速下降法. 参数取值为ρ=0.299, σ1=0.38, σ2=0.85. 计算结果列于表1~表3. 例5.1 f(x)=(x1-x2)2+(x2+x3-2)2+(x4-1)2+(x5-1)2,x0=(-2,2,-2,2,2)T, x*=(1,1,1,1,1)T, f *=0.例5.2 扩展Beale函数:其中n=40.例5.3 例5.2中取n=80.表1 精度为|fk-f *|≤10-8,10-9,10-10时例5.1的计算结果Table 1 Results of example 5.1 with precision requirements |fk-f *|≤10-8,10-9,10-10方法ITfkNA8,9,91.531 2×10-9, 7.188 6×10-11, 7.188 6×10-11FR12,13,158.254 4×10-9, 9.037 9×10-10, 2.920 9×10-11PRP10,11,123.531 8×10-9, 1.4309×10-10, 8.863 7×10-11HS19,20,212.685 8×10-9, 2.552 0×10-10, 1.2343×10-11CD12,13,141.442 0×10-9, 1.403 5×10-10, 6.294 6×10-11DY12,14,149.175 2×10-9, 8.899 0×10-11, 8.899 0×10-11SM14,15,163.465 8×10-9, 5.180 8×10-10, 6.871 2×10-11表2 精度为|fk-f *|≤10-4,10-5,10-6时例5.2的计算结果Table 2 Results of example 5.2 with precision requirements |fk-f *|≤10-4,10-5,10-6方法ITfkNA13,15,165.902 6×10-5, 2.291 6×10-6, 2.108 7×10-7FR21,26,275.054 4×10-5, 2.864 4×10-6, 6.378 0×10-7PRP14,15,171.672 2×10-5, 5.0709×10-6, 8.909 3×10-7HS83,143,2036.925 6×10-5, 9.915 7×10-6, 9.9476×10-7CD16,18,22 6.059 7×10-5, 8.275 8×10-6, 7.110 6×10-7DY22,25,264.830 1×10-5, 1.036 3×10-6, 4.843 8×10-7SM98,128,1728.586 6×10-5, 9.226 2×10-6, 8.990 0×10-7表3 精度为|fk-f *|≤10-4,10-5,10-6时例5.3的计算结果Table 3 Results of example 5.3 with precision requirements |fk-f *|≤10-4,10-5,10-6方法ITfkNA14,15,164.801 9×10-5, 4.583 2×10-6, 4.217 3×10-7FR22,26,285.609 5×10-5, 5.728 7×10-6, 5.096 6×10-7PRP14,16,193.344 5×10-5, 3.2499×10-6, 6.644 6×10-7HS94,162,2249.834 6×10-5, 9.961 2×10-6, 9.9260×10-7CD17,19,249.915 0×10-5, 8.436 0×10-6, 2.212 7×10-7DY22,25,269.660 2×10-5, 2.072 5×10-6, 9.687 6×10-7SM103,139,1839.330 6×10-5, 9.941 6×10-6, 9.897 4×10-7由表1~表3可见, 本文提出的新算法不但理论上具有全局收敛性和线性收敛速率, 而且数值效果较好, 特别在要求精度较高和规模较大时, 新算法具有更好的效果.参考文献【相关文献】[1] 袁亚湘, 孙文瑜. 最优化理论与方法 [M]. 北京: 科学出版社, 1997.[2] 戴或虹, 袁亚湘. 非线性共轭梯度法 [M]. 上海: 上海科学技术出版社, 2000.[3] MA Ming-juan, HUANG Qing-dao, DENG Jian. Conjugate Gradient Method with the Inexact Line Search [J]. Journal of Jilin University: Science Edition, 2009, 47(3): 505-506. (马明娟, 黄庆道, 邓键. 非精确条件下的共轭梯度方法 [J]. 吉林大学学报: 理学版, 2009, 47(3): 505-506.)[4] Miele A, Cantrell J W. Study on a Memory Gradient Method for the Minimization of Functions [J]. JOTA, 1969, 3(6): 459-470.[5] TANG Jing-yong, SHI Zhen-jun. A Class of Global Convergent Memory Gradient Methods and Its Linear Convergence Rate [J]. Advances in Mathematics, 2007, 36(1): 67-75. (汤京永, 时贞军. 一类全局收敛的记忆梯度法及其线性收敛性 [J]. 数学进展, 2007, 36(1): 67-75.)[6] TANG Jing-yong, DONG Li, GUO Shu-li. A New Memory Gradient Method with Curve Search Rule [J]. Journal of Xinyang Normal University: Natural Science Edition, 2009, 22(2): 179-182. (汤京永, 董丽, 郭淑利. 一类新的曲线搜索下的记忆梯度法 [J]. 信阳师范学院学报: 自然科学版, 2009, 22(2): 179-182.)[7] TANG Jing-yong, DONG Li, ZHANG Xiu-jun. A New Class of Memory Gradient Methods with Wolfe Line Search [J]. Journal of Shandong University: Natural Science, 2009, 44(7): 33-37. (汤京永, 董丽, 张秀军. 一类新的Wolfe线性搜索下的记忆梯度法 [J]. 山东大学学报: 理学版, 2009, 44(7): 33-37.)[8] SHI Zhen-jun. A New Super-Memory Gradient Method for Unconstrained Optimization[J]. Advances in Mathematics, 2006, 35(3): 265-274.。
一类新的记忆梯度法
1 引 言
考虑 无约束 最优 化问题
mi{ ( ) nf x l z∈ R } , (1 )
其 中 d 为 厂( 在 z ) 点 的搜索方 向,a 为 f( ) z 沿
该 方 向的搜索 步长. 对 a 和 d 的不 同选 择就 构成 了不 同 的迭 代法 .
果 表 明 该 方 法是 有 效 的 .
关 键 词 :无 约束 优 化 ; 忆梯 度 法 ; 局 收 敛 性 ;线性 收 敛 速 率 记 全 中 图 分类 号 :O 2 1 2 .2 文 献 标 识 码 :A 文 章 编 号 :1 0 — 8 2 1 ) 4 0 3 — 5 0 19 8 X( 0 0 0 — 0 20
Ab t a t A ne sr c : w ca s f l s o me r gr dint mo y a e me ho f r nc s r i d t ds o u on t ane op i ia i n tm z to pr blmt d Is g o a o v r e c n i e rc n e g n e r t r r v d u d r s m em i o d t n . Th r s n e . t l b l n e g n e a d l a o v r e c a e a ep o e n e o l c n ii s c n d o e me h d p s e s s t e s fi in e c n r p r y wih u n i e s a c t o o s s e h u f e td s e tp o e t t o ta y l e r h, a d t e s a c ie to l b c n n h e r h d r c i n wi e t i r s e in a t ma ia l . M o e v r t i me h d i h rt n i p r a t p o e t f t e we lk o n a t u t r g o u o tc l y ro e h s t o n e is a m o t n r p r y o h l n wn — Po a — b ee P l a P l k Ri ii— o y k( RP)me h d:t e t n e c o t r o r s t e s e p s e c n ie to fa s l to h e d n y t u n t wa d h t e e td s e td r c i n i ma l s e s g n r t d, p e e t g a e u n e o i y s e s f o h p e i g Pr l n r u rc l e u t t p i e e a e r v n i s q e c f tn t p r m a p n n . n e i a y n me ia r s l mi
Armijo型线搜索下一种修正HS共轭梯度法的全局收敛性
i ̄l 设 , J l d 由算法1 产生 ,则
() 8 () 9
!
1o =.
0o )
证明 由式( 知函数值序列 { ( )是递减序列. 7 ) 厂 } 从式( 可得 7 )
∑ Io fo <.
k O =
又由假设条件函数 厂有下界, 则我们有
( 7 )
3 本文假设
(1 H )水习集 ={ 己 x∈R 。 ) 【 ) 有界; / ( ≤ } x
(2 H )目标函数 /连续可微有下界, 且其梯度满足Lph z i i条件, ct 即存在—个常数L O 使得 >,
I x- ( f£ — , x ∈ . g )gy ≤ J Y V, Q ( ) Y 由 设 件 知存 一 量 0 使 (l ,x Q 假 条 可 ,在 常 > , 得 1 V ∈ . )
件 下, 明了此修正 H 证 s算法具有全局收敛性. 最后对算法进行 了数值试验, 结果表明该算 法具有良好的收敛性 和有效 试验
性 , 适 合 求 解 大规 模 无约 束优 化 问题 . 尤其
关键词 :修 正 H S算法,r o型线搜 索, A mU 全局收敛性 中图分类号 : 2 4 0 2 文献标识码 :A
T
,
( c 4 ’
㈣
其中
T
,
由式() 得 5 和 )
g = I - T l g
因此搜索方向d 具有充分下降性.
算法1
( 6
步骤l 给定起始点 , 参数 >0 P∈ O1, ∈(, , , (, O ) ) 1 >0令 k: , =0.
步 2若 J ,停 ;则 步 3 骤 则 止否 转 骤 . J ≤
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第16卷 第1期运 筹 与 管 理Vol.16,No.12001年2月OPERA TIONS RESEARCH AND MANA GEM EN T SCIENCEFeb.2007收稿日期:2006209204作者简介:张祖华(19742),男,山东济南人,研究生;时贞军(19632),男,山东新泰人,教授,主要研究方向:运筹学。
Armijo 搜索下的记忆梯度法及其收敛性张祖华, 时贞军(曲阜师范大学运筹与管理学院,山东日照276826)摘 要:本文提出一种新的无约束优化记忆梯度算法,在Armijo 搜索下,该算法在每步迭代时利用了前面迭代点的信息,增加了参数选择的自由度,适于求解大规模无约束优化问题。
分析了算法的全局收敛性。
关键词:无约束优化;记忆梯度法;Armijo 搜索;全局收敛性中图分类号:O221.2 文章标识码:A 文章编号:100723221(2007)0120024204Convergence of New Memory Gradient Method with Armijo SearchZHAN G Zu 2hua ,SH I Zhen 2jun(College of O perations Research and M anagement ,Qu f u N orm al U ni versit y ,Riz hao 278626,Chi na )Abstract :In t his paper we p resent a new memory gradient met hod for solving unconst rained optimization p roblems.We use t he previous iterative information to generate a new iterate at each iteration wit h Armijo search rule and add t he f reedom of some parameters.Therefore it is suitable to solve large scale optimization problems.We analyze t he global comvergence under some mild conditions.Key words :unconst rained optimizatio n ;memory gradient met hod ;Armijo seach rule ;global conver 2gence0 引言考虑无约束优化问题min f (x ), x ∈R n(1)其中R n 为n 维欧氏空间,f :R n →R 1是一连续可微函数,大多数求解问题(1)的算法是迭代算法,最常用的是梯度算法,常采用如下形式x k +1=x k +αk d k , k =0,1,2,…(2)其中d k 是搜索方向,αk 是步长参数。
若x k 为当前迭代点,则分别记梯度 f (x k )为g k ,f (x k )为f k ,f (x 3)为f 3P (x |L 0)=max y ∈L 0‖y -x ‖P (5B |L 0)=inf x ∈5BP (x |L 0)5B 表示B 的边界。
一般情况下,共轭梯度法是求解无约束优化问题的有效算法之一,它能有效避免存贮和计算矩阵,适于求解大规模无约束优化问题.记忆梯度法也具有类似的性质[1,3,7,8]。
记忆梯度算法和超记忆梯度算法[6]实际上是共轭梯度法的一推广,它可更充分地利用前面迭代点的信息,增加了参数选择的自由度,由此可以构造稳定的收敛均匀的算法[2,4,5],对于求解大规模优化问题也是一种有效的算法。
但是,记忆步数越多,则计算公式越复杂。
在实际问题中,记忆二步到三步比较合适。
本文利用Armijo 搜索设计了一种新的记忆梯度算法,并在较弱的条件下证明了算法的全局收敛性。
1 记忆梯度法假设(H 1)目标函数f (x )在水平集L 0={x ∈R n |f (x )≤f (x 0)}上有下界,这里x 0为初始点。
(H 2)梯度函数g (x )= f (x )在包含L 0的开凸集B 上一致连续,B 满足P (5B |L 0)>0在以上假设基础上,提出新算法如下:算法(A ) 给出0<ρ<23,0<μ<1,x 0∈R n 且置k :=0;步1 若‖g k ‖=0则停!否则转步2;步2 x k +1=x k +αk d k (αk ),这里αk 为满足下式的α∈{s k ,s k ρ,s kρ2,…}中的最大者f k -f (x k +αd k (α))≥-μα[g T k d k (α)+12α‖g k ‖2](3)其中d k (α)=-g k ,若k =0;-(1-α)g k +αd k -1,若k ≥1(4)s k =1若k =0;ρ‖g k ‖2‖g k ‖2+|g T k d k -1|若k ≥1(5)步3 置k :=k +1,转步1。
容易看出,该算法有一个重要特点,以每步迭代中,它的方向和步长是同时确定的。
这有利于找到更合适的搜索方向和步长。
为方便,有时记d k =d k (αk ).为以后证明需要,下面引入几个引理。
引理1 对任意k ≥0若α∈(0,s k )则有g T k d k (α)≤-(1-ρ)‖g k ‖2。
证明 当k =0时,上式显然成立。
当k ≥1时g Tk d k (α)=-(1-α)‖g k ‖2+αg T k d k -1≤-(1-α)‖g k ‖2+|αg T k d k -1|=-‖g k ‖2αρ‖g k ‖2/s k≤-(1-ρ)‖g k ‖2证毕引理2 对任意k ≥0,若α∈(0,s k ),则有g T k d k (α)+12α‖g k ‖2≤0证明 由引理1,及s k 定义可得。
引理3 对于k ≥0和α∈(0,s k ]有‖d k (α)‖≤max 0≤i ≤k{‖g i ‖}证明 利用(4)由数学归纳法即得。
引理4 步2中的搜索是可行的。
证明 假设不存在αk 为满足下式的α∈{s k ,s k ρ,s kρ2,…}中的最大者f k -f (x k +αd k (α))≥-μα[g T k d k (α)+12α‖g k ‖2]则知当αi =s kρi,i →+∞时f k -f (x k +αi d k (αk ))<-μαi [g T k d k (αi )+12αi ‖g k ‖2]对左边应用中值定理后,再对上述两边取极限,可得μ≥1,与已知矛盾,从而步2中的搜索是可行的。
证毕52第1期 张祖华,等:Armijo 搜索下的记忆梯度法及其收敛性2 全局收敛性引理5 如果(H 1)和(H 2)成立,算法(A )产生无穷点列{x k },则序列{‖g k ‖}和{‖d k ‖}有界。
证明 由引理3可知,我们只要证明{‖g k ‖}有界即可。
令δk =max 0≤j ≤k{‖g j ‖}若{‖g k ‖}无界,则lim k →+∞δk =+∞因而必存在无穷子列N <{0,1,2,…}使δk =‖g k ′‖,Πk ′∈N (6)且‖g k ′‖=δk →+∞(k ′∈N ,k ′→+∞).(7)由引理1和(3)式可得f k -f (x k +αk d k )≥-μαk [g Tk d k (αk )+12αk ‖g k ‖2]≥μαk [(1-ρ)‖g k ‖2-12s k ‖g k ‖2]≥μαk [(1-ρ)‖g k ‖2-12ρ‖g k ‖2]≥μαk [(1-32ρ)‖g k ‖2由(H 1)可知∑∞k =0αk ‖g k ‖2<+∞(8)从而∑k ∈Nαk‖g k‖2≤∑∞k =0αk‖g k‖2<+∞.(9)由引理3和(6),当α∈(0,s k ]时有‖d k (α)‖2≤max 0≤i ≤k{‖g i ‖2}≤δ2k =‖g k ′‖2,Πk ′∈N.(10)由(9)和(10)可得∑k ∈Nαk‖d k(α)‖2<+∞,(11)故αk ‖d k (α)‖2→0(k ∈N ,k →+∞).(12)由引理1和Cauchy 2Schwarz 不等式得,当α∈(0,s k ]时有‖g k ‖・‖d k (α)‖≥-g T k d k (α)≤(1-ρ)‖g k ‖2从而‖d k (α)‖≥(1-ρ)‖g k ‖(13)由(7)和(13)式可得‖d k (α)‖→+∞(k ∈N ,k →+∞).再由(12)式可得αk ‖d k (α)‖→0(k ∈N ,k →+∞).(14)从而lim k ∈N ,k →∞αk =0这说明当k ∈N 充分大时,αk =αk /ρ∈(0,s k ]使得不等式(3)反向,即f k -f (x k +αk d k (αk ))<-μαk [g T k d k (αk )+12αk ‖g k ‖2]从而f k -f (x k +αk d k (αk )<-μαk g T k d k (αk ).在上式左端利用中值定理,则存在θk ∈[0,1]使f k -f (x k +αk d k (αk ))=-αk g (x k +θk αk d k (αk )Td k (αk )由此可得g (x k +θk αk d k (αk ))T d k (αk )>μg Tk d k (αk )由引理1,上式和(10)知当k ∈N 且充分大时,有62运 筹 与 管 理 2007年第16卷(1-ρ)(1-μ)‖g k ‖2≤(1-μ)(-g T k d k (αk ))≤[g (x k +θk αk d k (αk ))-g k ]Td k (αk )≤‖d k (αk )‖・‖g (x k +θk αk d k (αk ))-g k ‖≤‖g k ‖・‖g (x k +θk αk d k (αk ))-g k ‖,Πk ∈N.从而(1-ρ)(1-μ)‖g k ‖≤‖g (x k +θk αk d k (αk ))-g k ‖,Πk ∈N.由引理2可知f k -f (x k +1)≥-μαk [g Tk d k (αk )+12αk ‖g k ‖2]≥0从而x k ∈L 0<B ,再根据(H 2),P (5B |L 0)>0,因此由(14)式知,当k 充分大时,x k +θk αk d k (αk )∈B.故由g (x )在B 上的一致连续性,即得‖g k ‖→0(k ∈N ,k →+∞).这与(7)式相矛盾,故{‖g k ‖}有界,从而{‖d k ‖}有界。