需要金幣:![]() ![]() |
資料包括:完整論文 | ![]() |
![]() |
轉(zhuǎn)換比率:金額 X 10=金幣數(shù)量, 例100元=1000金幣 | 論文字?jǐn)?shù):14頁 | ![]() | |
折扣與優(yōu)惠:團(tuán)購最低可5折優(yōu)惠 - 了解詳情 | 論文格式:Word格式(*.doc) | ![]() |
摘要:共軛梯度法因其算法簡單,存儲需求小,非常適合求解大規(guī)模優(yōu)化問題。本文基于現(xiàn)有的研究結(jié)果,提出了一種新的共軛梯度法。該算法具有充分下降性,并在強(qiáng)Wolfe線性搜索下,證明了算法的全局收斂性。 關(guān)鍵詞:無約束最優(yōu)化;共軛梯度法;充分下降性;線性搜索;全局收斂性
ABSTRACT:Conjugate gradient method is suitable for solving large-scale optimization problems since it is simple algorithm and needs small storage capacity. Based on the existing research, we present a new conjugate gradient method. The presented method has sufficiently descent property, and we show the global convergence of the method with strong Wolfe line search. Keywords:unconstrained optimization; conjugate gradient method; sufficiently descent property; line search; global convergence
本文主要對無約束優(yōu)化問題的算法進(jìn)行研究,給出了修正的,即構(gòu)造了新的共軛下降方向,從而得到一類新的修正的共軛梯度算法,并證明了該算法的全局收斂性。 共軛梯度算法是求解無約束優(yōu)化問題數(shù)值效果最好的方法,值得進(jìn)行深入的研究,但由于時間和本人水平有限,本文只提出了修正的算法,但沒有給出具體的數(shù)值試驗(yàn),這是進(jìn)一步要做的工作。
由于是數(shù)學(xué)論文,簡介里有很多公式復(fù)制不出來。Wrod里是有公式的請放心。
|