需要金幣:![]() ![]() |
資料包括:完整論文 | ![]() |
![]() |
轉(zhuǎn)換比率:金額 X 10=金幣數(shù)量, 例100元=1000金幣 | 論文字?jǐn)?shù):16頁 | ![]() | |
折扣與優(yōu)惠:團(tuán)購最低可5折優(yōu)惠 - 了解詳情 | 論文格式:Word格式(*.doc) | ![]() |
摘要:共軛梯度法是求解大規(guī)模無約束非線性優(yōu)化問題的一種重要方法?;诂F(xiàn)有的研究結(jié)果啟發(fā),本文對搜索方向中的參數(shù)進(jìn)行了修正,進(jìn)而提出了一種新的共軛梯度算法。該算法能夠保證目標(biāo)函數(shù)序列的充分下降性,并在強(qiáng)Wolfe線性搜索下,證明了算法的全局收斂性。 關(guān)鍵詞:無約束最優(yōu)化;共軛梯度法;充分下降性;線性搜索;全局收斂性
ABSTRACT:Conjugate gradient method is an important method for solving large-scale unconstrained nonlinear optimization problems. Based on the existing research, this paper modifies the parameter in the research direction, and a new conjugate gradient method is proposed. The presented method has sufficiently descent property. At the end of this paper, we show the global convergence of the proposed method with strong Wolfe line search. Keywords: unconstrained optimization; conjugate gradient method; sufficiently descent property; line search; global convergence
本文主要討論了無約束優(yōu)化問題的算法研究,介紹了幾種共軛梯度經(jīng)典算法,在此基礎(chǔ)上,給出了新的參數(shù),即構(gòu)造了新的共軛下降方向,從而得到一類新的共軛梯度算法,并證明了算法的充分下降性和全局收斂性。
由于是數(shù)學(xué)論文,簡介里有很多公式復(fù)制不出來。Wrod里是有公式的請放心。
|