需要金幣:![]() ![]() |
資料包括:完整論文 | ![]() |
![]() |
轉(zhuǎn)換比率:金額 X 10=金幣數(shù)量, 例100元=1000金幣 | 論文字?jǐn)?shù):7990 | ![]() | |
折扣與優(yōu)惠:團(tuán)購(gòu)最低可5折優(yōu)惠 - 了解詳情 | 論文格式:Word格式(*.doc) | ![]() |
摘要:CUDA是應(yīng)用較廣的GPU通用計(jì)算模型,在人工神經(jīng)網(wǎng)絡(luò)模型中,BP算法是目前應(yīng)用最廣泛的一種模型之一。本次設(shè)計(jì)的目的是設(shè)計(jì)一個(gè)基于CUDA的人工神經(jīng)網(wǎng)絡(luò),了解并理解并行計(jì)算的基本原理,掌握CUDA編程方法。本文中提出了用CUDA平臺(tái)模型來(lái)并行化BP算法的方法。用該方法訓(xùn)練BP神經(jīng)網(wǎng)絡(luò),訓(xùn)練開(kāi)始之前,將數(shù)據(jù)傳送到GPU上,訓(xùn)練開(kāi)始后計(jì)算隱含層和輸出層的輸入輸出誤差,更新權(quán)重和偏倚的過(guò)程都在GPU上實(shí)現(xiàn)。BP算法是利用輸出層的誤差來(lái)估計(jì)輸出層的直接前導(dǎo)層的誤差,再用這個(gè)誤差估計(jì)前更一層的誤差。如此下去,就能獲得所有的其他各層的誤差估計(jì)。這樣就形成了將輸出端表現(xiàn)出的誤差沿著與輸入信號(hào)傳送相反的方向逐漸向網(wǎng)絡(luò)的輸入端傳遞的過(guò)程。因此人們又將此算法稱為向后傳播算法,簡(jiǎn)稱BP算法。
關(guān)鍵詞:CUDA;BP神經(jīng)網(wǎng)絡(luò);并行計(jì)算;VS
目錄 摘要 Abstract 1-BP神經(jīng)網(wǎng)絡(luò)-1 1.1 BP神經(jīng)網(wǎng)絡(luò)的基本原理-1 1.2-BP算法-1 1.2.1 模式順傳播-1 1.2.2 誤差的逆?zhèn)鞑?2 1.2.3 記憶訓(xùn)練-4 1.2.4 學(xué)習(xí)收斂-4 1.3 BP網(wǎng)絡(luò)的解析步驟-4 2并行計(jì)算-5 2.1并行計(jì)算的概念-5 2.2并行計(jì)算的基本原理-6 2.3并行計(jì)算的現(xiàn)狀及應(yīng)用情況-6 3 GPU編程-7 3.1 GPU簡(jiǎn)介-7 3.2 GPU并行計(jì)算架構(gòu)-7 4 CUDA編程-9 4.1 CUDA簡(jiǎn)介-9 4.2 CUDA編譯環(huán)境的安裝-9 5 BP神經(jīng)網(wǎng)絡(luò)系統(tǒng)數(shù)學(xué)原理及算法-10 5.1 BP網(wǎng)絡(luò)的數(shù)學(xué)原理-10 5.2 BP神經(jīng)網(wǎng)絡(luò)的算法-15 結(jié) 論-15 參 考 文 獻(xiàn)-16 致 謝-18 附錄A 程序(調(diào)研報(bào)告)-19 |