需要金幣:![]() ![]() |
資料包括:完整論文,開題報告 | ![]() |
![]() |
轉換比率:金額 X 10=金幣數(shù)量, 例100元=1000金幣 | 論文字數(shù):11218 | ![]() | |
折扣與優(yōu)惠:團購最低可5折優(yōu)惠 - 了解詳情 | 論文格式:Word格式(*.doc) | ![]() |
摘要:支持向量機是借助優(yōu)化方法解決機器學習問題的新工具。近年來,支持向量機越來越受到人們的廣泛關注,在其理論研究和算法實現(xiàn)方面都取得了重大進展,成為機器學習領域的前沿熱點課題。 關于支持向量機(SVM )參數(shù)的優(yōu)化選取,國際上并沒有公認統(tǒng)一的最好的方法,目前較為常用的SVM 參數(shù)尋優(yōu)的方法有:實驗法、網(wǎng)格搜索(grid search)法,遺傳算法(genetic algorithm,GA)尋優(yōu)法 、粒子群算法(particle swarm optimization,PSO)尋優(yōu)法等。實驗法是指通過大量的實驗比較來確定參數(shù),這種方法十分浪費時間,且不易尋得最優(yōu)參數(shù)。網(wǎng)格搜索法是將待搜索參數(shù)在一定的空間范圍中劃分成網(wǎng)格,通過遍歷網(wǎng)格中所有的點來尋找最優(yōu)參數(shù)。這種方法在尋優(yōu)區(qū)間足夠大且步距足夠小的情況下可以找出全局最優(yōu)解。GA算法和PSO算法屬于啟發(fā)式算法,它們不必遍歷區(qū)間內所有的參數(shù)組也能找到全局最優(yōu)解,但這2種算法操作往往比較復雜,且容易陷入局部最優(yōu)解。通過比較本文采用網(wǎng)格搜索法。 網(wǎng)格搜索法的改進:針對網(wǎng)格搜索法搜索時間長的問題提出一種改進的網(wǎng)格搜索法,先采用大步距大范圍粗搜,初步確定一個最優(yōu)參數(shù)區(qū)間,之后在此區(qū)間內進行小步距精搜,大幅度地減少了參數(shù)尋優(yōu)時間。 關鍵詞:支持向量機,交叉驗證,分類
目錄 摘要 ABSTRACT 1 引言-1 1.1課題的背景-1 1.2研究的目的及意義-1 1.3 本文的主要工作-1 2 支持向量機的理論基礎-2 2.1最優(yōu)化理論-2 2.1.1 KKT條件-2 2.1.2 拉格朗日對偶-3 2.2 統(tǒng)計學習理論思想-4 2.2.1 經(jīng)驗風險-4 2.2.2 VC維-5 3 支持向量分類機-7 3.1最優(yōu)分類平面-7 3.2 線性支持向量分類機-8 3.3 非線性支持向量分類機-11 3.4支持向量-12 4 支持向量機核函數(shù)-14 4.1支持向量及其性質-14 4.1.1支持向量分類機-14 4.1.2 支持向量回歸機-15 4.2 核函數(shù)-14 4.3支持向量機中核函數(shù)的選取-17 4.3.1已知訓練集時核函數(shù)的選取-18 4.3.2核函數(shù)的構造-19 5 支持向量機參數(shù)選取-20 5.1交叉驗證法思想-20 5.2 程序基本模塊的描述-20 5.2.1 數(shù)據(jù)的提取-20 5.2.2 數(shù)據(jù)預處理-21 5.2.3 選擇最佳的SVM參數(shù)c&g-21 5.2.4 利用最佳的參數(shù)進行SVM網(wǎng)絡訓練-21 5.2.5 SVM網(wǎng)絡預測-21 5.2.6 結果分析-21 5.3 MATLAB實現(xiàn)-22 6 總結與展望-25 致謝-26 參考文獻-27 |