-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
優(yōu)化算法的應(yīng)用(優(yōu)化算法的應(yīng)用及編程實(shí)現(xiàn))
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于優(yōu)化算法的應(yīng)用的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com。
創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請撥打電話175-8598-2043,或添加微信:1454722008
本文目錄:
一、優(yōu)化算法
動量法、AdaGrad、RMSProp、AdaDelta、Adam
在7.2節(jié)(梯度下降和隨機(jī)梯度下降)中我們提到,目標(biāo)函數(shù)有關(guān)自變量的梯度代表了目標(biāo)函數(shù)在自變量當(dāng)前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根據(jù)自變量當(dāng)前位置,沿著當(dāng)前位置的梯度更新自變量。然而,如果自變量的迭代方向 僅僅取決于自變量當(dāng)前位置,這可能會帶來一些問題 。
可以看到,同一位置上,目標(biāo)函數(shù)在豎直方向( 軸方向)比在水平方向( 軸方向)的斜率的絕對值更大。因此,給定學(xué)習(xí)率,梯度下降迭代自變量時會使自變量在豎直方向比在水平方向移動幅度更大。那么,我們 需要一個較小的學(xué)習(xí)率 從而避免自變量在豎直方向上越過目標(biāo)函數(shù)最優(yōu)解。然而,這會造成自變量在水平方向上 朝最優(yōu)解移動變慢 。
試著將學(xué)習(xí)率調(diào)大一點(diǎn),此時自變量在豎直方向不斷越過最優(yōu)解并逐漸發(fā)散。
動量法的提出是為了解決梯度下降的上述問題。
其中,動量超參數(shù) 滿足 。當(dāng) 時,動量法等價于小批量隨機(jī)梯度下降。
因此,在實(shí)際中,我們常常將 看作是最近 個時間步的 的值的加權(quán)平均。
現(xiàn)在,我們對動量法的速度變量做變形:
優(yōu)化算法中,⽬標(biāo)函數(shù)⾃變量的每⼀個元素在相同時間步都使⽤同⼀個學(xué)習(xí)率來⾃我迭代。在“動量法”⾥我們看到當(dāng)x1和x2的梯度值有較⼤差別時,需要選擇⾜夠小的學(xué)習(xí)率使得⾃變量在梯度值較⼤的維度上不發(fā)散。但這樣會導(dǎo)致⾃變量在梯度值較小的維度上迭代過慢。動量法依賴指數(shù)加權(quán)移動平均使得⾃變量的更新⽅向更加⼀致,從而降低發(fā)散的可能。 本節(jié)我們介紹AdaGrad算法,它根據(jù)⾃變量在每個維度的梯度值的⼤小來調(diào)整各個維度上的學(xué)習(xí)率,從而避免統(tǒng)⼀的學(xué)習(xí)率難以適應(yīng)所有維度的問題。
AdaGrad算法會使⽤⼀個小批量隨機(jī)梯度gt按元素平⽅的累加變量st。在時間步0,AdaGrad將s0中每個元素初始化為0。在時間步t,⾸先將小批量隨機(jī)梯度gt按元素平⽅后累加到變量st:
其中⊙是按元素相乘。接著,我們將⽬標(biāo)函數(shù)⾃變量中每個元素的學(xué)習(xí)率通過按元素運(yùn)算重新調(diào)整⼀下:
其中η是學(xué)習(xí)率,ϵ是為了維持?jǐn)?shù)值穩(wěn)定性而添加的常數(shù),如10的-6次方。這⾥開⽅、除法和乘法的運(yùn)算都是按元素運(yùn)算的。這些按元素運(yùn)算使得⽬標(biāo)函數(shù)⾃變量中 每個元素都分別擁有⾃⼰的學(xué)習(xí)率 。
需要強(qiáng)調(diào)的是,小批量隨機(jī)梯度按元素平⽅的累加變量st出現(xiàn)在學(xué)習(xí)率的分⺟項中。因此,
然而,由于st⼀直在累加按元素平⽅的梯度,⾃變量中每個元素的學(xué)習(xí)率在迭代過程中⼀直在降低(或不變)。 所以,當(dāng)學(xué)習(xí)率在迭代早期降得較快且當(dāng)前解依然不佳時,AdaGrad算法在迭代后期由于學(xué)習(xí)率過小,可能較難找到⼀個有⽤的解 。
當(dāng)學(xué)習(xí)率在迭代早期降得較快且當(dāng)前解依然不佳時,AdaGrad算法在迭代后期由于 學(xué)習(xí)率過小 ,可能較難找到⼀個有⽤的解。為了解決這⼀問題,RMSProp算法對AdaGrad算法做了⼀點(diǎn)小小的修改。
不同于AdaGrad算法⾥狀態(tài)變量st是 截⾄時間步t所有小批量隨機(jī)梯度gt按元素平⽅和 ,RMSProp算法將這些梯度 按元素平⽅做指數(shù)加權(quán)移動平均 。具體來說,給定超參數(shù)0 ≤ γ < 1,RMSProp算法在時間步t > 0計算:
和AdaGrad算法⼀樣,RMSProp算法將⽬標(biāo)函數(shù)⾃變量中每個元素的學(xué)習(xí)率通過按元素運(yùn)算重新調(diào)整,然后更新⾃變量:
其中η是學(xué)習(xí)率,ϵ是為了維持?jǐn)?shù)值穩(wěn)定性而添加的常數(shù),如10的-6次方。因為RMSProp算法的狀態(tài)變量st是對平⽅項gt ⊙ gt的指數(shù)加權(quán)移動平均, 所以可以看作是最近1/(1 − γ)個時間步的小批量隨機(jī)梯度平⽅項的加權(quán)平均。如此⼀來,⾃變量每個元素的學(xué)習(xí)率在迭代過程中就不再⼀直降低(或不變)。
除了RMSProp算法以外,另⼀個常⽤優(yōu)化算法AdaDelta算法也針對AdaGrad算法在迭代后期可能較難找到有⽤解的問題做了改進(jìn)。有意思的是,AdaDelta算法沒有學(xué)習(xí)率這⼀超參數(shù)。
AdaDelta算法也像RMSProp算法⼀樣,使⽤了小批量隨機(jī)梯度gt按元素平⽅的指數(shù)加權(quán)移動平均變量st。在時間步0,它的所有元素被初始化為0。給定超參數(shù)0 ≤ ρ < 1(對應(yīng)RMSProp算法中的γ),在時間步t > 0,同RMSProp算法⼀樣計算:
與RMSProp算法不同的是,AdaDelta算法還維護(hù)⼀個 額外的狀態(tài)變量∆xt ,其元素同樣在時間步0時被初始化為0。我們使⽤∆xt−1來計算⾃變量的變化量:
最后,我們使⽤∆xt來記錄⾃變量變化量 按元素平⽅的指數(shù)加權(quán)移動平均:
Adam算法在RMSProp算法基礎(chǔ)上對小批量隨機(jī)梯度也做了指數(shù)加權(quán)移動平均。
Adam算法使⽤了 動量變量vt 和RMSProp算法中 小批量隨機(jī)梯度按元素平⽅的指數(shù)加權(quán)移動平均變量st ,并在時間步0將它們中每個元素初始化為0。給定超參數(shù)0 ≤ β1 < 1(算法作者建議設(shè)為0.9),時間步t的動量變量vt即小批量隨機(jī)梯度gt的指數(shù)加權(quán)移動平均:
接下來,Adam算法使⽤以上 偏差修正 后的變量 v ˆ t 和 s ˆ t ,將模型參數(shù)中每個元素的學(xué)習(xí)率通過按元素運(yùn)算重新調(diào)整:
其中 η 是學(xué)習(xí)率, ϵ 是為了維持?jǐn)?shù)值穩(wěn)定性而添加的常數(shù),如10的-8次方。和AdaGrad算法、RMSProp算法以及AdaDelta算法⼀樣,⽬標(biāo)函數(shù)⾃變量中每個元素都分別擁有⾃⼰的學(xué)習(xí)率。最后,使⽤ 迭代⾃變量:
二、什么是梯度下降優(yōu)化算法?
"梯度下降算法" 是一種常用的最優(yōu)化算法,它的基本思想是通過不斷調(diào)整模型參數(shù)來最小化損失函數(shù),以達(dá)到在訓(xùn)練集上預(yù)測效果盡可能優(yōu)秀的目的。
具體而言,梯度下降算法的工作過程如下:
首先,選擇一組初始的參數(shù)。
然后,計算當(dāng)前參數(shù)下的損失函數(shù)值。
接著,計算損失函數(shù)關(guān)于參數(shù)的導(dǎo)數(shù)(即梯度),并沿著梯度的反方向調(diào)整參數(shù)。
重復(fù)上述過程,直到損失函數(shù)達(dá)到最小值或達(dá)到停止條件(比如迭代次數(shù)達(dá)到預(yù)定值)。
梯度下降算法的優(yōu)點(diǎn)在于簡單易實(shí)現(xiàn),可以用于解決各種類型的最優(yōu)化問題。但是,梯度下降算法的缺點(diǎn)在于收斂速度較慢,容易陷入局部最小值,且對于高維問題容易陷入局部最小值。因此,為了提高算法的收斂速度和穩(wěn)定性,常常采用不同的變種來改進(jìn)基本的梯度下降算法,常見的變種有批量梯度下降算法、隨機(jī)梯度下降算法和小批量梯度下降算法。
三、多目標(biāo)智能優(yōu)化算法及其應(yīng)用的目錄
《智能科學(xué)技術(shù)著作叢書》序
前言
第1章 緒論
1.1 進(jìn)化算法
1.1.1 進(jìn)化算法的基本框架
1.1.2 遺傳算法
1.1.3 進(jìn)化策略
1.1.4 進(jìn)化規(guī)劃
1.2 粒子群算法
1.2.1 標(biāo)準(zhǔn)粒子群算法
1.2.2 算法解析
1.3 蟻群算法
1.3.1 蟻群算法的基本思想
1.3.2 蟻群算法的實(shí)現(xiàn)過程
1.3.3 蟻群算法描述
1.3.4 蟻群優(yōu)化的特點(diǎn)
1.4 模擬退火算法122
1.4.1 模擬退火算法的基本原理
1.4.2 模擬退火算法描述
1.5 人工免疫系統(tǒng)
1.5.1 生物免疫系統(tǒng)
1.5.2 人工免疫系統(tǒng)
1.6 禁忌搜索
1.7 分散搜索
1.8 多目標(biāo)優(yōu)化基本概念
參考文獻(xiàn)
第2章 多目標(biāo)進(jìn)化算法
2.1 基本原理
2.1.1 MOEA模型
2.1.2 性能指標(biāo)與測試函數(shù)
2.2 典型多目標(biāo)進(jìn)化算法
2.2.1 VEGA、MOGA、NPGA和NSGA
2.2.2 SPEA和SPEA2
2.2.3 NSGA2
2.2.4 PAES
2.2.5 其他典型MOEA
2.3 多目標(biāo)混合進(jìn)化算法
2.3.1 多目標(biāo)遺傳局部搜索
2.3.2 J—MOGLS
2.3.3 M PAES
2.3.4 多目標(biāo)混沌進(jìn)化算法
2.4 協(xié)同多目標(biāo)進(jìn)化算法
2.5 動態(tài)多目標(biāo)進(jìn)化算法
2.5.1 IMOEA
2.5.2 動態(tài)MOEA(DMOEA)
2.6 并行多目標(biāo)進(jìn)化算法
2.6.1 并行多目標(biāo)進(jìn)化算法的基本原理
2.6.2 多分辨率多目標(biāo)遺傳算法
2.6.3 并行單前端遺傳算法
2.7 其他多目標(biāo)進(jìn)化算法
2.7.1 高維多目標(biāo)優(yōu)化的NSGA2改進(jìn)算法
2.7.2 動態(tài)多目標(biāo)優(yōu)化的進(jìn)化算法
2.8 結(jié)論與展望
參考文獻(xiàn)
第3章 多目標(biāo)粒子群算法
3.1 基本原理
3.2 典型多目標(biāo)粒子群算法
3.2.1 CMOPSO
3.2.2 多目標(biāo)全面學(xué)習(xí)粒子群算法
3.2.3 Pareto檔案多目標(biāo)粒子群優(yōu)化
3.3 多目標(biāo)混合粒子群算法
3.3.1 模糊多目標(biāo)粒子群算法
3.3.2 基于分散搜索的多目標(biāo)混合粒子群算法
3.4 交互粒子群算法
3.5 結(jié)論
參考文獻(xiàn)
第4章 其他多目標(biāo)智能優(yōu)化算法
4.1 多目標(biāo)模擬退火算法
4.2 多目標(biāo)蟻群算法
4.2.1 連續(xù)優(yōu)化問題的多目標(biāo)蟻群算法
4.2.2 組合優(yōu)化問題的多目標(biāo)蟻群算法
4.3 多目標(biāo)免疫算法
4.4 多目標(biāo)差分進(jìn)化算法
4.5 多目標(biāo)分散搜索
4.6 結(jié)論
參考文獻(xiàn)
第5章 人工神經(jīng)網(wǎng)絡(luò)優(yōu)化
5.1 Pareto進(jìn)化神經(jīng)網(wǎng)絡(luò)
5.2 徑向基神經(jīng)網(wǎng)絡(luò)優(yōu)化與設(shè)計
5.3 遞歸神經(jīng)網(wǎng)絡(luò)優(yōu)化與設(shè)計
5.4 模糊神經(jīng)網(wǎng)絡(luò)多目標(biāo)優(yōu)化
5.5 結(jié)論
參考文獻(xiàn)
第6章 交通與物流系統(tǒng)優(yōu)化
6.1 物流配送路徑優(yōu)化
6.1.1 多目標(biāo)車輛路徑優(yōu)化
6.1.2 多目標(biāo)隨機(jī)車輛路徑優(yōu)化
6.2 城市公交路線網(wǎng)絡(luò)優(yōu)化
6.3 公共交通調(diào)度
6.3.1 概述
6.3.2 多目標(biāo)駕駛員調(diào)度
6.4 結(jié)論
參考文獻(xiàn)
第7章 多目標(biāo)生產(chǎn)調(diào)度
7.1 生產(chǎn)調(diào)度描述_
7.1.1 車間調(diào)度問題
7.1.2 間隙生產(chǎn)調(diào)度
7.1.3 動態(tài)生產(chǎn)調(diào)度
7.1.4 批處理機(jī)調(diào)度和E/T調(diào)度
7.2 生產(chǎn)調(diào)度的表示方法
7.3 基于進(jìn)化算法的多目標(biāo)車間調(diào)度
7.3.1 多目標(biāo)流水車間調(diào)度
7.3.2 多目標(biāo)作業(yè)車間調(diào)度
7.4 基于進(jìn)化算法的多目標(biāo)模糊調(diào)度
7.4.1 模糊調(diào)度:Sakawa方法
7.4.2 模糊作業(yè)車間調(diào)度:cMEA方法
7.5 基于進(jìn)化算法的多目標(biāo)柔性調(diào)度
7.5.1 混合遺傳調(diào)度方法
7.5.2 混合遺傳算法
7.6 基于粒子群優(yōu)化的多目標(biāo)調(diào)度
7.6.1 基于粒子群優(yōu)化的多目標(biāo)作業(yè)車間調(diào)度
7.6.2 多目標(biāo)柔性調(diào)度的混合粒子群方法
7.7 多目標(biāo)隨機(jī)調(diào)度
7.8 結(jié)論與展望
參考文獻(xiàn)
第8章 電力系統(tǒng)優(yōu)化及其他
8.1 電力系統(tǒng)優(yōu)化
8.1.1 基于免疫算法的多目標(biāo)無功優(yōu)化
8.1.2 基于分層優(yōu)化的多目標(biāo)電網(wǎng)規(guī)劃
8.1.3 基于NSGA2及協(xié)同進(jìn)化的多目標(biāo)電網(wǎng)規(guī)劃
8.2 多播Qos路由優(yōu)化
8.3 單元制造系統(tǒng)設(shè)計
8.3.1 概述
8.3.2 基于禁忌搜索的多目標(biāo)單元構(gòu)造
8.3.3 基于并行禁忌搜索的多目標(biāo)單元構(gòu)造
8.4 自動控制系統(tǒng)設(shè)計
8.4.1 概述
8.4.2 混合動力學(xué)系統(tǒng)控制
8.4.3 魯棒PID控制器設(shè)計
8.5 結(jié)論
參考文獻(xiàn)
附錄 部分測試函數(shù)
……
四、多目標(biāo)智能優(yōu)化算法及其應(yīng)用的簡介
《多目標(biāo)智能優(yōu)化算法及其應(yīng)用》可作為計算機(jī)、自動控制、人工智能、管理科學(xué)和工業(yè)工程等專業(yè)的研究生及高年級本科生教材,也可作為從事計算智能、生產(chǎn)調(diào)度等研究人員和工程技術(shù)人員的參考書。
以上就是關(guān)于優(yōu)化算法的應(yīng)用相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
seo關(guān)鍵詞優(yōu)化軟件官網(wǎng)(seo關(guān)鍵詞優(yōu)化軟件app)
優(yōu)化教學(xué)內(nèi)容是指什么(優(yōu)化教學(xué)內(nèi)容是指什么內(nèi)容)
巴盟生態(tài)園林景觀設(shè)計(巴盟生態(tài)園林景觀設(shè)計方案)
下列屬于企業(yè)角度的網(wǎng)絡(luò)營銷功能(下列屬于企業(yè)角度的網(wǎng)絡(luò)營銷功能的有)