『壹』 pso的參數選擇
微粒群演算法中比較重要的幾個參數為:慣性權重ω(或壓縮因子χ)、學習因子c1和c2、速度限制Vmax、位置限制Xmax、種群大小和初始種群。有研究者固定其他參數,研究單個參數對演算法的影響;也有研究者同時研究多個參數對演算法的影響。Shi對PSO演算法中的參數選擇進行了最早的討論。
當前的研究普遍認為慣性權重對微粒群演算法性能的影響最大,因此這方面的研究最多。王俊偉對PSO演算法中的慣性權重進行了系統的實驗,分析了固定權重與時變權重的選擇問題,並從問題依賴性、種群大小和拓撲結構等方面詳細分析了慣性權重對於演算法性能的影響。結果表明,慣性權重的問題依賴性較小,隨著種群的增大,其取值應適當減小,局部版本下慣性權重的選擇具有更大的自由度。陳貴敏提出了開口向下拋物線、開口向上拋物線和指數曲線等非線性慣性權重遞減策略並與線性遞減策略進行比較,試驗結果表明,凹函數遞減策略優於線性策略,而線性策略優於凸函數策略。
一般認為,在微粒群演算法中,慣性權重用於平衡全局和局部搜索能力,較大的慣性權重更傾向於全局搜索,而較小的慣性權重適於局部搜索。因此慣性權重的取值應隨時間逐漸減小,而Zheng聲稱遞增的慣性權重性能更好,但是在該文中使用了一組不同於標准PSO演算法的學習因子,並且在該文中沒有說明這對性能的影響。
由於固定的慣性權重往往無法獲得好的效果,因此出現了慣性權重在搜索過程中隨迭代代數線性下降、模糊自適應變化、按非線性函數下降、按餘弦規律下降、按雙曲線規律下降、按Sugeno函數規律下降的PSO演算法。與此同時,還有很多種慣性權重隨某種評價指標自適應變化的方法,如根據搜索的成功歷史、微粒平均速度、種群多樣性、目標函數平整性的變化、微粒群進化速度和聚集程度、個體搜索能力(ISA)來動態調整慣性權重。Liu根據Metropolis准則來確定是否接受慣性權重的變化。
也有人使用隨機慣性權重,如將其設定為[0.5+(Rnd/2.0)]、取為在[0,1]區間均勻分布的隨機數。Jiang在慣性權重的選取過程中引入混沌機制,使得慣性權重的取值能夠遍歷[0, 1]區間。
學習因子c1和c2代表了將每個微粒拉向pBest和gBest(或nBest)位置的隨機加速項的權重。從心理學的角度而言,認知項(Cognition term)代表了個體復制已被證明是成功的過去行為的趨勢,而社會項(Social term)代表了追從他人成功經驗的趨勢。c1和c2很多時候被設定為2.0,顯而易見的原因是它將使得搜索覆蓋以pBest和gBest為中心的區域。另一個常用的值為1.49445,它可以確保PSO演算法的收斂。Carlisle通過大量實驗,提出一套比較好的參數設置為將c1和c2分別設定為2.8和1.3,且該參數設置的性能在[182]中得到進一步肯定。受時變慣性權重的思想啟發,出現了多種學習因子隨時間變化的PSO演算法變種,如學習因子隨時間線性下降、根據微粒的演化狀態動態調整、根據適應值持續變差的次數和種群的分散程度來動態調整。高鷹建立了學習因子和微粒群中所有微粒的平均適應度與整體最優位置適應度之差的一種非線性函數關系,通過非線性時變的學習因子自適應地調整「認知」部分和「社會」部分對微粒的影響,從而提高演算法的收斂速度和精度。
在大多數情況下,兩個學習因子的取值相同,從而使得社會搜索和認知搜索有相同的權重。Kennedy研究了兩個極端情況:只有社會項的模型和只有認知項的模型,結論是這兩個部分對微粒群搜索的成功而言都很關鍵,對非對稱的學習因子尚無確定的結論報告。Depuy等分析了最大速度、社會學習因子和認知學習因子對微粒群演算法在搜索空間中找到最優點的能力的影響,但是分析過於簡單。
還有的研究同時確定慣性權重和學習因子。有很多研究者採用各種優化技術來動態確定慣性權重和學習因子,如遺傳演算法、混沌尋優方法、演化演算法、微分演化演算法、自適應校正設計(Adaptive CriticDesign)技術。Silva基於共生機制,使用另外一個PSO演算法來動態確定原演算法的參數。Krohling將慣性權重設置為零,同時用兩個服從分布的隨機變數來取代c1r1和c2r2,其中為期望為0、方差為1的高斯分布。Arumugam根據一個由pBest和gBest確定的函數來動態地確定慣性權重和學習因子。Breaban將速度更新公式中的各項解釋為運算元的操作,並引入了一些新的運算元,據此來同時自適應地確定慣性權重和學習因子。Ueno對微粒採用多組參數值,並利用微粒速度的平均值來動態確定慣性權重和學習因子。Khosla使用Taguchi方法來確定演算法參數。Kuo採用十七個低維函數優化問題,針對單個極小和多個極小的情況研究了慣性權重和學習因子的取值范圍。
微粒的速度可以受一個最大速度Vmax的限制,由此作為一種約束來控制微粒群的全局探索能力。在最初的原始PSO演算法中,採用的參數為,,微粒的速度經常會快速地增長到非常大的值,這樣會影響演算法的性能,所以需要對微粒速度進行限制。後來,Clerc指出速度限制並非必須的,引入收縮因子同樣可以實現限制微粒速度的目的。不過,即便採用收縮因子,試驗表明如果同時加以速度限制能夠獲得更好的結果,因此速度限制一直被保留下來。一般而言,Vmax被設置為每個變數的動態范圍的值,一般為固定值,但也可以隨時間線性遞減或者根據搜索的成功歷史來動態減小。
微粒的位置可以受最大位置Xmax的限制,避免微粒飛出有物理意義的解空間之外。Zhang提出一種周期性模式的邊界處理方法。Robinson提出了三種控制技術,分別為吸引牆、反射牆和不可見牆。一旦微粒的某一維碰到解空間的邊界,則吸引牆方法將速度設為零,反射牆方法改變速度方向,由此這兩種方法最終都可以將微粒拉回到允許的解空間范圍內。而不可見牆方法對飛出邊界的微粒不計算適應值,以節約計算時間並避免影響其它微粒的運動。但是,這三種邊界條件下PSO演算法的性能受問題的維度以及全局最優點與搜索空間邊界的相對位置影響很大。為解決這一問題,Huang綜合吸收牆和反射牆的特點,在其基礎上提出一種混合的阻尼邊界,以獲得魯棒且一貫的性能。而Mikki將硬位置限制和吸引牆、反射牆技術結合起來,試驗表明能夠獲得更好的效果。
種群大小的選擇與問題相關,但是對問題並不十分敏感。20-50是比較常見的選擇。在某些情況下,可能會使用較大的種群來適應特殊需要。
種群的初始化也是一個很重要的問題。一般情況下初始種群都是隨機產生,但是也有多種智能化的種群初始化方法,如使用非線性單純形法(NSM),重心Voronoi劃分、正交設計、均勻設計等方法來確定PSO演算法的初始種群,以使得初始種群的分布盡可能均勻,幫助演算法更有效地探索搜索空間並找到更好的解。Robinson指出PSO演算法和GA演算法可以順序使用,將PSO演算法完成優化之後的種群作為GA演算法的初始種群,或者反之,將GA演算法完成優化之後的種群作為PSO演算法的初始種群,都能得到很好的結果。
此外,還有人通過靈敏度分析、回歸樹、計算統計學等方法來調節PSO演算法的參數,以提高演算法性能,求解實際問題。
『貳』 灰狼演算法中標准測試函數是指適應度函數嗎
這個是要你自己編寫的目標函數,如果是一個簡單函數,它的值就可以作為適應度。不同的工具箱對這個的操作可能還不一樣,需要具體分析
『叄』 什麼是粒子群演算法
粒子群演算法,也稱粒子群優化演算法(Partical Swarm Optimization),縮寫為 PSO, 是近年來發展起來的一種新的進化演算法((Evolu2tionary Algorithm - EA)。PSO 演算法屬於進化演算法的一種,和遺傳演算法相似,它也是從隨機解出發,通過迭代尋找最優解,它也是通過適應度來評價解的品質,但它比遺傳演算法規則更為簡單,它沒有遺傳演算法的「交叉」(Crossover) 和「變異」(Mutation) 操作,它通過追隨當前搜索到的最優值來尋找全局最優。這種演算法以其實現容易、精度高、收斂快等優點引起了學術界的重視,並且在解決實際問題中展示了其優越性。設想這樣一個場景:一群鳥在隨機搜索食物。在這個區域里只有一塊食物。所有的鳥都不知道食物在那裡。但是他們知道當前的位置離食物還有多遠。那麼找到食物的最優策略是什麼呢。最簡單有效的就是搜尋目前離食物最近的鳥的周圍區域。 PSO從這種模型中得到啟示並用於解決優化問題。PSO中,每個優化問題的解都是搜索空間中的一隻鳥。我們稱之為「粒子」。所有的粒子都有一個由被優化的函數決定的適應值(fitness value),每個粒子還有一個速度決定他們飛翔的方向和距離。然後粒子們就追隨當前的最優粒子在解空間中搜索。 PSO 初始化為一群隨機粒子(隨機解)。然後通過迭代找到最優解。在每一次迭代中,粒子通過跟蹤兩個"極值"來更新自己。第一個就是粒子本身所找到的最優解,這個解叫做個體極值pBest。另一個極值是整個種群目前找到的最優解,這個極值是全局極值gBest。另外也可以不用整個種群而只是用其中一部分作為粒子的鄰居,那麼在所有鄰居中的極值就是局部極值。 粒子公式 在找到這兩個最優值時,粒子根據如下的公式來更新自己的速度和新的位置: v[] = w * v[] + c1 * rand() * (pbest[] - present[]) + c2 * rand() * (gbest[] - present[]) (a) present[] = persent[] + v[] (b) v[] 是粒子的速度, w是慣性權重,persent[] 是當前粒子的位置. pbest[] and gbest[] 如前定義 rand () 是介於(0, 1)之間的隨機數. c1, c2 是學習因子. 通常 c1 = c2 = 2. 程序的偽代碼如下 For each particle ____Initialize particle END Do ____For each particle ________Calculate fitness value ________If the fitness value is better than the best fitness value (pBest) in history ____________set current value as the new pBest ____End ____Choose the particle with the best fitness value of all the particles as the gBest ____For each particle ________Calculate particle velocity according equation (a) ________Update particle position according equation (b) ____End While maximum iterations or minimum error criteria is not attained 在每一維粒子的速度都會被限制在一個最大速度Vmax,如果某一維更新後的速度超過用戶設定的Vmax,那麼這一維的速度就被限定為Vmax
『肆』 LKH(Lin-Kernighan heuristic )一種求TSP的鄰域搜索策略
PART I 引入
題主應該指的是1973年的針對TSP的LKH演算法。LKH演算法類似於k-opt方法,常見的2-opt作為一種local search的思想題主應該是知道的,(2-opt的基本變換2-interchange如下圖)。
那麼k-opt的過程,也可以element by element,也就可以通過不計順序的δ-path之間的uv-switch來實現,每個合適的k-opt裡面的exchange都是總和為正的增益值,那麼其每一個合適的exchange的一部分都可以被uv-switch達到,所以可以令每次的G*都大於0,作為stoppingcriteria,從邏輯上來說是合理的,符合作者的element by element,在啟發式所謂的exploitation上也有好的表現力。END
P.S element by element這種思想在其他的演算法也有體現,比如遺傳演算法的改進上也有比如單位點交叉防止收斂解震動。
其他演算法效能上的提升考慮,請依次閱讀文獻[2][1]及其他相關的資料。
綜上,LKH是可以認為基於k-opt成功的改進,無論是運行的速度上,還是搜索的精度上。它在解決TSP問題上,速度和精度上仍舊有較好的表現。
水平有限,隨緣回答,若有錯誤,請指出評論,謝謝!
參考文獻:
理解演算法框架內容,文獻[1]是較好的參考資料,理解演算法細節、討論,可以參考文獻[2],其指出了backtracking的要求(從數值實驗/作者思考的philosophy上指出:應該從最多幾層開始backtracking,每層y_1, y_2contenders的數量如何,如何進一步refinements,每一次δ-path 變換中y_i怎麼高效選取等問題)
[1] Cook W.J., Cunningham W.H., Pulleyblank W.R., Schrijver A.Combinatorial Optimization
[2] S. Lin, B. W. Kernighan,An effective heuristic algorithm for the traveling salesman problem
『伍』 慣性權重是什麼意思
慣性權重一般用在粒子群演算法中,不是神經網路。慣性權重是由shi和eberhart指出:《,1998》。當vmax很小時(對schaffer的f6函數,vmax=3),使用權重w=0.8較好.如果沒有vmax的信息,使用0.8作為權重也是一種很好的選擇.
『陸』 灰狼演算法和遺傳演算法哪個好
灰狼演算法好。
灰狼優化演算法由Mirjalili等人於2014年提出,主要模仿了自然界中灰狼群體的捕食過程。類似於猩猩、獅子種群內部存在嚴格的等級制度,灰狼群體內部主要分為4個等級:
α:狼群中的領導者,帶領整個狼群進行捕獵活動;
β:負責協助α 並管理δ、ω,即狼群二當家;
δ:只能管理ω,千年老三;
ω:狼群中的老弱病殘,只能跟著α、β、δ 混。
b有了這個概念以後,就可以很輕松的與演算法結合了。基於最優個體引導機制,在等級制度的基礎上,可以很形象的把α、β、δ 分別看作距離目標點最近、次進、次次進的個體,其餘個體命名為ω,從而使ω 的位置更新受α、β、δ 引導,完成捕食過程。但要注意的是,若相對低級個體的位置優於相對高級個體,則兩者地位互換,實現農奴翻身把歌唱。
『柒』 pso的演算法結構
對微粒群演算法結構的改進方案有很多種,對其可分類為:採用多個子種群;改進微粒學習對象的選取策略;修改微粒更新迭代公式;修改速度更新策略;修改速度限制方法、位置限制方法和動態確定搜索空間;與其他搜索技術相結合;以及針對多模問題所作的改進。
第一類方案是採用多個子種群。柯晶考慮優化問題對收斂速度和尋優精度的雙重要求並借鑒多群體進化演算法的思想,將尋優微粒分成兩組,一組微粒採用壓縮因子的局部模式PSO演算法,另一組微粒採用慣性權重的全局模式PSO演算法,兩組微粒之間採用環形拓撲結構。對於高維優化問題,PSO演算法需要的微粒個數很多,導致計算復雜度常常很高,並且很難得到好的解。因此,出現了一種協作微粒群演算法(Cooperative ParticleSwarm Optimizer, CPSO-H),將輸入向量拆分成多個子向量,並對每個子向量使用一個微粒群來進行優化。雖然CPSO-H演算法使用一維群體來分別搜索每一維,但是這些搜索結果被一個全局群體集成起來之後,在多模問題上的性能與原始PSO演算法相比有很大的改進。Chow使用多個互相交互的子群,並引入相鄰群參考速度。馮奇峰提出將搜索區域分區,使用多個子群並通過微粒間的距離來保持多樣性。陳國初將微粒分成飛行方向不同的兩個分群,其中一分群朝最優微粒飛行,另一分群微粒朝相反方向飛行;飛行時,每一微粒不僅受到微粒本身飛行經驗和本分群最優微粒的影響,還受到全群最優微粒的影響。Niu在PSO演算法中引入主—從子群模式,提出一種多種群協作PSO演算法。Seo提出一種多組PSO演算法(Multigrouped PSO),使用N組微粒來同時搜索多模問題的N個峰。Selleri使用多個獨立的子群,在微粒速度的更新方程中添加了一些新項,分別使得微粒向子群歷史最優位置運動,或者遠離其他子群的重心。王俊年借鑒遞階編碼的思想,構造出一種多種群協同進化PSO演算法。高鷹借鑒生態學中環境和種群競爭的關系,提出一種基於種群密度的多種群PSO演算法。
第二類方案是改進微粒學習對象的選取策略。Al-kazemi提出多階段PSO演算法,將微粒按不同階段的臨時搜索目標分組,這些臨時目標允許微粒向著或背著它自己或全局最好位置移動。Ting對每個微粒的pBest進行操作,每一維從其他隨機確定的維度學習,之後如果新的pBest更好則替換原pBest;該文還比較了多種不同學習方式對應的PSO演算法的性能。Liang提出一種新穎的學習策略CLPSO,利用所有其他微粒的歷史最優信息來更新微粒的速度;每個微粒可以向不同的微粒學習,並且微粒的每一維可以向不同的微粒學習。該策略能夠保持群體的多樣性,防止早熟收斂,可以提高PSO演算法在多模問題上的性能;通過實驗將該演算法與其它幾種PSO演算法的變種進行比較,實驗結果表明該演算法在解決多模復雜問題時效果很好。Zhao在PSO演算法中使用適應值最好的n個值來代替速度更新公式中的gBest。Abdelbar提出一種模糊度量,從而使得每個鄰域中有多個適應值最好的微粒可以影響其它微粒。Wang也採用多個適應值最好的微粒信息來更新微粒速度,並提出一種模糊規則來自適應地確定參數。崔志華提出一種動態調整的改進PSO演算法,在運行過程中動態調整極限位置,使得每個微粒的極限位置在其所經歷的最好位置與整體最好位置所形成的動態圓中分布。與原始PSO演算法相反,有一類方法是遠離最差位置而非飛向最優位置。Yang提出在演算法中記錄最差位置而非最優位置,所有微粒都遠離這些最差位置。與此類似,Leontitsis在微粒群演算法中引入排斥子的概念,在使用個體最優位置和群體最優位置信息的同時,在演算法中記錄當前的個體最差位置和群體最差位置,並利用它們將微粒排斥到最優位置,從而讓微粒群更快地到達最優位置。孟建良提出一種改進的PSO演算法,在進化的初期,微粒以較大的概率向種群中其他微粒的個體最優學習;在進化後期,微粒以較大的概率向當前全局最優個體學習。Yang在PSO演算法中引入輪盤選擇技術來確定gBest,使得所有個體在進化早期都有機會引領搜索方向,從而避免早熟。
第三類方案是修改微粒更新公式。Hendtlass在速度更新方程中給每個微粒添加了記憶能力。He在速度更新方程中引入被動聚集機制。曾建潮通過對PSO演算法的速度進化迭代方程進行修正,提出一種保證全局收斂的隨機PSO演算法。Zeng在PSO演算法中引入加速度項,使得PSO演算法從一個二階隨機系統變為一個三階隨機系統,並使用PID控制器來控制演算法的演化。為了改進PSO演算法的全局搜索能力,Ho提出一種新的微粒速度和位置更新公式,並引入壽命(Age)變數。
第四類方案是修改速度更新策略。Liu認為過於頻繁的速度更新會弱化微粒的局部開采能力並減慢收斂,因此提出一種鬆弛速度更新(RVU)策略,僅當微粒使用原速度不能進一步提高適應值時才更新速度,並通過試驗證明該策略可以大大減小計算量並加速收斂。羅建宏對同步模式和非同步模式的PSO演算法進行了對比研究,試驗結果表明非同步模式收斂速度顯著提高,同時尋優效果更好。Yang在微粒的更新規則中引入感情心理模型。Liu採用一個最小速度閾值來控制微粒的速度,並使用一個模糊邏輯控制器來自適應地調節該最小速度閾值。張利彪提出了對PSO演算法增加更新概率,對一定比例的微粒並不按照原更新公式更新,而是再次隨機初始化。Dioan利用遺傳演算法(GA)來演化PSO演算法的結構,即微粒群中各微粒更新的順序和頻率。
第五類方案是修改速度限制方法、位置限制方法和動態確定搜索空間。Stacey提出一種重新隨機化速度的速度限制和一種重新隨機化位置的位置限制。Liu在[76]的基礎上,在PSO演算法中引入動量因子,來將微粒位置限制在可行范圍內。陳炳瑞提出一種根據微粒群的最佳適應值動態壓縮微粒群的搜索空間與微粒群飛行速度范圍的改進PSO演算法。
第六類方案是通過將PSO演算法與一些其他的搜索技術進行結合來提高PSO演算法的性能,主要目的有二,其一是提高種群多樣性,避免早熟;其二是提高演算法局部搜索能力。這些混合演算法包括將各種遺傳運算元如選擇、交叉、變異引入PSO演算法,來增加種群的多樣性並提高逃離局部最小的能力。Krink通過解決微粒間的沖突和聚集來增強種群多樣性,提出一種空間擴展PSO演算法(Spatial ExtensionPSO,SEPSO);但是SEPSO演算法的參數比較難以調節,為此Monson提出一種自適應調節參數的方法。用以提高種群多樣性的其他方法或模型還包括「吸引—排斥」、捕食—被捕食模型、耗散模型、自組織模型、生命周期模型(LifeCycle model)、貝葉斯優化模型、避免沖突機制、擁擠迴避(Crowd Avoidance)、層次化公平競爭(HFC)、外部記憶、梯度下降技術、線性搜索、單純形法運算元、爬山法、勞動分工、主成分分析技術、卡爾曼濾波、遺傳演算法、隨機搜索演算法、模擬退火、禁忌搜索、蟻群演算法(ACO)、人工免疫演算法、混沌演算法、微分演化、遺傳規劃等。還有人將PSO演算法在量子空間進行了擴展。Zhao將多主體系統(MAS)與PSO演算法集成起來,提出MAPSO演算法。Medasani借鑒概率C均值和概率論中的思想對PSO演算法進行擴展,提出一種概率PSO演算法,讓演算法分勘探和開發兩個階段運行。
第七類方案專門針對多模問題,希望能夠找到多個較優解。為了能使PSO演算法一次獲得待優化問題的多個較優解,Parsopoulos使用了偏轉(Deflection)、拉伸(Stretching)和排斥(Repulsion)等技術,通過防止微粒運動到之前已經發現的最小區域,來找到盡可能多的最小點。但是這種方法會在檢測到的局部最優點兩端產生一些新的局部最優點,可能會導致優化演算法陷入這些局部最小點。為此,Jin提出一種新的函數變換形式,可以避免該缺點。基於類似思想,熊勇提出一種旋轉曲面變換方法。
保持種群多樣性最簡單的方法,是在多樣性過小的時候,重置某些微粒或整個微粒群。Lvbjerg在PSO演算法中採用自組織臨界性作為一種度量,來描述微粒群中微粒相互之間的接近程度,來確定是否需要重新初始化微粒的位置。Clerc提出了一種「Re-Hope」方法,當搜索空間變得相當小但是仍未找到解時(No-Hope),重置微粒群。Fu提出一種帶C-Pg變異的PSO演算法,微粒按照一定概率飛向擾動點而非Pg。赫然提出了一種自適應逃逸微粒群演算法,限制微粒在搜索空間內的飛行速度並給出速度的自適應策略。
另一種變種是小生境PSO演算法,同時使用多個子種群來定位和跟蹤多個最優解。Brits還研究了一種通過調整適應值計算方式的方法來同時找到多個最優解。Li在PSO演算法中引入適應值共享技術來求解多模問題。Zhang在PSO演算法中採用順序生境(SequentialNiching)技術。在小生境PSO演算法的基礎上,還可以使用向量點積運算來確定各個小生境中的候選解及其邊界,並使該過程並行化,以獲得更好的結果。但是,各種小生境PSO演算法存在一個共同的問題,即需要確定一個小生境半徑,且演算法性能對該參數很敏感。為解決該問題,Bird提出一種自適應確定niching參數的方法。
Hendtlass在PSO演算法中引入短程力的概念,並基於此提出一種WoSP演算法,可以同時確定多個最優點。劉宇提出一種多模態PSO演算法,用聚類演算法對微粒進行聚類,動態地將種群劃分成幾個類,並且使用微粒所屬類的最優微粒而非整個種群的最好微粒來更新微粒的速度,從而可以同時得到多個近似最優解。Li在PSO演算法中引入物種的概念,但是由於其使用的物種間距是固定的,該方法只適用於均勻分布的多模問題;為此,Yuan對該演算法進行擴展,採用多尺度搜索方法對物種間距加以自適應的調整。
此外,也有研究者將PSO演算法的思想引入其他演算法中,如將PSO演算法中微粒的運動規則嵌入到進化規劃中,用PSO演算法中的運動規則來替代演化演算法中交叉運算元的功能。
『捌』 神經網路,Shi和Eberhart在哪篇文章中引入了慣性權重,求各位大神幫幫忙啊
慣性權重一般用在粒子群演算法中,不是神經網路。慣性權重是由 Shi 和Eberhart指出:《A modified particle swarm optimizer,1998》。
當Vmax很小時(對schaffer的f6函數,Vmax<=2),使用接近於1的慣性權重;當Vmax不是很小時(對schaffer的f6函數,Vmax>=3),使用權重w=0.8較好.如果沒有Vmax的信息,使用0.8作為權重也是一種很好的選擇.慣性權重w很小時偏重於發揮粒子群演算法的局部搜索能力;慣性權重很大時將會偏重於發揮粒子群演算法的全局搜索能力。
如果只是要引用參考文獻的話,不需要去引用這個原文獻,只需要引用一個使用了慣性權重的文獻即可,效果是一樣的。如果人人都引用原文獻,那原文獻的被引頻次還不爆炸般得高。
『玖』 有什麼優化演算法可以求解幾十個變數
%基本粒子群優化演算法(Particle Swarm Optimization)-----------
%名稱:基本粒子群優化演算法(PSO)
%作用:求解優化問題
%說明:是2維變數的求解,程序中做了少量修改,可以准確迭代出結果
%作者:周楠
%時間:2009-12-18-2:00
clear all;
clc;
%橫坐標長度百分比
x_rate=0.02;
%縱坐標長度百分比
y_rate=0.1;
%字體顯示位置橫坐標長度百分比
x1_show=0.5;
x2_show=0.5;
%字體顯示位置縱坐標長度百分比
y1_show=0.2;
y2_show=0.9;
%x1的范圍[a1 b1];
a1=-3.0;
b1=12.1;
%x2的范圍[a2 b2];
%X2[a2,b2]
a2=4.1;
b2=5.8;
c1=2; %學習因子1
c2=2; %學習因子2
%慣性權重