導航:首頁 > 源碼編譯 > 人工智慧演算法的學習速率

人工智慧演算法的學習速率

發布時間:2022-04-27 01:01:16

1. BP演算法及其改進

傳統的BP演算法及其改進演算法的一個很大缺點是:由於其誤差目標函數對於待學習的連接權值來說非凸的,存在局部最小點,對網路進行訓練時,這些演算法的權值一旦落入權值空間的局部最小點就很難跳出,因而無法達到全局最小點(即最優點)而使得網路訓練失敗。針對這些缺陷,根據凸函數及其共軛的性質,利用Fenchel不等式,使用約束優化理論中的罰函數方法構造出了帶有懲罰項的新誤差目標函數。

用新的目標函數對前饋神經網路進行優化訓練時,隱層輸出也作為被優化變數。這個目標函數的主要特點有:
1.固定隱層輸出,該目標函數對連接權值來說是凸的;固定連接權值,對隱層輸出來說是凸的。這樣在對連接權值和隱層輸出進行交替優化時,它們所面對的目標函數都是凸函數,不存在局部最小的問題,演算法對於初始權值的敏感性降低;
2.由於懲罰因子是逐漸增大的,使得權值的搜索空間變得比較大,從而對於大規模的網路也能夠訓練,在一定程度上降低了訓練過程陷入局部最小的可能性。

這些特性能夠在很大程度上有效地克服以往前饋網路的訓練演算法易於陷入局部最小而使網路訓練失敗的重大缺陷,也為利用凸優化理論研究前饋神經網路的學習演算法開創了一個新思路。在網路訓練時,可以對連接權值和隱層輸出進行交替優化。把這種新演算法應用到前饋神經網路訓練學習中,在學習速度、泛化能力、網路訓練成功率等多方面均優於傳統訓練演算法,如經典的BP演算法。數值試驗也表明了這一新演算法的有效性。

本文通過典型的BP演算法與新演算法的比較,得到了二者之間相互關系的初步結論。從理論上證明了當懲罰因子趨於正無窮大時新演算法就是BP演算法,並且用數值試驗說明了懲罰因子在網路訓練演算法中的作用和意義。對於三層前饋神經網路來說,懲罰因子較小時,隱層神經元局部梯度的可變范圍大,有利於連接權值的更新;懲罰因子較大時,隱層神經元局部梯度的可變范圍小,不利於連接權值的更新,但能提高網路訓練精度。這說明了在網路訓練過程中懲罰因子為何從小到大變化的原因,也說明了新演算法的可行性而BP演算法則時有無法更新連接權值的重大缺陷。

礦體預測在礦床地質中佔有重要地位,由於輸入樣本量大,用以往前饋網路演算法進行礦體預測效果不佳。本文把前饋網路新演算法應用到礦體預測中,取得了良好的預期效果。

本文最後指出了新演算法的優點,並指出了有待改進的地方。

關鍵詞:前饋神經網路,凸優化理論,訓練演算法,礦體預測,應用

Feed forward Neural Networks Training Algorithm Based on Convex Optimization and Its Application in Deposit Forcasting
JIA Wen-chen (Computer Application)
Directed by YE Shi-wei

Abstract

The paper studies primarily the application of convex optimization theory and algorithm for feed forward neural networks』 training and convergence performance.

It reviews the history of feed forward neural networks, points out that the training of feed forward neural networks is essentially a non-linear problem and introces BP algorithm, its advantages as well as disadvantages and previous improvements for it. One of the big disadvantages of BP algorithm and its improvement algorithms is: because its error target function is non-convex in the weight values between neurons in different layers and exists local minimum point, thus, if the weight values enter local minimum point in weight values space when network is trained, it is difficult to skip local minimum point and reach the global minimum point (i.e. the most optimal point).If this happening, the training of networks will be unsuccessful. To overcome these essential disadvantages, the paper constructs a new error target function including restriction item according to convex function, Fenchel inequality in the conjugate of convex function and punishment function method in restriction optimization theory.
When feed forward neural networks based on the new target function is being trained, hidden layers』 outputs are seen as optimization variables. The main characteristics of the new target function are as follows:

1.With fixed hidden layers』 outputs, the new target function is convex in connecting weight variables; with fixed connecting weight values, the new target function is convex in hidden layers』 outputs. Thus, when connecting weight values and hidden layers』 outputs are optimized alternately, the new target function is convex in them, doesn』t exist local minimum point, and the algorithm』s sensitiveness is reced for original weight values .
2.Because the punishment factor is increased graally, weight values 』 searching space gets much bigger, so big networks can be trained and the possibility of entering local minimum point can be reced to a certain extent in network training process.

Using these characteristics can overcome efficiently in the former feed forward neural networks』 training algorithms the big disadvantage that networks training enters local minimum point easily. This creats a new idea for feed forward neural networks』 learning algorithms by using convex optimization theory .In networks training, connecting weight variables and hidden layer outputs can be optimized alternately. The new algorithm is much better than traditional algorithms for feed forward neural networks. The numerical experiments show that the new algorithm is successful.

By comparing the new algorithm with the traditional ones, a primary conclusion of their relationship is reached. It is proved theoretically that when the punishment factor nears infinity, the new algorithm is BP algorithm yet. The meaning and function of the punishment factor are also explained by numerical experiments. For three-layer feed forward neural networks, when the punishment factor is smaller, hidden layer outputs』 variable range is bigger and this is in favor to updating of the connecting weights values, when the punishment factor is bigger, hidden layer outputs』 variable range is smaller and this is not in favor to updating of the connecting weights values but it can improve precision of networks. This explains the reason that the punishment factor should be increased graally in networks training process. It also explains feasibility of the new algorithm and BP algorithm』s disadvantage that connecting weigh values can not be updated sometimes.

Deposit forecasting is very important in deposit geology. The previous algorithms』 effect is not good in deposit forecasting because of much more input samples. The paper applies the new algorithm to deposit forecasting and expectant result is reached.
The paper points out the new algorithm』s strongpoint as well as to-be-improved places in the end.

Keywords: feed forward neural networks, convex optimization theory, training algorithm, deposit forecasting, application

傳統的BP演算法及其改進演算法的一個很大缺點是:由於其誤差目標函數對於待學習的連接權值來說非凸的,存在局部最小點,對網路進行訓練時,這些演算法的權值一旦落入權值空間的局部最小點就很難跳出,因而無法達到全局最小點(即最優點)而使得網路訓練失敗。針對這些缺陷,根據凸函數及其共軛的性質,利用Fenchel不等式,使用約束優化理論中的罰函數方法構造出了帶有懲罰項的新誤差目標函數。

用新的目標函數對前饋神經網路進行優化訓練時,隱層輸出也作為被優化變數。這個目標函數的主要特點有:
1.固定隱層輸出,該目標函數對連接權值來說是凸的;固定連接權值,對隱層輸出來說是凸的。這樣在對連接權值和隱層輸出進行交替優化時,它們所面對的目標函數都是凸函數,不存在局部最小的問題,演算法對於初始權值的敏感性降低;
2.由於懲罰因子是逐漸增大的,使得權值的搜索空間變得比較大,從而對於大規模的網路也能夠訓練,在一定程度上降低了訓練過程陷入局部最小的可能性。

這些特性能夠在很大程度上有效地克服以往前饋網路的訓練演算法易於陷入局部最小而使網路訓練失敗的重大缺陷,也為利用凸優化理論研究前饋神經網路的學習演算法開創了一個新思路。在網路訓練時,可以對連接權值和隱層輸出進行交替優化。把這種新演算法應用到前饋神經網路訓練學習中,在學習速度、泛化能力、網路訓練成功率等多方面均優於傳統訓練演算法,如經典的BP演算法。數值試驗也表明了這一新演算法的有效性。

本文通過典型的BP演算法與新演算法的比較,得到了二者之間相互關系的初步結論。從理論上證明了當懲罰因子趨於正無窮大時新演算法就是BP演算法,並且用數值試驗說明了懲罰因子在網路訓練演算法中的作用和意義。對於三層前饋神經網路來說,懲罰因子較小時,隱層神經元局部梯度的可變范圍大,有利於連接權值的更新;懲罰因子較大時,隱層神經元局部梯度的可變范圍小,不利於連接權值的更新,但能提高網路訓練精度。這說明了在網路訓練過程中懲罰因子為何從小到大變化的原因,也說明了新演算法的可行性而BP演算法則時有無法更新連接權值的重大缺陷。

礦體預測在礦床地質中佔有重要地位,由於輸入樣本量大,用以往前饋網路演算法進行礦體預測效果不佳。本文把前饋網路新演算法應用到礦體預測中,取得了良好的預期效果。

本文最後指出了新演算法的優點,並指出了有待改進的地方。

關鍵詞:前饋神經網路,凸優化理論,訓練演算法,礦體預測,應用

Feed forward Neural Networks Training Algorithm Based on Convex Optimization and Its Application in Deposit Forcasting
JIA Wen-chen (Computer Application)
Directed by YE Shi-wei

Abstract

The paper studies primarily the application of convex optimization theory and algorithm for feed forward neural networks』 training and convergence performance.

It reviews the history of feed forward neural networks, points out that the training of feed forward neural networks is essentially a non-linear problem and introces BP algorithm, its advantages as well as disadvantages and previous improvements for it. One of the big disadvantages of BP algorithm and its improvement algorithms is: because its error target function is non-convex in the weight values between neurons in different layers and exists local minimum point, thus, if the weight values enter local minimum point in weight values space when network is trained, it is difficult to skip local minimum point and reach the global minimum point (i.e. the most optimal point).If this happening, the training of networks will be unsuccessful. To overcome these essential disadvantages, the paper constructs a new error target function including restriction item according to convex function, Fenchel inequality in the conjugate of convex function and punishment function method in restriction optimization theory.
When feed forward neural networks based on the new target function is being trained, hidden layers』 outputs are seen as optimization variables. The main characteristics of the new target function are as follows:

1.With fixed hidden layers』 outputs, the new target function is convex in connecting weight variables; with fixed connecting weight values, the new target function is convex in hidden layers』 outputs. Thus, when connecting weight values and hidden layers』 outputs are optimized alternately, the new target function is convex in them, doesn』t exist local minimum point, and the algorithm』s sensitiveness is reced for original weight values .
2.Because the punishment factor is increased graally, weight values 』 searching space gets much bigger, so big networks can be trained and the possibility of entering local minimum point can be reced to a certain extent in network training process.

Using these characteristics can overcome efficiently in the former feed forward neural networks』 training algorithms the big disadvantage that networks training enters local minimum point easily. This creats a new idea for feed forward neural networks』 learning algorithms by using convex optimization theory .In networks training, connecting weight variables and hidden layer outputs can be optimized alternately. The new algorithm is much better than traditional algorithms for feed forward neural networks. The numerical experiments show that the new algorithm is successful.

By comparing the new algorithm with the traditional ones, a primary conclusion of their relationship is reached. It is proved theoretically that when the punishment factor nears infinity, the new algorithm is BP algorithm yet. The meaning and function of the punishment factor are also explained by numerical experiments. For three-layer feed forward neural networks, when the punishment factor is smaller, hidden layer outputs』 variable range is bigger and this is in favor to updating of the connecting weights values, when the punishment factor is bigger, hidden layer outputs』 variable range is smaller and this is not in favor to updating of the connecting weights values but it can improve precision of networks. This explains the reason that the punishment factor should be increased graally in networks training process. It also explains feasibility of the new algorithm and BP algorithm』s disadvantage that connecting weigh values can not be updated sometimes.

Deposit forecasting is very important in deposit geology. The previous algorithms』 effect is not good in deposit forecasting because of much more input samples. The paper applies the new algorithm to deposit forecasting and expectant result is reached.
The paper points out the new algorithm』s strongpoint as well as to-be-improved places in the end.

Keywords: feed forward neural networks, convex optimization theory, training algorithm, deposit forecasting, application

BP演算法及其改進

2.1 BP演算法步驟

1°隨機抽取初始權值ω0;

2°輸入學習樣本對(Xp,Yp),學習速率η,誤差水平ε;

3°依次計算各層結點輸出opi,opj,opk;

4°修正權值ωk+1=ωk+ηpk,其中pk=,ωk為第k次迭代權變數;

5°若誤差E<ε停止,否則轉3°。

2.2 最優步長ηk的確定

在上面的演算法中,學習速率η實質上是一個沿負梯度方向的步長因子,在每一次迭代中如何確定一個最優步長ηk,使其誤差值下降最快,則是典型的一維搜索問題,即E(ωk+ηkpk)=(ωk+ηpk)。令Φ(η)=E(ωk+ηpk),則Φ′(η)=dE(ωk+ηpk)/dη=E(ωk+ηpk)Tpk。若ηk為(η)的極小值點,則Φ′(ηk)=0,即E(ωk+ηpk)Tpk=-pTk+1pk=0。確定ηk的演算法步驟如下

1°給定η0=0,h=0.01,ε0=0.00001;

2°計算Φ′(η0),若Φ′(η0)=0,則令ηk=η0,停止計算;

3°令h=2h, η1=η0+h;

4°計算Φ′(η1),若Φ′(η1)=0,則令ηk=η1,停止計算;

若Φ′(η1)>0,則令a=η0,b=η1;若Φ′(η1)<0,則令η0=η1,轉3°;

5°計算Φ′(a),若Φ′(a)=0,則ηk=a,停止計算;

6°計算Φ′(b),若Φ′(b)=0,則ηk=b,停止計算;

7°計算Φ′(a+b/2),若Φ′(a+b/2)=0,則ηk=a+b/2,停止計算;

若Φ′(a+b/2)<0,則令a=a+b/2;若Φ′(a+b/2)>0,則令b=a+b/2

8°若|a-b|<ε0,則令,ηk=a+b/2,停止計算,否則轉7°。

2.3 改進BP演算法的特點分析

在上述改進的BP演算法中,對學習速率η的選取不再由用戶自己確定,而是在每次迭代過程中讓計算機自動尋找最優步長ηk。而確定ηk的演算法中,首先給定η0=0,由定義Φ(η)=E(ωk+ηpk)知,Φ′(η)=dE(ωk+ηpk)/dη=E(ωk+ηpk)Tpk,即Φ′(η0)=-pTkpk≤0。若Φ′(η0)=0,則表明此時下降方向pk為零向量,也即已達到局部極值點,否則必有Φ′(η0)<0,而對於一維函數Φ(η)的性質可知,Φ′(η0)<0則在η0=0的局部范圍內函數為減函數。故在每一次迭代過程中給η0賦初值0是合理的。

改進後的BP演算法與原BP演算法相比有兩處變化,即步驟2°中不需給定學習速率η的值;另外在每一次修正權值之前,即步驟4°前已計算出最優步長ηk。

2. 人工智慧演算法

編程與推理沒有關系,編程的智能建立在「是非」之上,以中斷判斷為基礎。推箱子有很多種判斷,比如2*2*2……結果會特別多,而編程只是控制其中某一步,這樣每一步都有2種情況,相乘後,軟體就會有很多種通過方法,太多了。比如棋類軟體,我們只要控制某些局部,這些局部組成了「人工智慧」,而局部本身是「非智能」的,這么說明白?
即使是人腦的智能,本質上還是電信號的中斷處理,處理的速度「即人的聰明」,與人腦中資料庫的優化與數據量有關,也就是人腦的智能,其實是機械電子搜索匹配過程……

3. 人工智慧需要多快的運算速度

沒有概念...
人腦比計算機運算速度快多了, 人腦要同時兼顧多少外部信息的處理呀, 如果把這些信息全都輸入電腦的話, 目前的電腦都運算不了.

4. 人工智慧是什麼 人工智慧演算法是什麼

人工智慧和人工智慧演算法的官方定義相信你已經看過了。
就我個人理解。人工智慧,是人類賦予了本身不具備思考學習能力的機器/演算法一些學習和思考的能力。人工智慧演算法沒有統一定義,其實就是神經網路演算法和機器學習演算法的統稱。同時,注意人工智慧演算法和智能演算法大不一樣,智能演算法主要是指一系列的啟發式演算法。
希望對你有幫助

5. 神經網路和遺傳演算法有什麼關系

遺傳演算法是一種智能優化演算法,神經網路是人工智慧演算法的一種。
可以將遺傳演算法用於神經網路的參數優化中。

6. 人工智慧老師可以讓學生的學習效率提升十倍嗎

6月15日,乂學教育首席科學家崔煒在「2018全球智能+新商業峰會」之「智能+教育峰會」時表示,每個孩子身邊都可以擁有一個懂他的超級AI老師,好老師有了人工智慧的加持,可以對學生學習的薄弱環節進行精準診斷,從而讓學生的學習效率提升10倍。

成立於2014年的乂學教育,是國內第一家將人工智慧自適應學習技術應用在K12教育領域的人工智慧公司。乂學成功開發了國內第一個擁有完整自主知識產權、以高級演算法為核心的人工智慧自適應學習引擎松鼠AI。乂學教育集團松鼠AI品牌創始人栗浩洋是中國自動化學會智慧教育專委會副主任,中國自動化學會的第一屆理事長是錢學森院士,栗浩洋的目標是推動人工智慧在教育行業的深度應用,用創新性的人工智慧教學去改變中國孩子的命運。

7. 人工智慧培訓一般要多久,人工智慧要學習哪些內容

目前國家相繼出台了一些扶持人工智慧發展的政策,人工智慧正處於發展的紅利期,所以越早學習就越有就業優勢。人工智慧火起來就是這一兩年的事兒,因此不管是上市企業,還是一些中小型企業,對於人工智慧人才的需求量都非常大。所以,很多人也都想加入到這個行業中來。人工智慧培訓機構學什麼內容?
階段一是Python語言(用時5周,包括基礎語法、面向對象、高級課程、經典課程);階段二是Linux初級(用時1周,包括Linux系統基本指令、常用服務安裝);
階段三是Web開發之Diango(5周+2周前端+3周diango);階段四是Web開發之Flask(用時2周);階段五是Web框架之Tornado(用時1周);階段六是docker容器及服務發現(用時2周);階段七是爬蟲(用時2周);階段八是數據挖掘和人工智慧(用時3周)。
在人工智慧研究的過程中,機器學習是行業研究的核心,也是人工智慧目標實現的根本途徑,是當前人工智慧發展的主要瓶頸。人工智慧已經發展了很長時間,它在未來的發展問題是該學科有關研究人員討論的重點。
從現階段的發展情況來說,未來人工智慧可能會更好地為人類服務、與人類平等等。人工智慧屬於全世界科研發展的前沿技術,發展過程中與信息技術、計算機技術、精密製造技術、互聯網技術密切相關,對各行業、各領域的發展都有一定的影響,在人工智慧發展過程中要認真、深刻地研究其未來的發展方向。

8. 人工智慧演算法是什麼

人工智慧演算法主要是機器學習的演算法
積極學習是一種通過數據來調優模型的方法論,模型的精度達到可以使用了,那麼他就能夠完成一些預判的任務,很多現實問題都可以轉化成一個一個的預判類型
人工智慧演算法,尤其是深度學習,需要大量的數據,演算法其實就是模型

9. 人工智慧演算法

推薦教程:Python教程

人工智慧英文簡稱AI。它是研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。



人工智慧演算法也被稱之為軟計算 ,它是人們受自然界規律的啟迪,根據其原理模擬求解問題的演算法。



目前的人工智慧演算法有人工神經網路遺傳演算法、模擬退火演算法、群集智能蟻群演算法和例子群算等等。



隨著人工智慧演算法的不斷優化,可以不僅可以幫助我們提高工作效率、改善我們的生活水平,同時也能為我們在龐大的現代信息資源中迅速的找到我們所需要的信息。

10. 人工智慧演算法有哪些

人工智慧演算法有:決策樹、隨機森林演算法、邏輯回歸、SVM、樸素貝葉斯、K最近鄰演算法、K均值演算法、Adaboost演算法、神經網路、馬爾可夫。

閱讀全文

與人工智慧演算法的學習速率相關的資料

熱點內容
發信如何設置伺服器 瀏覽:77
源代碼查詢加密數字 瀏覽:605
附帶編譯 瀏覽:108
海康螢石雲app怎麼回放 瀏覽:402
寫一個編譯器怎麼寫 瀏覽:283
單片機蜂鳴器發聲原理 瀏覽:137
程序員那麼可愛陸離跳水是哪集 瀏覽:15
如何製作cdn伺服器 瀏覽:109
寫java加密程序 瀏覽:657
菜鳥數據分析pdf 瀏覽:289
單片機做實用東西 瀏覽:651
我的世界最強斗羅伺服器怎麼覺醒武魂 瀏覽:931
密友圈app怎麼切換用戶登錄 瀏覽:217
我把程序員當愛豆追 瀏覽:978
android判斷電話接通 瀏覽:646
大孔文件夾 瀏覽:785
反詐騙app在哪裡下載 瀏覽:527
軍工程序員面試視頻 瀏覽:813
質心演算法原理 瀏覽:423
163smtpphp 瀏覽:669