999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于相對貢獻指標的自組織RBF神經網絡的設計

2018-03-15 07:46:26喬俊飛安茹韓紅桂
智能系統學報 2018年2期

喬俊飛,安茹,韓紅桂

徑向基函數(RBF)神經網絡由于其準確的局部感知特性和強大的非線性逼近能力,已被廣泛應用于時間序列預測、非線性系統在線建模與控制等領域[1]。神經網絡的研究和應用對于復雜工業過程建模提供了新的方法;與此同時,神經網絡的設計成為非線性動態過程建模的重點和難點。RBF神經網絡的性能嚴重依賴于網絡的結構和參數,包括隱含層節點的數量、中心和寬度、隱含層到輸出層的連接權值等參數[2]。事實上,如果網絡結構越大,系統動力學錯綜復雜,表現良好的性能,但是會增大計算量和計算時間,容易導致“過擬合”;反之,規模過小,內部動力學過于簡單,學習能力不足,不能高精度地逼近非線性映射,而且網絡的參數優化算法能夠保證網絡達到較好的性能,能夠較快收斂,因此,RBF網絡的結構和參數學習算法研究對于實際應用和理論研究具有重要的實際意義。

為使RBF神經網絡能夠根據實際被控過程自適應的動態調整,近年來不少學者進行研究。Platt[3]首先提出資源分配網絡算法(resource allocation network,RAN),根據實際對象能夠動態增加RBF網絡隱含層節點,但是該算法只增加隱節點不能刪減,對于處理復雜問題時網絡結構會出現冗余。在此基礎上,為解決這一問題,Lu等[4]提出一種最小資源分配算法(minimal resource allocation network,MRAN),該算法能夠在學習過程中增加和刪減神經元動態調整去適應被控過程,該方法受到廣泛應用,但是卻忽略了神經元結構調整之后的參數學習,導致網絡收斂速度較慢[5]。Huang[6]提出一種在線調整的RBF結構設計方法;隨后出現廣義增長修剪算法(generalized growing and pruning RBF,GGAP-RBF),根據隱含層神經元的重要性判斷是否增刪,但僅僅考慮對新增加或者刪減的神經元進行參數調整,有效提高算法的運算速度,但是網絡初始值的設定需要依據整體樣本數據,因而不適合在線學習。Gonzales[7]采用進化計算的思想,利用其良好的魯棒性和全局搜索能力對網絡的結構和參數進行調整學習,取得較好的效果。文獻[8-9]提出用粒子群(particle swarm optimization,PSO)算法自動調整每個RBF網絡的中心,寬度和權值,能夠獲得不錯的建模性能,但是該算法由于訓練過程中需要全局搜索,需要較長的訓練時間而且算法計算復雜,不利于實時在線建模。Lian[10]提出自組織RBF網絡(self-organizing RBF, SORBF),設計僅僅采用訓練誤差作為結構調整判斷條件,沒有考慮隱含層和輸出層之間的相關性以及網絡調整后參數設置問題,訓練時間較長。Yu等[11]提出基于誤差修正的思想,每次采用誤差最大的點對應的輸入數據作為新增加神經元的中心,采用改進的LM算法優化所有隱節點的參數,訓練時間快,能夠采用精簡的結構去逼近非線性函數,但是該自組織機制只能增加隱節點不能刪減,而且對于多輸入的輸入數據如何判斷中心不能很好地確定。要想使RBF網絡具有更好的非線性建模性能,完成結構設計之后,尋找快速的參數學習算法對網絡的性能也是至關重要的。常見的參數訓練算法有BP算法、高斯–牛頓算法和LM算法等。其中,最常用的是BP算法,但是該算法由于搜索空間限制容易陷入局部極小,收斂速度慢等。近年來,具有快速收斂速度和強有力搜索空間的二階LM算法被引入到訓練RBF網絡,取得了很好的效果,獲得了廣泛應用[12-13]。但是該算法由于雅可比矩陣的計算會增加計算量和存儲空間,影響算法的訓練速度,因此,本文采用一種改進的LM算法對參數進行訓練。

針對RBF網絡的結構和參數設計問題,首先,利用隱含層和輸出層之間的回歸關系,采用相對貢獻指標結合訓練誤差信息處理能力,最大程度地挖掘隱含層和輸出層之間的隱含信息,解決了RBF網絡結構動態調整的問題;同時,采用改進的LM算法,將整個雅可比矩陣的計算轉化為向量相乘的形式,避免整個雅可比矩陣的存儲,加速算法的訓練時間和收斂速度;最終保證RBF網絡能夠根據實際處理對象的動態過程快速準確地自適應調整結構和參數,達到滿意的非線性逼近能力和預測精度,驗證了算法的有效性。

1 RBF網絡

RBF網絡是一個包括輸入層、隱含層和輸出層的3層前饋神經網絡,其拓撲結構如圖1所示。

圖1 中網絡的輸入向量為

M為輸入向量的維數,隱含層激活函數采用高斯函數,隱含層第j個神經元的輸出表達式如式(1)所示。

式中:Φj(t)為隱含層[第j個神經元的輸]出;‖·‖為歐幾里得范數;H為徑向基函數的中心向量,H為隱含層神經元的個數,隱節點中心離輸入越近,輸出值越大;σj(t)為第j個基函數的擴展寬度,主要影響基函數的分布的密集程度[14]。輸出層神經元的輸出為

式中:wi1為第j個隱含層神經元與輸出層的連接權值向量,y1(t)為輸出層神經元的輸出。

2 自組織RBF網絡的設計

2.1 相對貢獻指標

網絡結構調整的設計思想是采用回歸的思想,分別對隱含層和輸出層矩陣進行成分提取為ti和vi,要求提取的成分對于原變量信息具有最大的解釋能力,而且具有最大的相關性,得到隱含層神經元和輸出層神經元的相對貢獻指標,用來表示此神經元對輸出神經元的貢獻程度;同時結合網絡的誤差信息處理能力,作為判斷結構是否調整的依據。

相對貢獻指標: RBF神經網絡隱節點j在樣本數為P個的相對貢獻指標定義為

式中:ti和vi是第i對成分的得分向量;αi和βi為成分的負荷量;Φi和yi為第i次迭代產生的殘差矩陣,不斷迭代直到得到r個成分, 并且r=rank(Φ0);Φ0是隱含層矩陣和輸出矩陣對P個樣本的標準化矩陣。另外要求提取的成分具有最大的相關性,通過拉格朗日法轉化為求權重向量?i和ui。進而求出相對貢獻指標。

2.2 結構調整機制

2.2.1 神經元增加機制

結合上述相對貢獻指標RC和網絡誤差信息處理能力作為神經元增加機制的判定條件,當算法迭代t次的誤差比t–n大時,代表此時網絡對于動態過程的信息處理能力不足,需要增加新的隱節點,分裂當前隱含層神經元和輸出神經元之間具有最大相對貢獻的隱含層神經元j,此神經元表示和輸出神經元之間具有最大的貢獻度,即滿足式(9):

式中:E(t)和 E(t–n)分別為迭代步數 t和 t–n 時的訓練誤差,n是樣本間隔,j是隱含層神經元和輸出神經元相對貢獻RC最大的神經元,H是在t時刻存在的隱含層神經元數量。對新增加的神經元參數設置為

式中:cj(t)、σj(t)分別代表第j個神經元分裂前的中心和寬度;cnew、σnew代表新增加神經元的中心和寬度;wnew為新增加神經元的輸出連接權值;ej(t)為t時刻神經網絡的誤差;Φnew(t)為新增加神經元的隱含層輸出值。

2.2.2 神經元刪減機制

如果當前第k個隱含層神經元和輸出層的RC小于設定的閾值ε,說明此神經元對輸出的相對貢獻較小,可以認為此神經元對輸出的貢獻很小甚至可以忽略,所以刪掉第k個神經元,則滿足:

式中:k是隱含層神經元和輸出神經元相對貢獻最小的神經元,ε為設定的刪減閾值。

2.3 改進的LM算法

采用改進的LM算法(improved LM algorithm,ILM)去優化RBF網絡的中心、寬度和權值。不同于之前算法的矩陣運算方式,文中采用一種將矩陣運算轉化為向量相乘的方式,不需要存儲整個雅可比矩陣,這樣避免整個雅可比矩陣的計算,適用于輸入數量比較多。其中,擬海森矩陣和梯度向量的計算通過子矩陣及其子向量疊加和的方式來得到的[15]。同時,在訓練過程中算法引入自適應學習率,這樣能夠加快網絡的收斂速度,提高算法的預測精度。具體更新規則如式(17)所示:

式中:Ω(t)為更新規則包含參數向量,Θ(t) 為梯度向量,?(t)為擬海森矩陣,I是為了避免擬海森矩陣奇異設置的單位矩陣,根據文獻[16],自適應學習率λ(t)被定義為

式中:α為正實數,α∈(0, 1)。參數向量Ω(t)包括更新網絡的所有參數:連接權值w,中心向量c,寬度向量σ。

擬海森矩陣?(t)和梯度向量Θ(t)的計算分別是對應的子矩陣與子向量的累加求和得到的,計算公式為

式中:P是樣本總數,子矩陣qp(t)與子向量φp(t)的計算公式分別為

第p個樣本的訓練誤差定義為

式中:P為樣本數,ep(t)為訓練誤差,yp(t)與op(t)是分別為第p個輸入樣本對應的網絡輸出與實際輸出,雅克比矩陣行向量jp(t)如式(25)所示:

根據文獻[17]式(25)中誤差對權值的導數,誤差對寬度的導數,誤差對中心的導數計算公式分別為

雅可比矩陣行向量jp(t)的計算由式(26)~(28)計算得到,對于所有輸入模式,擬海森矩陣和梯度向量分別由式(20)和(21)得到,然后應用更新規則(17)對3個參數同時進行更新。采用上述ILM算法去優化RBF網絡參數,加快算法的收斂速度并且提高網絡的預測準確度。

RC-RBF 網絡的設計算法的步驟如下:

1) 初始隨機給定一個RBF神經網絡,輸入節點與輸出節點個數根據具體實驗設置,隱節點個數隨機設定,所有的參數隨機產生在一個小范圍內。

2) 對于輸入樣本x(t),隱含層到輸出層之間的權值、寬度、中心分別通過式(26)~(28)進行調整,采用固定樣本個數的在線形式,然后,判斷神經網絡是否滿足結構調整條件,滿足條件則轉向3),否則轉向6)。

3) 根據式(3)計算當前存在的隱含層神經元與網絡輸出計算相對貢獻指標RC,如果第t步的訓練RMSE比第t-n步大時:e(t)-e(t-n)>0時,則轉向4);轉向5),判斷是否滿足刪減條件,否則轉向6)。

4) 此時,說明神經網絡信息處理能力不足,需要增加神經元,按照式(9),選出相對貢獻指標最大的神經元進行分裂,根據式(10)~(12)對新增加神經元的設定初始化參數。

5) 如果滿足刪減條件(13),則刪除相對指標貢獻值小于閾值ε的隱含層神經元,刪除與此神經元的連接權值、中心和寬度,并利用式(14)~(16)對其臨近的神經元的相應參數進行調整。

6) 利用改進的LM算法對神經網絡的參數進行更新。

7) 滿足停止條件或達到計算次數時停止計算,否則轉向2)(網絡結構還需調整)進行重新訓練。

3 收斂性分析

網絡是否收斂決定了算法的性能,因為網絡在結構調整之后對其收斂性往往不能保證,以下給出結構調整階段的收斂性證明,主要分為3部分:1)隱節點增加階段;2)隱節點刪減階段;3)隱節點數目不變的階段。

假設:當前網絡存在J個隱含層神經元,當前時刻的誤差為eJ(t)。

1)當滿足神經元增加條件時,分裂神經元,此時神經元數目變為J+1個,此時網絡的誤差變為。新增加的神經元的參數設置按照式(12)進行設置。

可以看出,隱含層新增加神經元之后,其參數設置對網絡的輸出誤差進行了補償,調整后誤差為0,一定程度上加快算法的學習速度。

2)當滿足刪減條件時,刪除第k個神經元,此時神經元的數量變為J-1,神經網絡的輸出誤差為,刪減之后對臨近神經元的參數更新設置如式(16)。

可以看出,刪掉神經元與輸出之間的連接權值,中心,寬度等參數,對其鄰近的神經元進行參數更新,神經元調整前后,神經網絡的輸出誤差相等,可見結構刪減對網絡的誤差沒有產生影響。

3) 隱節點數目不變的階段

為了證明算法在固定神經元時算法的收斂性,定義一個Lyapunov函數:

根據泰勒展開式可以得到,Lyapunov函數F(Ω(t))的變化量:

現在有以下收斂定理:

假設RC-RBF神經網絡中的隱含層神經元數為固定J,同時網絡參數根據式(17)中的規則進行更新,如果滿足以下假設:

那么,結合等式(32)~(34)可以得到

由此可以得出Lyapunov函數F(Ω(t))不是增加的,進一步得出當e(t)→0,網絡收斂

綜上所述,通過網路誤差補償更新神經元的參數,對神經元增長和刪減兩階段的收斂性證明;同時也對結構固定階段的RBF網絡的收斂性也進行證明,因此提出設計方法的收斂性得以驗證。

4 仿真實驗

RC-RBF神經網絡能夠根據研究對象的復雜動態變化在線調整隱含層神經元的個數,提高網絡的預測能力,為驗證算法的有效性和可行性,對Mackey-class時間序列和污水處理關鍵出水參數氨氮預測進行預測實驗,對其算法進行驗證。

利用均方根誤差函數作為衡量網路的性能指標函數,計算公式如式(40)所示。

式中:P為樣本總數,yp(t)為第p個樣本t時刻對應的網絡輸出,op(t)為第p個樣本t時刻對應的期望輸出。

1) Mackey-Glass時間序列預測

Mackey-Glass時間序列預測是一個典型的驗證自組織網絡性能的基準函數[18]。其微分方程表達式如式(41)所示:

式中:a=0.1,b=0.2,τ=17,并且初始條件為 x(0)=1.2,p=6, Δt=6。過去的 4 個值{x(t), x(t–Δt), x(t–2Δt), x(t–3Δt)}去預測x(t+p)的值,預測模型如式(42)所示:

根據式(42)產生1 000個數據,其中,t∈[136,535]產生500組作為訓練數據,t∈[636, 1 135]產生的500組用作測試數據。網絡的初始結構為4-3-1,閾值ε為0.1。圖2~5的仿真結果分別為訓練過程中隱節點數目的變化,網絡測試輸出和實際輸出曲線,Mackey-class測試誤差曲線,訓練RMSE變化曲線。

圖2 Mackey-class測試輸出和實際輸出Fig. 2 The curve of Mackey-class test output and actual output

圖3 Mackey-class測試誤差曲線Fig. 3 The curve of Mackey-class testing error

圖4 訓練RMSE值的變化曲線Fig. 4 The curve of training RMSE value

從圖2可以看出,網絡的測試輸出與實際輸出曲線基本吻合,說明該方法能夠較好地逼近非線性時間序列。圖3中顯示網絡的測試誤差曲線,誤差值范圍保持在[-0.04, 0.04]較小的范圍內,表現出良好的泛化性能。圖4顯示的網絡訓練RMSE變化曲線,誤差隨著訓練過程一直保持下降趨勢,證明表2算法能夠快速收斂到滿意的性能。

為了驗證算法的有效性,該方法與其他自組織神經網絡進行對比,NFN-FOESA[19],自組織RBF神經網絡(self-organizing RBF neural networks,SORBF)[20],增長–修剪RBF神經網絡(growing and pruning RBF neural networks, GAP-RBF)[21]、RBFAFSII[22]、SOFMLS[23]。表1展現了不同算法的性能指標,從表中可以看出,和其他方法相比,該方法能夠采用較精簡的結構很好地逼近非線性時間序列。

表2 不同算法的性能對比Table 2 The performance of different algorithms

2) 污水處理關鍵水質參數氨氮預測

出水水質參數預測模型的建立對于污水處理中減少微生物風險和過程的優化控制提供了一定的管理決策支持依據。由于污水處理過程中影響硝化和反硝化的因素眾多,動力學反應及其復雜,導致影響氨氮的參數很多,而且各參數之間相互作用,具有強烈的耦合和非線性特性,因此很難精確建立其機理模型;而且,氨氮的檢測,現在大多采用實驗室取樣離線分析,操作繁瑣,需要很長的時間才能檢測出等原因,不利于實時準確獲得水質參數。因此,采用數據驅動的方式,利用上述方法根據污水處理廠實際輸入輸出數據對氨氮這一出水參數建立準確快速的軟測量模型。

實驗過程中,數據取自北京市某污水處理廠2014年的真實測量數據,剔除異常數據并進行數據歸一化之后,140組數據作為訓練數據,50組數據作為測試數據。為消除輸入數據間的高度相關性通過主元分析的方法,選出對氨氮影響較大的輸入變量,依次為溫度T (Temperature),好氧前段DO (Dissolved Oxygen),好氧末端總固體懸浮物TSS (Total suspended solids concentration),出水 PH (Acidity and basicity),厭氧末端ORP (Oxidation-reduction potential),泥齡。輸出變量為出水氨氮。網絡的初始結構為6-2-1,刪減閾值設為0.1。預測性能通過預測精度pa(prediction accuracy)來衡量。

預測精度pa越大,說明基于RC-RBF神經網絡的氨氮預測模型性能越好。實驗仿真結果如圖6~10。

圖6 網絡訓練輸出和實際輸出曲線Fig. 6 Network training output and Actual output

圖7 訓練RMSE值變化Fig. 7 The curve of tranining RMSE value

圖8 訓練過程中隱節點的數目變化Fig. 8 The number of hidden layer number

圖9 網絡測試輸出和實際輸出Fig. 9 The curve of test the actual output

從仿真結果可以看出,圖6顯示的RBF網絡訓練輸出和氨氮實際輸出曲線,曲線基本重合,可以看出算法對污水處理動態過程具有較好的學習能力。圖7表明算法在訓練過程中RMSE的值呈現下降趨勢,訓練時間為僅為1.24 s,快速收斂到較小的期望誤差。圖9顯示RBF網絡測試輸出和實際輸出變化曲線,測試輸出值和氨氮實際值基本吻合。從圖10網絡測試誤差曲線看出,測試誤差較小,說明對于實際非線性動態變化過程,RC-RBF神經網絡表現出良好的泛化能力。為了說明該方法針對氨氮預測的有效性,還和其他方法進行對比,采用固定神經元的改進LM算法(Improved LM algorithm,ILM)優化的RBF網絡(ILM-RBF),RBF神經網絡,BP網絡3個對比實驗。表2顯示了算法的性能對比。從中可以看出,和其他方法相比,該方法對于氨氮的預測精度更高,訓練和測試誤差都較小。

圖10 網絡測試誤差曲線Fig. 10 The curve of network testing error

基于以上仿真結果,可以得出基于改進的自適應LM算法的自組織RBF神經網絡能夠很好地對污水處理氨氮指標快速準確地在線預測,并且具有較小的測試誤差和較高的預測精度,對于污水處理出水參數的實時監測和控制具有重要的意義,有利于污水處理廠的正常運行。

5 結束語

文中通過采用相對貢獻指標來設計網絡結構;同時,采用改進的LM算法訓練RBF神經網絡的參數,使得網絡能夠根據非線性系統準確快速地在線結構調整和參數優化,并表現出良好的泛化能力和預測精度,一定程度上提高了RBF神經網絡的非線性系統的建模性能和算法的魯棒性。

1) 提出基于相對貢獻指標結合誤差信息處理能力來最大程度的挖掘隱含層神經元對輸出神經元的相對貢獻,作為判斷網絡結構是否刪減的條件,并且對增加和刪減階段的神經元參數進行更新補償;同時,證明網絡結構刪減和增加階段,神經元固定3個階段的收斂性,證明結構動態變化過程是收斂的。

2) 采用改進的LM算法,將矩陣運算轉化為向量相乘的方式,避免整個雅可比矩陣的存儲,有效地減少了訓練時間和矩陣的存儲空間,自適應學習率的引入加快算法的收斂速度,并且提高了算法的預測性能。

3) 采用改進LM算法的RC-RBF神經網絡通過對Mackey-class時間序列預測和污水處理過程的出水參數氨氮進行建模預測,仿真實驗可以看出網絡對于解決實際問題和非線性函數逼近實驗都具有較好的泛化能力和預測精度。

綜上所述,本文提出的相對貢獻指標結合網絡信息處理能力能夠有效解決RBF網絡的結構調整問題;同時采用具有快速收斂特性的改進LM算法對網絡參數優化,非線性時間序列仿真實驗和污水處理氨氮預測實驗都證明算法具有較好的預測精度,對于實際非線性系統的建模與應用有一定的理論意義和可行性。

[1]QIAO J F, ZHANG Z Z, BO Y C. An online self-adaptive modular neural network for time-varying systems[J]. Neurocomputing, 2014, 125: 7–16.

[2]韓紅桂, 李淼, 喬俊飛. 基于模型輸出敏感度分析的動態神經網絡結構設計[J]. 電子學報, 2010, 38(3): 731–736.HAN Honggui, LI Miao, QIAO Junfei. Design of dynamic neural network based on the sensitivity analysis of model output[J]. Acta electronica sinica, 2010, 38(3): 731–736.

[3]PLATT J. A resource-allocating network for function interpolation[J]. Neural computation, 1991, 3(2): 213–225.

[4]LU Y G, SUNDARARAJAN N, SARATCHANDRAN P. A sequential learning scheme for function approximation using minimal radial basis function neural networks[J]. Neural computation, 1997, 9(2): 461–478.

[5]PANCHAPAKESAN C, PALANISWAMI M, RALPH D,et al. Effects of moving the center's in an RBF network[J].IEEE transactions on neural networks, 2002, 13(6): 1299–1307.

[6]HUANG G B, SARATCHANDRAN P, SUNDARARAJAN N. A generalized growing and pruning RBF (GGAPRBF) neural network for function approximation[J]. IEEE transactions on neural networks, 2005, 16(1): 57–67.

[7]GONZALEZ J, ROJAS I, ORTEGA J, et al. Multi-objective evolutionary optimization of the size, shape, and position parameters of radial basis function networks for function approximation[J]. IEEE transactions on neural networks, 2003, 14(6): 1478–1495.

[8]FENG H M. Self-generation RBFNs using evolutional PSO learning[J]. Neurocomputing, 2006, 70(1): 241–251.

[9]HAO C, YU G, XIA H. Online modeling with tunable RBF network[J]. IEEE transactions on cybernetics, 2013, 43(3):935–947.

[10]LIAN J M , LEE Y G, SCOTT D, SUDHOFF, et al. Selforganizing radial basis function network for real-time approximation of continuous-time dynamical systems[J].IEEE transactions on neural networks, 2008, 19(3):460–474.

[11]YU H, REINER P D, XIE T T, et al. An incremental design of radial basis function networks[J]. IEEe transactions on neural networks and learning systems, 2014,25(10): 1793–1803.

[12]CONSTANTINOPOULO C, LIIKAS A. An incremental training method for the probabilistic RBF network[J]. IEEE transactions on neural networks, 2006, 17(4): 966–974.

[13]CHEN S, HANZO L, TAN S. Symmetric complex-valued RBF receiver for multiple-antenna-aided wireless systems[J].IEEe transactions on neural networks, 2008, 19(9):1659–1665.

[14]王曉麗, 黃蕾, 楊鵬, 等. 動態RBF神經網絡在浮選過程模型失配中的應用[J]. 化工學報, 2016, 3(67): 897–902.WANG Xiaoli, HUANG Lei, YANG Peng, et al. Dynamic RBF neural networks for model mismatch problem and its application in flotation process[J]. CIESC journal, 2016,3(67): 897–902.

[15]WILAMOWSKI B M, YU H. Improved computation for Levenberg–Marquardt training[J]. IEEE transactions on neural networks, 2010, 21(6): 930–937.

[16]MA C, JIANG L. Some research on Levenberg–Marquardt method for the nonlinear equations[J]. Applied mathematics and computation, 2007, 184(2): 1032–1040.

[17]XIE T T, YU H, HEWLETT J, et al. Fast and efficient second-order method for training radial basis function networks[J]. IEEE transactions on neural networks and learning systems, 2012, 23(4): 609–619.

[18]QIAO J F, HAN H G. Identification and modeling of nonlinear dynamical systems using a novel self-organizing RBF-based approach[J]. Automatica, 2012, 48(8): 1729–1734.

[19]CHEN C, WANG F Y. A self-organizing neuro-fuzzy network based on first order effect sensitivity analysis[J].Neurocomputing, 2013, 118: 21–32.

[20]HAN H G, CHEN Q L, QIAO J F. An efficient self-organizing RBF neural network for water quality prediction[J].Neural networks the official journal of the international neural network society, 2011, 24(7): 717–25.

[21]HUANG G B, SARATCHANDRAN P, SUNDARARAJAN N. An efficient sequential learning algorithm for growing and pruning RBF (GAP-RBF) networks[J]. IEEE transactions on systems, man, and cybernetics, Part B: (Cybernetics), 2004, 34(6): 2284–2292.

[22]CHO K B, WANG B Y. Radial basis function based adaptive fuzzy systems and their applications to system identification and prediction[J]. Fuzzy sets and systems, 1996,83(3): 325–339.

[23]EBADZADEH M M, SALIMI-BADR A. CFNN: correl-ated fuzzy neural network[J]. Neurocomputing, 2015, 148:430–444.

[24]An R, Li W J, Han H G, et al. An improved Levenberg-Marquardt algorithm with adaptive learning rate for RBF neural network[C]//IEEE Control Conference, [s.l.], 2016:3630-3635.

書訊:《探秘機器人王國》

由蔡自興教授和翁環高級講師合著的《探秘機器人王國》已由清華大學出版社隆重出版,向全國發行,正在京東和當當等書店熱售中。

本書是一本以機器人學和人工智能知識和機器人技術為中心內容的科普及科幻長篇小說。書中通過形象與連續的故事和插圖,介紹機器人的發展歷史、基本結構與分類,在工礦業與農林業、空間與海洋探索、國防與安保、醫療衛生、家庭服務、文化娛樂、教育教學等方面的應用,以及智能化工廠、未來宇宙開發與星際航行和發展方向等。此外,還展望了其它一些新技術或潛在高新技術的未來應用。

本書密切聯系實際,適當加入一些科學預測知識,故事情節生動,圖文并茂,寓知識性、趣味性和娛樂性于一體,是廣大青少年、大中小學生、中小學教師、機器人和人工智能產業園科技與工作人員以及從事科技與產業管理的政府與企業人員的課外閱讀佳作,也是對機器人感興趣的公眾值得一看的好作品。小學高年級學生可以在家長和老師指導下閱讀。

本書作者之一蔡自興教授是一位在智能科技領域碩果累累、德高望重、著作等身和桃李滿天下的科學家、教授。他在百忙中擠出寶貴時間,撰寫科普小說和科普文章,普及機器人學和人工智能知識,培養廣大青少年對科學技術的興趣。他與夫人翁環老師合作編著這部《探秘機器人王國》科普與科幻著作長篇小說,是他們對科普教育的一個新貢獻。讀者通過閱讀本書,能夠了解機器人的過去、現在和將來,增進對機器人技術的興趣與認識,因而能夠對廣大青少年讀者有所裨益。

中國工程院院士、哈爾濱工業大學蔡鶴皋教授為本書作序,對本書給予高度評價。他說:本書的出版必將為廣大讀者,特別是青少年學生提供一份不可多得的精神快餐,為機器人學和人工智能的知識傳播與普及發揮不可替代的重要作用,進而為我國建設智能強國貢獻重要力量。

世界這么廣大,想要探訪的領域很多很多。厲害啦,機器人來了!讓我們跟隨《探秘機器人王國》的足跡去揭開機器人王國的神秘面紗,探索機器人家族的奧秘,擁抱多彩多姿的機器人,看看他們都干了哪些“雷倒眾生”的新鮮事兒。

主站蜘蛛池模板: 99性视频| 国产精品视频观看裸模| 国产精选自拍| 91年精品国产福利线观看久久| 色综合久久88色综合天天提莫| 日本在线国产| 欧美一级在线| 精品国产一二三区| 色婷婷在线播放| 国产成人1024精品| 国产xx在线观看| 国产成人综合久久精品下载| 欧美精品H在线播放| 国产91小视频在线观看| 欧美日韩一区二区在线免费观看| 中文字幕资源站| 风韵丰满熟妇啪啪区老熟熟女| 国产高清毛片| 欧美日韩一区二区在线免费观看 | 亚洲第一区欧美国产综合| 精品视频在线观看你懂的一区| 中文字幕有乳无码| 狠狠久久综合伊人不卡| 精品一区国产精品| 色噜噜综合网| 午夜国产精品视频黄| 国产成人免费观看在线视频| 91久久偷偷做嫩草影院精品| 嫩草国产在线| 国产精品欧美亚洲韩国日本不卡| 日韩欧美国产成人| 国产精品短篇二区| 2020久久国产综合精品swag| 日韩无码一二三区| 人人妻人人澡人人爽欧美一区| 亚洲第一黄色网址| 九九热免费在线视频| 成年免费在线观看| 蜜臀av性久久久久蜜臀aⅴ麻豆 | 日本草草视频在线观看| 精品无码日韩国产不卡av| 国产精品xxx| 精品一区二区三区自慰喷水| 亚洲一道AV无码午夜福利| 456亚洲人成高清在线| 福利姬国产精品一区在线| 国产日韩欧美黄色片免费观看| 欧美色综合网站| 亚洲高清在线播放| 欧美色图久久| 日韩在线播放中文字幕| 一级毛片在线直接观看| 日韩人妻精品一区| 亚洲成人网在线观看| 欧洲在线免费视频| 欧美精品三级在线| 国产99视频精品免费视频7| 日本成人不卡视频| 一本一道波多野结衣一区二区| 免费Aⅴ片在线观看蜜芽Tⅴ| 国产丝袜无码精品| 久久特级毛片| www.狠狠| 全部免费特黄特色大片视频| 尤物午夜福利视频| 美女一级毛片无遮挡内谢| 91久久偷偷做嫩草影院免费看 | 国产成人成人一区二区| 久久天天躁狠狠躁夜夜2020一| 国精品91人妻无码一区二区三区| 99视频只有精品| 亚洲成人黄色在线| 国产青青草视频| 91福利在线看| 在线不卡免费视频| 亚洲乱码视频| 亚洲AV免费一区二区三区| 国产h视频免费观看| 99热这里只有精品免费| 亚洲国产AV无码综合原创| 视频二区亚洲精品| 中文字幕va|