吳國慶,邴 單,白 靜,杜如霞
(南京工業大學浦江學院 基礎部,江蘇 南京 211134)

自組織神經網絡(self organizing map, SOM )是基于人腦中的神經元以下兩個特性提出的:(1)神經元之間存在著一種側抑制現象,當一個神經元細胞興奮后,它會對周圍的其他神經元細胞產生抑制;(2)人大腦的學習方式是一種無導師學習。SOM可以通過一系列的訓練,能自動尋找樣本數據中內在的規律和本質屬性,并且能夠在改變網絡中的變量和結構的過程中完成自組織和自適應。SOM的結構分為輸入層和競爭層,競爭層可以為任意維度的神經網格,如圖1所示為一個二維神經網絡。

圖1 自組織神經網絡模型
SOM訓練流程大致可以分為四步:(1)接受輸入向量,使用判別函數計算各節點函數值;(2)比較判別函數值,選擇一個有最大(最小)函數輸出值的神經元;(3)激勵被選出的神經元和其最接近的神經元;(4)更新被激勵的神經元的各項參數,從而增加其對應于特定輸入向量判別函數值。在上述訓練過程中,神經元權值會向判別函數指向的最優化方向調整。比較選擇機制完成后,神經元調整方向一般就確定下來了。這種調整方式容易使得神經網絡陷入局部最優化。如圖2所示,在尋找最低函數值的過程中若從E、F或H點出發,會陷入到局部極小值D或G,而非整體最小值B。

圖2 勢阱分布圖

圖3 測不準原理應用流程
在經典力學中,若粒子總能量低于勢壘大小,則該粒子無法通過勢壘。例如圖2中能量低于u的粒子很難從F點越過EF勢壘到達B或D位置。量子力學中,微觀粒子在空間中呈概率分布:能量低于u的粒子若初始情況出現在FH之間的幾率最大,該粒子仍有幾率出現在AE之間,有機會出現在勢能最低點B處。若在SOM訓練過程中,將比較判別得到的函數值作為目標神經元被激勵的概率,則有可能將訓練過程從局部最優化中跳出。測不準原理應用到SOM中得到QSOM(quantum self organizing map)模型,可采用如圖3所示流程實現。
在上述流程中樣本集各樣本與競爭層節點的最小歐氏距離可作為判斷結束與否的依據。在SOM中,選擇與訓練樣本歐氏距離最小的競爭層節點作為目標節點,該節點獲取激勵最大,容易陷入局部最優化。而在QSOM中,與訓練樣本距離越近,成為目標節點的幾率越大,在保證整體趨于優化的同時,減小了陷入局部最優化的概率。


圖4 均方差與訓練次數關系圖
圖4中虛線表示模擬訓練中MSE隨訓練次數變化情況,其中虛線表示10次模擬情況,實線表示50次模擬訓練平均值。通過上圖可以看出網絡在250步左右收斂至0.021。相對于螺旋線方程產生的坐標,QSOM填充結果的相對平均誤差為7.25%。而測試SOM填充得到的MSE為0.038,平均為誤差10.3%,與文獻《Non-linear PCA: a missing data approach》中結果近似[4]。
測試結果表明,與SOM相比,QSOM填充質量更好。相較于SOM模型,QSOM模型在訓練過程中,由于調整方向增加了不確定性,使得網絡更容易跳出局部最優化,其魯棒性、容錯性更強。可應用于處理非線性問題的缺失值填充、預測等。
[1]Maeda M,Suenaga M,Miyajima H.Qubit neuron according to quantum circuit for XOR problem[J]. Applied Mathmatics and Computation,2007,185(2):1015-1025.
[2]Scott Makeig.Event-related brain dynamics[J].TRENDS in Cognitive Sciences,2004,8(5):204-210.
[3]Li P,Chai Y,Xiong Q.Quantum neural modeling: quantum gate structure in Elman networks[C]//Proceeding of Fourth International Workshop on Advanced Computational Intelligence (IWCI).Wuhan:[s.n.],2011:315-320.
[4]Matthias Scholz,Fatma Kaplan.Non-linear PCA:a missing data approach[J]. Bioinformatics,2005,21(20):3887-3895.