周生強


摘要:本文以1990年至2017年的上證指數作為分析對象,利用深度學習中的LSTM模型,以keras平臺作為工具,以Python3.5作為開發環境,建立六層神經網絡,對上證指數進行預測,得出了一般情況下增加次迭次數能夠提高網絡預測效果的結論。
關鍵詞:上證指數;LSTM
中圖分類號: F830.91 文獻識別碼:A 文章編號:1001-828X(2017)013-0-01
1943年,心理學家W·Mcculloch和數理邏輯學家W·Pitts在分析、總結神經元基本特性的基礎上首先提出神經元的數學模型。此模型沿用至今,并且直接影響著這一領域研究的進展。因而,他們兩人可稱為人工神經網絡研究的先驅。50年代末,F·Rosenblatt設計制作了“感知機”,它是一種多層的神經網絡。這項工作首次把人工神經網絡的研究從理論探討付諸工程實踐。當時,世界上許多實驗室仿效制作感知機,分別應用于文字識別、聲音識別、聲納信號識別以及學習記憶問題的研究。M.Minsky等仔細分析了以感知器為代表的神經網絡系統的功能及局限后,于1969年出版了《Perceptron》一書,指出感知器不能解決高階謂詞問題。他們的論點極大地影響了神經網絡的研究。人工神經網絡研究陷入低潮。后來人工神經網絡幾經沉浮hiton等,2006年2012年,多倫多大學的 Geoff Hiton利用深度學習的新技術,帶領團隊實現了85%的圖像識別準確率。開創了機器學習的新紀元。從此深度學習開始從學術界走向了工業界,掀起了改變世界的序幕。
LSTM(Long Short-Term Memory,LSTM)是一種時間遞歸神經網絡,LSTM的結構 由Jürgen Schmidhuber在1997年首次提出。借助遺忘門、記憶們的精妙設計結構,LSTM適合于處理和預測時間序列中間隔和延遲非常長的重要事件。
本文的研究數據為上證1990年12月29日到2017年5月2日的日線數據。共4172根。采用了keras平臺,后端采用Tensorflow引擎。Tensorflow是一個符號主義的張量操作框架,由谷歌公司開發研制。對金融時序數據分析采用的至強處理器,16G內存。同時為了加速處理金融數據的能力,利用NVIDA顯卡的GPU提升算法性能,整個算法的軟件環境是在Python3.5上搭建的利用GPU的Tensorflow環境,以前90%的數據為訓練數據,以后10%的數據為預測數據。
首先將上證指數進行歸一化處理,使用的函數是g(x)=(f(x)/f(0)-1).處理后的數據進行輸入keras進行計算。本次實驗采用的keras網絡架構如下:
包括兩個Lstm層和四個隱層,每50個為一個輸入序列,輸入的數據結構為(4122,50,1),第二層節點為150個神經元,每個隱層的神經元為50個,在不同的迭代次數下,得到如圖所示結果:(藍色為預測曲線)
迭代200次的結果如上圖所示,仍然在100個數據點后喪失了預測能力。
迭代500次后的結果如圖所示,效果較前兩次好轉很多,具有一定的預測能力。根據上述實驗,建立了一個粗略預測上證指數的Lstm模型,具有一定的預測能力,在多次迭代后能夠大概預測股指走向。
參考文獻:
[1]曾志平,蕭海東,張新鵬.基于DBN的金融時序數據建模與決策[J].計算機技術與發展,2017,4:1-5.
[2]陳曲.淺析在線逆向拍賣[J].現代工業經濟和信息化,2015(21).
[3]孫小軍,張銀利.股票-債券投資組合問題的數學模型及算法[J].系統工程理論與實踐,2015,35(6):1433-1439.