鄒曉輝
3結束語
Logistic回歸是最基本的分類算法之一,算法簡單且時間復雜度低,適合解決線性分類問題。機器學習中有“Occam's Razor”原理,即“簡單有效原理”。如果能用簡單模型解決問題,則不使用更復雜模型。當代數據科學是涵蓋了統計學、數學、信息學、優化理論以及其它各門學科在內的交叉學科,要從大量數據中挖掘出有用的知識和模式,非常重要的一個問題是數據的預處理。從數據中提取有用特征,去除冗余信息和噪聲,進行特征選擇[5-6]、特征組合、特征降維、特征映射、特征表示等,統計學習算法和模型就是建立在數據的特征維度上。高效的目標函數優化算法也是數據建模領域的重要研究方向。
[J(下轉第143頁)
參考文獻:[HT]
劉紅巖, 陳劍, 陳國青. 數據挖掘中的數據分類算法綜述[J]. 清華大學學報(自然科學版), 2002, 42(6):727-730.
[2] 李航. 統計學習方法[M]. 北京: 清華大學出版社, 2012.
[3] 約翰·內特. 應用線性回歸模型[M]. 北京: 中國統計出版社, 1990.
[4] 王濟川. Logistic回歸模型:方法與應用[M]. 北京: 高等教育出版社, 2001.
[5] 姜百寧. 機器學習中的特征選擇算法研究[D]. 青島: 中國海洋大學, 2009.
[6] 陳鐵明,馬繼霞,HUANG S H. 一種新的快速特征選擇和數據分類方法[J]. 計算機研究與發展, 2012, 49(4):735-745.