999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

用于水聲目標識別的近鄰無監督特征選擇算法

2016-09-07 06:26:59陳含露楊宏暉申昇
聲學技術 2016年3期
關鍵詞:分類特征

陳含露,楊宏暉,申昇

?

用于水聲目標識別的近鄰無監督特征選擇算法

陳含露,楊宏暉,申昇

(西北工業大學航海學院,陜西西安 710072)

針對水聲目標數據的特征冗余問題,提出一種新的近鄰無監督特征選擇算法。首先利用順序向后特征搜索算法生成原始特征集的子集,然后利用基于代表近鄰選取方法的特征評價機制評價特征子集的優越性。使用實測水聲目標數據集和聲吶數據集進行特征選擇和分類實驗,在保持支持向量機平均分類正確率幾乎不變的情況下,特征數目分別降低了90%和75%。結果表明,該算法選擇出的特征子集,在去除冗余特征后有效地提高了后續學習算法的效率。

水聲目標識別;無監督;特征選擇;代表近鄰

0 引言

為提高水聲目標識別的正確率,研究人員往往用多種方法提取水聲目標輻射噪聲的多域特征。然而,水聲目標樣本獲取的代價卻很大。因此,要在水聲目標樣本數目保持不變的前提下達到分類正確率損失盡可能小的目的,進行特征選擇以去除不相關和冗余特征,在水聲目標識別任務中具有重要的意義。

根據用于特征選擇的數據有無類標,可將特征選擇方法分為有監督方法和無監督方法。在水聲目標識別領域,相比于有監督特征選擇方法[1]的趨于成熟,無監督特征選擇方法[2]仍有待深入研究。有監督特征選擇方法通常通過類標的指導來評價特征與識別任務的相關程度。而無監督特征選擇由于缺少類標指導,往往傾向于選出能夠保留樣本內在聚類屬性的特征。文獻中大多現有無監督特征選擇算法依賴于距離矩陣來尋找最優特征子集[3-5],近年來從樣本近鄰方面考慮的非參數方法為特征選擇提供了新的思路[6-8]。但這些方法往往面臨兩方面的問題:(1) 通常選擇近鄰是為了觀察某個特征子集判別樣本是否屬于同一聚類的能力,因此要求所選近鄰必須對不同的特征具敏感性——保證樣本與最近近鄰屬于同一聚類,與最遠近鄰屬于不同聚類;(2) 通常要求根據先驗知識設定近鄰數目,若要求設定的近鄰數目逼近樣本數目且樣本數目較大,則將導致算法的計算量過大。本文研究了一種基于特征順序搜索算法和代表近鄰選取方法[9]的非參數無監督特征選擇方法——近鄰無監督特征選擇(Neighbor Based Unsupervised Feature Selection, NBUFS)算法,其中代表近鄰的選取機制可克服上述兩個問題,并利用實測水聲目標數據集和聲吶數據集的多域特征進行了特征選擇和分類實驗,結果證明本文算法能夠較好地解決水聲目標特征選擇問題。

1 近鄰無監督特征選擇算法

1.1 算法原理

NBUFS算法的原理如圖1所示。對于數據集,首先計算兩兩樣本間的歐式距離,得到相異度矩陣。接著將相異度矩陣輸入聚類傾向視覺評估算法(Visual Assessment of cluster Tendency, VAT)[10-11],由輸出的重組圖像評估聚類數目。然后利用K-means算法對數據集進行聚類,并選擇出基于聚類結果的代表近鄰。最后采用封裝模型進行特征選擇,得到結果子集,其中封裝模型的特征評價函數是基于代表近鄰設計的。

1.2 代表近鄰的選取方法

代表近鄰主要用于后續封裝模型特征評價函數的設計,其選取步驟如下:

(2)

(3) 由步驟(2)中的SVM訓練結果得到分類超平面的特征向量:

(4)

1.3 順序向后特征搜索算法

順序向后特征搜索算法由特征全集開始,在其后的每一次迭代中去掉一個特征(每次迭代中去掉該特征時得到的特征子集評價值比去掉其它任何一個特征時得到的評價值都高),直到特征數目減少到規定數目為止,算法流程見圖2。

1.4 封裝式特征選擇模型

采用封裝模型進行特征選擇是本文算法的核心部分,其具體步驟如下:

(1) 開始:運行順序向后特征搜索算法。

(2) 評價初始化:對于用待評價特征子集描述的數據集,和近鄰集,,將它們以相同的方式分為部分,每部分所含樣本數目相同。將其中的-1個部分作為,剩下的1個部分作為。

(7)

(3) 測試:將特征子集的評價值記為,它可由下式計算得到:

其中,[ ]的輸出分兩種:當[ ]內的條件滿足時為1,不滿足時為0。表示的樣本數目。

(5) 循環:重復步驟(3)~(4),直到步驟(2)中所述的部分數據都曾作為測試集。

(6) 評價完成:將以上步驟得到的個評價值的算術平均作為特征子集的最終評價值。

(7) 循環:重復步驟(2)~(6),直到順序向后特征搜索算法運行結束。

2 實驗結果及分析

2.1 實驗數據

利用實測水聲目標數據集和加州大學用于機器學習的UCI(University of California Irvine, UCI)數據庫中的聲吶數據集對本文算法的性能進行驗證實驗,數據說明如表1所示。

表1 數據說明

2.2 NBUFS算法性能驗證

采用如下兩種方式驗證NBUFS算法的有效性:(1) 支持向量機(Support Vector Machine, SVM)的分類結果;(2) 樣本的空間分布。

2.2.1 SVM分類結果

分別用上述兩種數據對NBUFS算法的特征選擇結果進行SVM分類實驗,采用10次10折交叉驗證SVM運行結果的分類正確率平均值作為最終的分類正確率。結果得到選擇出的特征數目與SVM分類正確率的關系如圖3所示,特征選擇前后所需的分類時間如表2所示。

表2 特征選擇前后所需的分類時間

由圖3可以看出,兩種數據的特征數目與SVM分類正確率關系曲線的變化趨勢相似:開始時 SVM 分類正確率總體上隨特征數目的增加而增加,當特征達到一定數目后,分類正確率趨于相對穩定。實測水聲目標數據使用7個特征即可使分類正確率與使用完全數據集的71個特征時相當;聲吶數據使用15個特征即可使分類正確率與使用完全數據集的60個特征時相當。這說明使用NBUFS算法進行特征選擇以后,使用部分特征就可以表征完全數據集的全部分類信息。

由表1可以看出,使用經特征選擇得到的特征子集進行SVM分類實驗,可以在較大程度上減少分類時間。

因此,使用本文方法進行特征選擇后,在不犧牲分類正確率的前提下,有效提高了后續學習算法的速度,提高了計算效率。

2.2.2 樣本的空間分布

對于實測的水聲目標數據集,使用NBUFS算法選擇出最佳兩維特征(記為特征1和特征2)和最差兩維特征(記為特征3和特征4),分別在二維平面繪制該數據在最佳兩維特征和最差兩維特征表示下的4類樣本散布圖,如圖4和圖5所示。另外由于聲吶數據本身分類性能較差,使用任意兩維特征,甚至三維特征均無法很好地區分不同類樣本,而高于三維特征表示的樣本散布圖又無法用圖形表示,因此本節僅以實測水聲目標數據為例進行闡明。

通過對比圖4和圖5可以看出,最佳兩維特征表示的4類樣本在平面中較好地分布在不同區域,可分性較好;而最差兩維特征的4類樣本混在一起,可分性較差。這說明本文特征選擇算法對特征分類性能的評價是可靠的。

綜上所述,本文提出的NBUFS算法能有效地選擇水聲目標優化特征子集,在一定程度上解決水聲目標識別的問題。

3 結論

本文提出的近鄰無監督特征選擇算法(NBUFS),利用順序向后特征搜索算法生成原始特征集的子集,并利用基于代表近鄰選取方法的特征評價機制評價特征子集的優越性。使用實測水聲目標數據和聲吶數據對其進行實驗驗證的結果表明:本文算法能夠準確地選擇出優秀的特征子集,在分類實驗中獲得較高的分類正確率,并減少分類時間,能較好地解決水聲目標多域特征選擇問題。

[1] 楊宏暉, 王蕓, 孫進才, 等. 融合樣本選擇與特征選擇的 AdaBoost支持向量機集成算法[J]. 西安交通大學學報, 2014, 48(12): 63-68. YANG Honghui, WANG Yun, SUN Jincai, et al. An Adaboost support vector machine ensemble method with integration of instance selection and feature selection[J]. Journal of Xi'an Jiaotong University, 2014, 48(12): 63-68.

[2] 申昇, 楊宏暉, 袁帥. 用于水聲目標識別的互信息無監督特征選擇[J]. 聲學技術, 2013, 32(6): 30-33. SHEN Sheng, YANG Honghui, YUAN Shuai. Mutual information unsupervised feature selection for underwater acoustic targets[J]. Technical Acoustics, 2013, 32(6): 30-33.

[3] Zhao Z, Liu H(2007)Spectral feature selection for supervised and unsupervised learning[C]//Proceedings of the 24th international conference on machine learning(ICML), ACM, New York, 1151-1157.

[4] Ng A, Jordan M, Weiss Y. (2001) On spectral clustering: analysis and an algorithm[C]//Proceedings of advances in neural information processing systems (NIPS), vol 14, MIT Press, Cambridge, 2001, 849-856.

[5] Mitra P, Murthy C a, Pal S K. Unsupervised Feature Selection Using Feature Similarity[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence PAMI, 2002, 24(3): 301-312.

[6] Yang L, Jin R, Mummert L, et al. A boosting framework for visuality-preserving distance metric learning and its application to medical image retrieval[J]. IEEE Trans. Patt. Anal. Mach. Intell, 2010, 32(1): 30-44.

[7] Yan R, Zhang J, Yang J, et al. A discriminative learning framework with pairwise constraints for video object classification[J]. IEEE Trans. Patt. Anal. Mach. Intell, 2006, 28(4): 578-593.

[8] Chen C H. Feature selection for clustering using instance-based learning by exploring the nearest and farthest neighbors[J]. Imformation Sciences, 2015, 318(3): 14-27.

[9] CHEN C H. A semi-supervised feature selection method using a non-parametric technique with side information[J]. Information Sciences, 2013, 39(3): 359-371.

[10] Havens T C, Bezdek J C. An Efficient Formulation of the Improved Visual Assessment of Cluster Tendency (iVAT) Algorithm[J]. IEEE Transactions on Knowledge and Data Engineering, 2012, 24(5): 813-822.

[11] Bezdek J C, Hathaway R J. VAT: A Tool for Visual Assessment of (Cluster)tendency[C]//Proceedings of the International Joint Conference on Neural Networks, 2002, 2225-2230.

Neighbor based unsupervised feature selection algorithm for underwater acoustic target recognition

CHEN Han-lu, YANG Hong-hui, SHEN Sheng

(Northwestern Polytechnical University, Xi’an 710072, Shaanxi,China)

The problem of feature redundancy in underwater target recognition has been studying by plenty of researchers. In this paper, a new neighbor based unsupervised feature selection algorithm is proposed. Primarily, the subsets of the original feature set extracted from the dataset are produced by using backward feature searching strategy. Subsequently, these feature subsets are evaluated with the assessment mechanism based on the representative neighbors choosing method. Results of classification experiments with actual measured underwater acoustic target dataset and sonar dataset after feature selection show that the accuracies of SVM classifiers remain almost the same when the numbers of features are decreased by 90% and 75%, which indicates that the proposed method improves the efficiency of subsequent learning algorithm with the redundant features removed.

underwater acoustic target recognition; unsupervised; feature selection; representative neighbors

TB533

A

1000-3630(2016)-03-0204-04

10.16300/j.cnki.1000-3630.2016.03.003

2015-05-21;

2015-09-17

水聲對抗技術重點實驗室開放基金

陳含露(1991-), 女, 浙江麗水人, 碩士研究生, 研究方向為模式識別、聲信號處理。

楊宏暉, E-mail:hhyang@nwpu.edu.cn

猜你喜歡
分類特征
抓住特征巧觀察
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
主站蜘蛛池模板: 91免费国产在线观看尤物| 亚洲中文字幕av无码区| 亚洲欧美在线综合图区| 欧美综合激情| 少妇极品熟妇人妻专区视频| 青青青国产在线播放| 国产精品第| 在线亚洲精品自拍| 免费国产福利| 伊人精品视频免费在线| 久久久久久久97| 天天操天天噜| 国产不卡国语在线| 国产日本一线在线观看免费| 欧美中日韩在线| 亚洲免费福利视频| 91日本在线观看亚洲精品| 久久6免费视频| 亚洲国产成人久久77| 久久天天躁狠狠躁夜夜躁| 日韩无码真实干出血视频| 中文无码影院| 亚洲天堂网在线播放| 在线国产三级| 女人一级毛片| 国产肉感大码AV无码| 久久国产乱子| 久久久精品国产亚洲AV日韩| 日本黄色不卡视频| 亚洲精品第五页| 国产免费一级精品视频| 天堂成人av| yy6080理论大片一级久久| 色天堂无毒不卡| 91精品国产自产在线老师啪l| 国产女人在线观看| 久久国产精品影院| 国产区人妖精品人妖精品视频| 国产微拍一区二区三区四区| 亚洲黄色网站视频| 一级毛片在线直接观看| 成人91在线| 欧美一级夜夜爽www| 亚洲美女一区| 免费在线看黄网址| 91热爆在线| 2021国产精品自产拍在线| 全部无卡免费的毛片在线看| 丝袜亚洲综合| 香蕉久久国产超碰青草| 亚洲人成网站在线观看播放不卡| a级毛片在线免费观看| 波多野结衣中文字幕一区二区| 久久精品国产电影| 9cao视频精品| 久久久久久高潮白浆| 精品人妻一区二区三区蜜桃AⅤ| 欧美特黄一级大黄录像| 99成人在线观看| jizz在线观看| 日韩精品少妇无码受不了| 国产一级毛片在线| 亚洲成人黄色在线| 亚洲福利网址| 精品视频免费在线| 黄色网页在线播放| 97青青青国产在线播放| 亚洲熟女中文字幕男人总站| 日本久久网站| 国产精品99r8在线观看| 亚洲美女AV免费一区| 亚洲欧美日韩另类在线一| 国产精品国产三级国产专业不 | 久久综合伊人77777| 91精品免费高清在线| 久久成人国产精品免费软件| 中文成人在线视频| 深夜福利视频一区二区| 99re热精品视频中文字幕不卡| 激情成人综合网| 中文字幕av无码不卡免费 | 激情爆乳一区二区|