劉天華
摘 要: 電子音樂具有獨特的節奏質感,傳統電子音樂分類過程中,無法將多特征進行融合式的分類。為此,設計基于多特征融合和神經網絡的電子音樂分類模型。創建特征融合模塊,進行自適應特征融合,根據自適應機制調整特征融合頻率;利用神經網絡元承接融合特征因子,形成分布式的電子音樂多特征分類結構;利用電子音樂特頻效應完成特征融合分類,實現電子音樂分類模型的構建。實驗數據表明,設計的電子音樂分類模型,能夠以特征融合方式進行分類,并且分類結果十分精準。
關鍵詞: 多特征融合; 神經網絡; 電子音樂; 分類模型; 自適應多特征融合; 多層感知分類
中圖分類號: TN919.3?34 文獻標識碼: A 文章編號: 1004?373X(2018)19?0173?04
Abstract: The electronic music has the unique rhythm feeling. Since the traditional electronic music classification can′t classify the multi?feature fusion, the electronic music classification model based on multi?feature fusion and neural network is designed. The feature fusion module is created to perform the adaptive feature fusion, and adjust the frequency of feature fusion according to the adaptive mechanism. The neural network cell is used to receive the fusion feature factors, so as to form the distributed multi?feature classification structure of electronic music. The special frequency effect of electronic music is adopted to complete the classification of feature fusion, and realize the construction of the electronic music classification model. The experimental data shows that the designed electronic music classification model can classify the feature fusion modes, and has accurate classification results.
Keywords: multi?feature fusion; neural network; electronic music; classification model; adaptive multi?feature fusion; multilayer perception classification
電子音樂分類被廣泛的應用在各大音樂平臺之中,但是電子音樂自身的節奏感較強,且特點識別不明顯,因此傳統的電子音樂分類方法無法進行特征融合式的分類[1]。針對上述問題,本文設計基于多特征融合和神經網絡的電子音樂分類模型。應用多特征融合的方式創建特征識別模塊,對電子音樂進行自適應特征融合,使用自適應機制進行調整便于高校特征融合。通過神經網絡承接融合后的特征因子,導入分布結構進行多層感知分類,利用電子音樂特頻效應實現電子音樂分類模型的構建。為了保證設計的有效性,模擬使用環境進行仿真模擬實驗,試驗結果表明,設計的電子音樂分類模型能夠以特征融合的方式進行分類,并且分類結果十分精準。
1.1 自適應多特征融合
電子音樂的自適應多特征融合過程實際上是一個篩選過程,當電子音樂的背景節奏頻率發生劇烈變化時,電子音效的特征以連續的形式發生變化,單獨多特征融合得到的特征結果非常的單一,無法進行分類使用[2?3]。因此,本文使用自適應機制將電子音樂進行自適應處理,處理后的特征音效變得十分具象,并且能夠提升分類過程中跟蹤性能,增加分類過程的精準程度。當電子音樂的特效進行加持以后即使發生特征的轉變,由于自適應機制的存在也會隨時地進行追蹤判定[4?5]。自適應機制識別后的電子音樂就像是被去掉包裝的商品方便辨認,多特征融合過程好比是將去包裝的商品進行組裝的過程,但是還有別于機械化的組裝。如圖1所示為本文設計的自適應多特征融合流程圖多特征融合過程中一定要進行特征互補處理。如果電子音樂上存在差分梯度,那么按照差分梯度的大小進行互補處理;如果電子音頻的特征不是十分明顯,采用自適應對接的方式進行互補處理。每次對互補特征進行記錄,這樣可從不同方面對電子音樂的特征進行表達融合[6?7]。高音和低音對多特征融合過程中影響比較明顯,高音中不同音頻呈現的融合特征也是不同的。從不同的層面對電子音樂效果進行特征的采集提取,能夠保證融合方式的充分程度。特征融合最大的好處能夠將電子音樂的特征進行一體化,電子音樂一般在副歌的部分都是忽然高音突然低音。進行融合的電子音樂,是一個平穩的有旋律波動的音樂[8],在自適應機制下,特征融合后的音律凸顯程度是標準化的結果,這樣才能夠進行分布式的分類。
1.2 自適應更新機制
經過自適應多特征融合的電子音樂其特征音效發生明顯的變化,但是隨著音樂的推進,特征也會隨之發生改變,需要對跟蹤的音律進行實時更新,才能滿足全部特征融合過程。自適應更新機制采用線性插值方法進行更新,能夠保留電子音樂在之前融合特征基礎上進行融合,同時也可以及時將最新采集的調整導入特征融合機制中。但是當電子音頻出現有規律的重復時,或者雙特征同時顯現時,會出現錯誤特征的融入,隨著特征融合不斷累積,最終導致音頻特征融合失敗[9]。本文通過自適應更新機制,進行實時的更新融合以及監測。
為了保證更新音頻的特征是正確的,大多數模型都會使用跟蹤算法或是對照的形式進行檢測,通過對多特征音頻的實時跟蹤,來檢測融合中特征是否存在重復的現象。但是經過自適應處理后融合特征是無法進行跟蹤計算或者是對照檢測的[2]。因此,本文使用濾波響應值的形式有效反映出特征融合的結果是否重復。當音頻特征再次融合了特征屬性時,濾波響應值會產生極限最小值;當雙向特征被默認時會出現極限最大值,濾波響應值的峰值附近會產生相應的偽峰值,說明多特征融合中的特征融合點不夠突出。
多層感知特征分類過程中,應用神經網絡多層感知器(Multilayer Perceptron,MLP) [10]將分類過程分為三個層面:導入層、分類層(一層或者多層)及輸出層。神經網絡的網絡分類框架中包含神經元,能夠承接特征融合因子,能夠解決單層感知分類中不能解決的線性分類問題,其既能夠以多特征的形式進行分類,又能夠體現多種分類路徑。設計的多層感知特征分類神經網結構圖如圖2所示。
導入層神經元接收到融合后的特征融合因子后,分類層和輸出層的每一個神經元之間相鄰的屬相是相同的,并且是互動式連接,但是所在同一層的全部神經元是相互獨立的。如圖2所示,箭頭表示神經元間的連接特征因子傳輸方向,并且每個特征因子都有特定的連接權值[11?12]。分類層中的特定因子在分類層中進行多項分類,按照不同的特征特點分配到不同的神經元中,假設每個神經元中只能承接一個特征因子,在輸出層的調用過程中調用的是神經元的權值,但是輸出的卻是神經元承載的特征因子[13]。神經網絡多層感知器用于同特征因子的分類,其導入神經元個數與輸出神經元的層數相同時,輸出特征因子個數將會通過神經網絡多層感知器進行多層分離。分類層中的每一項神經元都是獨立個體,但是連接路徑是不同的,其能夠有效地摒棄雙向特征因子的分類過程。
電子音樂分類本質上是一種模式分類過程。本文設計的電子音樂分類模型采用的模型結構如圖3所示。
從圖3可以看出,電子音樂分類模型主要包括以下幾個功能模塊:電子音樂特征采集模塊、多特征識別模塊、特征融合分類模塊以及分類輸出模塊。電子音樂特征采集模塊將電子音樂特征進行采集,并對電子音樂進行特征處理,過濾掉其中的非特征因子及參雜因子,并對電子音樂進行除分幀以外的特征采集處理工作。多特征識別模塊能夠將電子音樂的特征因子進行導入,將關鍵特征因子進行標記,在降低參雜因子的同時對特征進行融合。特征融合分類模塊能夠將提取的特征因子進行承接,將每種特征因子以不同的分類特征進行導入,神經網絡多層感知器能夠對雙向特征分類結果進行分離,以此來辨別雙向分類過程。
為了驗證設計的基于多特征融合和神經網絡的電子音樂分類模型的有效性,設計對比仿真試驗。試驗一共進行2次,分別測試模型的特征融合能力以及特征分類結果。為了保證試驗的有效性,使用傳統的電子音樂分類方法與本設計的電子音樂分類模型進行比較,觀察試驗結果。實驗過程中需要對基本試驗參數進行設定,其實驗參數設定結果如表1所示。
4.1 數據準備
實驗數據的準備過程中,對試驗數據進行隨機的搭配,本次實驗需要進行兩組試驗對比,因此在試驗數據配比上比較繁雜。電子音樂分類過程中,選用不同類型的電子音樂作為試驗樣品,以某音樂平臺為實驗數據平臺進行試驗。特征融合能力試驗隨機選用10首電子音樂進行特征融合的對比。
4.2 多特征融合試驗
本文設計的電子音樂分類模型與傳統電子音樂分類方法對比結果如表2所示。多特征融合過程中試驗數據隨機進行搭配,通過多特征融度能夠看出,本文設計的多特征融合方式在高極限融合程度上能夠做到80%以上,足以說明已經能夠對試驗中的電子音樂的特征進行融合采集,并且使用的電子音樂數量多于傳統分類方法。因此在多特征融合試驗中本文設計的電子音樂分類模型表現較好。
從圖4可以看出,本文設計的電子音樂分類模型的融合適用度明顯好于傳統電子音樂分類方法。本文的電子音樂分類模型融合適用度呈現規律的變化,沒有明顯的異常痕跡;但是傳統電子音樂分類方法的融合適用度存在異常外延。融合適用度能夠反映電子音樂分類過程的特征融合率,隨著更新機制的使用不斷出現規律性的變化,但是異常情況說明特征融合程度不佳。
4.3 特征分類試驗
通過圖5可以看出,一共有5條辨識分類數據值數據線,其中Ⅲ為標準辨識分類數據值數據線,標準線以上的數據為有效數據,以下的為可用數據,直線表示無分類偏差,曲線表示存在分類偏差。觀察圖5可以發現本文設計的電子音樂分類模型全部在標準線以上,并且全部都是直線說明,沒有分類數據偏差產生。
分類輸出率對比結果如圖6所示。分類輸出率是一項輸出值,能夠從側面反映出電子音樂分類過程,沒有經過多特征分類處理的數據無法進行輸出,同時分類不精確的數據也會被隔離,不會進行輸出。觀察圖6可以看出,本文設計的電子音樂分類模型其分類輸出率明顯高于傳統電子音樂分類方法,說明設計的電子音樂分類模型具備較高的多特征分類能力。
本文設計基于多特征融合和神經網絡的電子音樂分類模型,使用多特征融合對電子音樂進行特征處理,通過神經網絡進行有效分類。試驗數據表明設計的電子音樂分類模型具有較高的特征分類能力。
參考文獻
[1] 魏曉玲,劉明,苑新,等.基于多特征融合與卷積神經網絡的房顫檢測[J].激光雜志,2017,38(5):176?179.
WEI Xiaoling, LIU Ming, YUAN Xin, et al. Atrial fibrillation detection based on multi?feature fusion and convolution neural network [J]. Laser journal, 2017, 38(5): 176?179.
[2] 郝睿,徐俊峰,王慶寶,等.基于BP神經網絡的多特征融合變化檢測方法[J].海洋測繪,2016,36(1):79?82.
HAO Rui, XU Junfeng, WANG Qingbao, et al. Change detection method using multi?feature fusion based on BP neural network [J]. Hydrographic surveying and charting, 2016, 36(1): 79?82.
[3] 劉光達,王燦,李明佳,等.基于多特征和BP神經網絡的腦?機接口研究[J].電子技術應用,2017,43(9):72?75.
LIU Guangda, WANG Can, LI Mingjia, et al. Research of brain?computer interface based on multi?feature integration and BP neural network [J]. Application of electronic technique, 2017, 43(9): 72?75.
[4] 蔣婷,沈旭東,陸偉,等.基于多特征融合的人臉顏值預測[J].網絡新媒體技術,2017,6(2):7?13.
JIANG Ting, SHEN Xudong, LU Wei, et al. The prediction of facial beauty based on multi?feature fusion [J]. Journal of network new media, 2017, 6(2): 7?13.
[5] 梁銳,朱清新,廖淑嬌,等.基于多特征融合的深度視頻自然語言描述方法[J].計算機應用,2017, 37(4):1179?1184.
LIANG Rui, ZHU Qingxin, LIAO Shujiao, et al. Deep natural language description method for video based on multi?feature fusion [J]. Journal of computer applications, 2017, 37(4): 1179?1184.
[6] 趙偉.基于BP神經網絡的音樂情感分類及評價模型[J].電子設計工程,2015,23(8):71?74.
ZHAO Wei. Music emotion classification and evaluation model based on BP neural network [J]. Electronic design engineering, 2015, 23(8): 71?74.
[7] 王鐵君,王維蘭.基于多特征融合的唐卡圖像法器識別方法[J]. 計算機工程,2016,42(3):198?203.
WANG Tiejun, WANG Weilan. Religious ritual implement re?cognition method in Thangka image based on multi?feature fusion [J]. Computer engineering, 2016, 42(3): 198?203.
[8] 吳冬梅,李白萍,沈燕,等.基于多特征融合的煙霧檢測[J].圖學學報,2015,36(4):587?592.
WU Dongmei, LI Baiping, SHEN Yan, et al. Smoke detection based on multi?feature fusion [J]. Journal of graphics, 2015, 36(4): 587?592.
[9] 張鍵鋒,王勁.基于文本挖掘與神經網絡的音樂風格分類建模方法[J].電信科學,2015,31(7):86?91.
ZHANG Jianfeng, WANG Jin. A classification method of music style based on text mining and neural network [J]. Telecommunications science, 2015, 31(7): 86?91.
[10] XU Qingyong, JIANG S, HUANG W, et al. Image classification algorithm for deep belief network based on multi?feature fusion [J]. Computer engineering, 2015, 41(11): 99?120.
[11] YANG W, WEI L, ZHANG Z, et al. Road surface condition classification method based on multi?feature fusion and SVM classifier [J]. An international journal of research & surveys, 2015, 7(9): 90?134.
[12] LIU F, CHEN Z, CHAI J. A new multi?focus image fusion method based on deep neural network model [J]. Journal of Shandong University, 2016, 45(4): 89?130.
[13] SONG S, MIAO Z. Research on vehicle type classification based on spatial pyramid representation and BP neural network [C]// 2015 International Conference on Image and Graphics. [S.l.]: Springer, 2015: 132?144.