999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于模糊K-Means的MBD隨機樣本分類仿真

2023-09-20 11:24:58李靜波顧園園
計算機仿真 2023年8期
關鍵詞:分類特征方法

李靜波,顧園園

(長春工業大學人文信息學院,吉林 長春 130102)

1 引言

隨著計算機技術的飛速發展,互聯網通信或云儲存空間內留存的數據信息也在持續不斷增多[1]。面對信息量過載、信息分類不明確的網絡數據庫,用戶急切地需要一種有效的方法,以快速、準確地提取出簡潔、精練且有價值的目標信息。因此,研究人員提出將海量大數據樣本進行分類,減少用戶對目標信息的檢索時間,提高用戶對目標信息的獲取效率。

王忠震[2]等人通過噪聲樣本識別算法對樣本集中整體數據完成去噪處理,并過濾噪聲干擾強烈且無法識別的樣本數據,再利用K鄰近(KNN)聚類原理將去噪后的優化樣本集劃分成質量相同的樣本子簇,考慮到樣本子簇的類間不平衡性,需要利用AdaBoost算法合成樣本子簇的簇心,該簇心具備類間特征屬性,可以通過決策樹分類器的訓練,實現海量大數據隨機樣本的分類,但是該方法存在分類準確率低的問題。王凱亮[3]等人通過深度玻爾茲曼機(DBM)對先驗數據庫內隨機數據進行采樣,再利用極限學校機(ELM)網絡對采集到的樣本集進行訓練,獲取樣本集內負荷曲線相關的優化特征,將優化特征投入到數據集分類模型中,實現海量大數據隨機樣本的分類。但是該方法存在分類召回率低的問題。董明剛[4]等人通過Bootstrap算法選取數據塊中小類樣本組成A類樣本合集,再利用DWES算法選取數據塊中大類樣本組成B類樣本合集,分別計算兩合集內各數據的熵值大小以此構建樣本特征合集,將樣本特征合集投入基分類中,實現樣本集內整體數據的分類,但是該方法存在分類耗時長的問題。

為了解決上述方法中存在的問題,提出基于模糊K-Means的海量大數據隨機樣本分類仿真的方法。

2 數據降維及樣本特征提取

2.1 數據降維

數據降維[5]是指將冗余雜亂的海量高維數據根據點對點的映射原理改變成空間結構緊湊、處理更加便捷的低維數據,舉例來說,在網絡數據庫檢索目標信息時,數據庫內原始樣本所具備的權重向量較為復雜,這種由于樣本權重向量復雜而導致用戶對目標信息檢索失敗的問題,稱為“維度災難”,為了避免“維度災難”干擾后續的樣本特征提取工作,需要對數據庫內原始樣本進行降維處理。目前研究人員推出的降維方法包括線性辨別分析法、多維尺度分析法、主成分分析法和因子分析等,其中,常用于海量大數據隨機樣本分類的降維方法是因子分析法。

1)因子分析建模

設隨機選取的樣本集內數據總量為x,觀測樣本數據的光譜維度從而建立因子分析模型,因子分析模型的表達式如下

T(x)=δ+gH+r

(1)

2)求解因子載荷矩陣的維度頻率

以光譜維度為基礎獲取的因子載荷矩陣無論是在維度平衡方面還是在數據光譜細節方面都表現出極高的穩定性,為下一步樣本集內整體數據的降維做好充足準備。根據精度原理推導因子載荷矩陣的維度平衡向量,精度奠定原理的表達式如下

(2)

式中,π表示維度平衡常數;i∈[0,1]表示精度演算區間;dα-dβ表示鄰近樣本數據的權重差值。

根據協同方差計算公式獲取因子載荷矩陣的數據光譜細節,協同方差計算公式的表達式如下

(3)

式中,β表示協方差系數;ΔE表示光譜突出的細節位點。

已知因子載荷矩陣的維度平衡向量和數據光譜細節,利用正交近似分解算法求解因子載荷矩陣的維度頻率,正交近似分解算法的表達式如下

(4)

其中

(5)

3)因子載荷矩陣的旋轉

因子載荷矩陣的旋轉建立在因子載荷矩陣維度頻率求解成功的基礎上,其目的在于旋轉樣本集中每個單位向量數據,使數據本身的維度頻率盡可能靠近1或靠近0,以此實現樣本集內整體數據的兩極分離,進而突出每個單位向量數據與公共維度因子之間的關系,即單位向量數據的維度頻率與公共維度因子的差值越大,說明該樣本表現為高維正畸數據的概率越大,單位向量數據的維度頻率與公共維度因子的差值越小,說明該樣本表現為高維異常數據的概率越大。將兩組數據歸類,利用元素平方的相對差求和公式過濾高維異常數據,避免數據加權時,高維異常數據中心化對整體降維的影響。因子載荷矩陣的旋轉過程依靠最大分量旋轉法,旋轉后的因子載荷矩陣表示為:

其中,ε表示矩陣旋轉中心的因子參數;表示旋轉角度。

元素平方的相對差求和公式如下

(6)

4)基于加權最小二乘法的樣本集內數據降維

以優化后保留高維正畸數據的樣本集為基礎,利用加權最小二乘法對各數據進行降維,加權最小二乘法的表達式如下

(7)

2.2 基于信息熵和相關度的低維數據特征提取

經過數據降維的樣本集不僅降低了算法復雜度,還過濾掉了特征信息量較少且鄰近特征信息冗余度過密的樣本數據,使樣本集內數據特征處于提取的最優階段,基于信息熵[6]和相關度提取樣本特征的操作步驟如下:首先利用wrapper方法計算樣本集內各數據信息熵,規定信息熵閾值為c<1,若不滿足閾值條件,則淘汰數據,反之,將滿足閾值條件的數據整合為特征集,以特征集為基礎,通過姿態特征選擇算法檢測內部數據相關性,若兩數據相關性趨近于1,表示兩者特征內容重合度高,需要利用異常檢測算法[7]保留兩者間特征信息量多的一方,并淘汰特征信息量少的一方。若兩數據相關性趨近于0,表示兩者特征內容重合度低,可以省略檢測算法,同時保留雙方數據。Wrapper方法的表達式如下

(8)

式中,Qm表示任意數據m的信息熵;?表示wrapper系數。

姿態特征選擇算法的表達式如下

(9)

式中,XiYj表示數據i和數據j的相關性,當q趨近于1時,數據i和數據j的特征內容重合率滿足ωi;當q趨近于0時,數據i和數據j的特征內容重合率滿足ωj。

異常檢測算法的表達式如下

(10)

其中

(11)

式中,B表示異常檢測算法的準確率;n3表示異常檢測算法的誤檢率。

經過信息熵閾值限定和相關度檢測的樣本數據在快速收斂函數[8]內完成多次迭代,實現樣本特征的提取。快速收斂函數的表達式如下

(12)

式中,υ表示快速收斂函數的常數;m表示迭代次數;ΔK表示樣本特征矩陣。

3 基于模糊K-Means聚類算法的樣本特征分類

模糊K-Means聚類算法是以樣本特征為基礎的一種簇族式分類方法,其具體操作為:首先利用初始聚類算法獲取樣本集內多個聚類中心[9],各樣本特征值與聚類中心之間的距離被稱為歐氏距離,視聚類中心為圓點中心,將歐氏距離不超過Lk的樣本特征劃分為一簇,以簇為單位,利用模糊K-Means聚類算法[10]獲取各簇族的類別系數,根據最優聚類標準將類別系數相同的簇族進行歸一化處理,得到基于模糊K-Means聚類算法的特征樣本分類矩陣。模糊K-Means聚類算法流程如下圖1所示。

圖1 模糊K-Means聚類算法流程

設待分類的樣本特征集為k,且每個樣本特征都與矩陣中的低維樣本數據一一對應。將樣本特征集輸入初始聚類算法中獲取該特征集的多個聚類中心[11]。初始聚類算法的表達式如下

(13)

式中,q表示初始聚類系數;k,l∈[0,1]表示聚類中心閾值;R(k·l)表示滿足聚類中心限制條件的樣本特征數[12,13]。

在成功獲取樣本特征集多個聚類中心后,觀察各樣本特征值與聚類中心之間的歐氏距離,完成樣本特征簇族單位的劃分,并以此為基礎,加入模糊K-Means聚類算法獲取各簇族的類別系數。模糊K-Means聚類算法的表達式如下

(14)

最優聚類標準的表達式如下

(15)

式中,f(x)表示最優聚類系數;f(y)表示類別系數歸一化參數[14,15];Sc表示特征樣本分類矩陣。根據特征樣本分類矩陣實現海量大數據隨機樣本的分類。

4 實驗與分析

為了驗證基于模糊K-Means的海量大數據隨機樣本分類仿真的整體有效性,需要對其進行測試。

選擇1000篇新聞稿件組成樣本數據集A,稿件主題涉及時政、經濟、娛樂、新媒體等30多個類別;選擇3000篇語言類稿件組成樣本數據集B,稿件語言涉及英文、俄文、日文等20多個類別;選擇5000篇說明書類稿件組成樣本數據集C,稿件內容涉及機械、計算機、工業機器等10多個類別,上述三組樣本集內各數據信息的關鍵詞、樣本特征、類別屬性均無序且混亂,分別采用不同方法對三組樣本數據集進行分類,測試指標為準確率、召回率、F1值以及分類時間。準確率、召回率、F1值的計算式如下

(16)

式中,N表示樣本數據的總數;accuracy表示準確率;recall表示召回率。

1)準確率

對比所提方法、文獻[2]方法和文獻[3]方法的分類準確率,進而評估不同方法的分類性能。不同方法的準確率對比如圖2所示。

由圖2可見,所提方法在三組樣本數據集中的分類準確率均不低于95%,說明所提方法在面對任意樣本數據集時均能表現出精確度較高的分類能力,這是因為所提方法利用因子分析法對樣本數據集進行降維,從而得到運算簡便的低維數據,低維數據的獲取不僅提高了樣本特征的分類準確度,還加快了樣本數據集的分類速度,大大提升了用戶獲取目標信息的效率。文獻[2]方法和文獻[3]方法在三組樣本數據集中的分類準確率分別不超過70%和50%,兩者均與所提方法存在一定差距,說明文獻[2]方法和文獻[3]方法的分類精確度較低。經上述對比可知,所提方法的分類準確率高。

2)召回率

為了進一步驗證不同方法的分類性能,對比提方法、文獻[2]方法和文獻[3]方法的召回率,對比結果如下圖3所示。

圖3 不同方法的召回率對比

由上圖3可見,所提方法在三組樣本數據集中的召回率均接近100%,說明所提方法具備良好的分類能力和穩定性。文獻[2]方法和文獻[3]方法在三組樣本數據集的召回率分別低于60%和50%,說明文獻[2]方法和文獻[3]方法的分類能力較差,與所提方法存在較大差距。經上述對比,進一步驗證了所提方法的分類性能更強。

3)F1值

通過F1對精度和召回率進行整體評價,以突出所提方法的性能優勢。不同方法的F1值對比如下圖4所示。

圖4 不同方法的F1值對比

由上圖4可見,所提方法在三組樣本數據集中的F1值均不低于90%,而文獻[2]方法和文獻[3]方法在三組樣本數據集中的F1值分別低于75%和65%,可見所提方法在分類能力上明顯優于傳統方法。

4)分類時間

采用不同方法對樣本數據集進行分類所消耗的時間與該方法的分類效率成反比,觀察所提方法、文獻[3]方法和文獻[4]方法對三組樣本數據集進行分類所消耗的時間,為避免統計學誤差,同時計算三組樣本數據集的平均分類時間。不同方法的分類時間對比如下表1所示。

表1 不同方法的分類時間對比

由上表1可知,所提方法在三組樣本數據集中的分類時間及平均分類時間均低于1s,說明所提方法能夠快速實現海量數據的分類,適用于發展迅速的大數據網絡時代。文獻[3]方法和文獻[4]方法在三組樣本數據集的分類時間及平均分類時間分別超過1.19s和2.26s,兩者與所提方法存在一定差距。經上述對比可知,所提方法的分類耗時短,分類效率高。

5 結束語

在科技快速發展的現代社會,大數據儼然成為互聯網熱頻詞匯,如何處理大數據規模下的冗余雜亂的信息,使用戶能夠在數萬億Web搜索內容中鎖定目標信息,已成為研究人員需要重點解決的問題。如何在引入模糊K-Means聚類算法的基礎上,查明樣本分類過程中數據流拓撲并行化的機制是研究人員下一步工作的重點。

猜你喜歡
分類特征方法
分類算一算
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 亚洲女同欧美在线| 欧美精品在线看| 视频一区亚洲| 青青青国产精品国产精品美女| 日韩东京热无码人妻| 成人免费网站在线观看| 欧美成人第一页| 日本午夜三级| 国产经典三级在线| 国产91导航| 亚洲欧美不卡| 无码高潮喷水专区久久| 亚洲综合专区| 午夜精品国产自在| 呦系列视频一区二区三区| 国产一区二区三区免费观看| 亚欧美国产综合| 国产区免费| 亚洲人成亚洲精品| 2021国产乱人伦在线播放 | 亚洲日产2021三区在线| 欧亚日韩Av| AV熟女乱| 十八禁美女裸体网站| 亚洲国产精品日韩欧美一区| 亚洲中文字幕23页在线| 亚洲国产精品人久久电影| 国产亚洲精品91| 久久女人网| aⅴ免费在线观看| 漂亮人妻被中出中文字幕久久| 国产成人凹凸视频在线| 国产在线第二页| 四虎成人免费毛片| 国产精品私拍在线爆乳| 欧美成人怡春院在线激情| 2021国产v亚洲v天堂无码| 国内精品久久九九国产精品 | 国产成人精彩在线视频50| 久久大香香蕉国产免费网站| 日本中文字幕久久网站| 国产菊爆视频在线观看| 国产青榴视频| 国内精品久久人妻无码大片高| 欧美亚洲另类在线观看| 久久美女精品| 国产va在线观看免费| 日韩福利在线视频| 亚亚洲乱码一二三四区| 91高清在线视频| 国产成人亚洲日韩欧美电影| 日韩欧美一区在线观看| 日本成人精品视频| 无码一区二区波多野结衣播放搜索| 在线国产资源| 中日无码在线观看| 欧美国产视频| 免费无码AV片在线观看国产| 国产乱人伦偷精品视频AAA| 国产男人的天堂| 亚洲精品无码不卡在线播放| 午夜国产精品视频| 噜噜噜久久| 国产精品毛片一区视频播| 免费一级毛片完整版在线看| 国产一在线| 这里只有精品国产| 国产黄网永久免费| 国产精品女熟高潮视频| 免费国产福利| 中文字幕久久波多野结衣| 午夜啪啪网| 亚洲最新网址| 国产精品19p| 精品国产成人三级在线观看| 久久精品人人做人人综合试看| 国产精品免费p区| 亚洲人成人伊人成综合网无码| 好吊妞欧美视频免费| 欧美人与动牲交a欧美精品| 亚洲AV无码乱码在线观看裸奔 | 国产丝袜91|