999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

具有潛在表示和動態(tài)圖約束的多標簽特征選擇

2024-01-01 00:00:00李坤劉婧齊赫
吉林大學學報(理學版) 2024年5期

摘要:針對現有嵌入式方法忽略實例相關性的潛在表示對偽標記學習的影響以及固定的圖矩陣導致計算誤差隨迭代的加深而不斷增大的問題,提出一種具有潛在表示和動態(tài)圖約束的多標簽特征選擇方法.該方法首先利用實例相關性的潛在表示構造偽標簽矩陣,并將其與線性映射和最小化偽標簽與真實標簽之間的Friedman范數距離相結合,從而保證偽標簽與真實標簽之間具有較高的相似性,其次,利用偽標簽的低維流形結構構建動態(tài)圖,以緩解固定圖矩陣導致的隨迭代深度增加計算誤差的問題.在12個數據集上與7種先進方法的對比實驗結果表明,該方法的整體分類性能優(yōu)于現有先進方法,能較好地處理多標記特征選擇問題。

關鍵詞:多標簽學習;特征選擇;潛在表示;動態(tài)圖;流形學習

中圖分類號:TP181文獻標志碼:A文章編號:1671-5489(2024)05-1188-15

Multi-label Feature Selection with Latent Representationand Dynamic Graph Constraints

LI Kun',LIUJing',QI He'

(1.ZX-YZ School of Network Science,Haikou University of Economics,Haikou 570203.China;2.Zhijiang Laboratory,Hangzhou 311000,China)

Abstract:Aiming at the problems that ignored by the existing embedded methods:the influence of the latent representation of instance correlation on pseudo-label learning,and the calculation error was caused by the fixed graph matrix,which increased with the deepening of iterations.We proposed a multi-label feature selection method with latent representation and dynamic graph constraints.Firstly,the proposed method used the latent representation of instance correlation to construct the pseudo-label matrix,and combined it with linear mapping and minimizing the Friedman norm distance between the pseudo-label and the ground-truth label to ensure a high similarity between pseudo-labels and the ground-truth labels.Secondly,the dynamic graph was constructed by using the low-dimensional manifold structure of pseudo-labels to alleviate the problem of increasing calculation error with iteration depth caused by a fixed graph matrix.The comparative experimental results with seven advance methods on 12 datasets show that the overall classification performance of the proposed method is superior to the existing advanced methods,and it can better deal with multi-label feature selection problems.

Keywords:multi-labellearning;featureselection;latentrepresentation;dynamicgraph;manifold learning

多標簽分類在圖像分類[1]、文本分類[34]和生物信息學[5]等領域應用廣泛,與傳統(tǒng)的單標簽分類任務不同,多標簽分類任務需考慮標簽之間的相關性和復雜性,在多標簽分類中,特征選擇可以幫助提高分類器的準確性和效率,因此,多標簽特征選擇作為多標簽分類問題中的一個重要預處理步驟,已引起研究者們的廣泛關注,隨著機器學習技術的發(fā)展,特征選擇方法也在不斷改進,為多標簽分類任務的應用提供了更完善和有效的解決方案。目前,已有多種方法解決多標簽特征選擇問題,這些方法主要分為三類:過濾式[8-10]、封裝式[11-12]和嵌入式[13-14]。過濾式是一種基于特征之間相關性進行特征選擇的方法,常用的計算相關性方法包括互信息[15-16]、卡方檢驗和Pearson相關系數[7]等,封裝式是一種基于模型性能進行特征選擇的方法,它將特征選擇視為一個搜索問題,其中模型的性能用于評估函數.嵌入式是將特征選擇嵌入到分類模型的訓練中,使分類模型可以同時學習特征選擇和分類任務.

本文主要研究嵌入式多標簽特征選擇方法的一個重要分支.該分支基于線性映射,即假設特征空間和真實標簽空間(或偽標簽空間)之間是線性相關的,這類方法常利用特征和標簽間線性映射的系數矩陣表示特征權重,并采用L1范數、L21范數等稀疏正則項約束模型的稀疏性,此外,由于流形學習[18]的快速發(fā)展,其在協同聚類算法[19]、特征選擇算法[20-21]、維數簡約[22-24]等多領域應用廣泛.在特征選擇算法中,流形學習可為特征選擇提供合適的圖矩陣,并指導特征權重矩陣的學習,以確保映射空間與特征空間拓撲結構的一致性.同時,由于流形學習的引入,利用Laplace變換探索特征流形結構或標簽流形結構進行特征選擇的方法得到了廣泛關注[25-26].例如,Hu等[27]使用特征流形和低維標簽流形約束模型,提出了DRMFS(robust multi-label feature selection with dual-graph regularization),在DRMFS中雙圖正則化約束的是特征權重矩陣而不是偽標簽矩陣,從而保證了特征權重矩陣的行和列分別擬合特征流形結構和低維標簽流形結構,Huang等[28]為進一步挖掘偽標簽與真實標簽之間的相關性,在特征選擇模型中引入了Hilbert-Schmidt獨立性準則[2],并結合特征流形和L2.1范數稀疏約束,提出了MRDM(multi-label feature selection via manifold regularization and dependence maximization).Li等[30]認為現有方法中的稀疏約束無法保證特征間的可區(qū)分性,從而設計了一種魯棒靈活稀疏正則化范數,并結合低維標簽流形,提出了RFSFS(multi-label featureselection via robust flexible sparse regularization).

但上述方法均忽略了潛在表示[31]可以深度挖掘模型中的潛在監(jiān)督信息.因此,Gao等[32]在特征選擇模型中引入了潛在表示,并基于此構建了原始特征空間和原始標簽空間的潛在共享空間作為模型的監(jiān)督信息,此外,還利用特征流形保證潛在共享空間和原始特征空間流形結構的一致性,再結合范數作為稀疏約束,提出了SSFS(multilabel feature selection with constrained latent structure shared term).雖然SSFS通過引入潛在表示挖掘模型中的潛在監(jiān)督信息,但忽略了更深層的潛在信息,即實例相關性的潛在表示對偽標簽的影響.上述方法均忽略了影響特征選擇性能的一個因素,即在流行學習中,固定的圖矩陣可能會隨迭代的加深不斷放大模型的計算誤差.為解決該問題,研究者們相繼提出了通過構建動態(tài)圖代替固定圖從而達到緩解模型誤差累加的問題.如Li等[33]通過同時考慮潛在表示和動態(tài)圖約束,提出了SLMDS(robust sparse and low-redundancy multi-label feature selection with dynamic local and global structure preservation).雖然SSFS[32]和SLMDS[3]都考慮了潛在表示在特征選擇中的應用,但這些方法都僅考慮了特征或標簽的潛在表示,而忽略了實例相關性的潛在表示對偽標簽學習的影響.

此外,嵌入式多標簽特征選擇方法的另一個分支是基于信息論的方法,這類方法常利用互信息量化特征重要性,從而實現特征選擇.在這類方法中,較經典的模型有PMU(feature selection formulti-label classification using multivariate mutual information)[34],MDMR(multi-label feature selection based on max-dependency and min-redundancy)[as],FIMF(fast multi-label feature selection based on information-theoretic feature ranking)[36]和SCLS(multi-label feature selection based on scalable criterion for large label set)[37]等,PMU是利用多元互信息進行多標簽分類的特征選擇方法,由于該方法只考慮了特征與標簽之間的三維交互,對高階標簽數據可能會丟失重要信息,并且高階多元互信息的計算代價非常高.FIMF是一種快速的特征選擇方法,該模型根據特征的重要性對特征進行排序,以達到特征選擇的目的,MDMR通過互信息量化特征相關性和特征冗余性,并約束特征相關性最大化和特征冗余性最小化.SCLS是一種基于大標簽集可擴展標準的特征選擇方法,但SCLS中的特性和標簽的組合呈指數級增長,使特性選擇變得不切實際.

1模型構建

特征選的目標是利用給定的訓數據集D={X.Y構建函數:(X.Y)→(X.Y)并通過函數去除不相關和冗余特征,選擇出最具代表性的特征子集X*,從而提高分類器的性能,其中X∈R為實例集,Y∈R\"Xm為真實標簽集,n,d和m分別表示實例數、特征數和標簽數.

由于線性回歸具有較強的可解釋性,且其損失函數便于求解,因此本文用線性回歸作為特征選擇模型的基本框架:

其中1。∈R“為元素全為1的n維行向量;b∈R”為m維行向量,表示線性映射的偏置向量;W∈Rm為權重矩陣,可以量化特征重要性;R(W)為關于W的懲罰函數,用于約束W的學習;y為關于R(W)的懲罰參數.

考慮到真實標簽的二值性與線性映射的平滑性不符,因此本文引入偽標簽作為真實標簽的過渡變量擬合線性映射。此外,為保證偽標簽包含真實標簽的重要信息,還需要約束偽標簽和真實標簽之間的相似性,從而式(1)可重新表述為

其中:V∈R\"Xm為偽標簽矩陣;R(V)為關于V的懲罰函數,用于約束V的學習;β為關于R(V)的懲罰參數.

近年來,由于潛在表示學習有利于許多數據挖掘和機器學習任務,因此已引起研究者們的廣泛關注.特別是在多標簽特征選擇任務中,實例通常具有高維的特征和大規(guī)模的標簽.不同的實例具有不同的標簽信息,不同實例之間的潛在表示相互作用,形成連接信息,可用作偽標簽學習的監(jiān)督信息。例如,SSFS[32]和SLMDS[34]都傾向于使用實例和真實標簽的潛在表示指導偽標簽的學習,但忽略了實例相關性的潛在表征對偽標簽的影響.

如果兩個實例X.和X.之間較相似,則認為它們之間的潛在表示也相似,從而存在一條連接路徑,反之則沒有連接路徑.一般地,連接信息的潛在表示可由一個對稱的非負矩陣分解模型形成,再結合特征選擇模型,可使用該模型將實例相似矩陣Sx分解為低維潛在空間中的非負偽標簽矩陣V和VT的乘積,用公式表示為

其中Sx為實例相似矩陣,其元素表示對應兩實例間的相似度.

令R(V)=‖Sx-VVT‖,則可將式(2)更新為

此外,W作為特征權值矩陣,在模型中起至關重要的作用,特別是在后續(xù)的特征選擇過程中,W的優(yōu)劣會直接影響模型的性能.由于特征流形可以保證W具有類似于原始特征空間的流形結構,因此近年來越來越多的模型使用特征流形約束W的學習,但這些使用特征流形的方法卻忽略了一個關鍵問題,即使用固定的Laplace圖矩陣構造特征流形模型,而忽略了圖矩陣在特征選擇中的動態(tài)變化.并且不同方式學習到的圖矩陣對后續(xù)的更新策略有不同的影響,從而導致模型的局限性.

為解決該問題,本文利用偽標簽的低維流形結構構造一個動態(tài)Laplace圖矩陣,并利用該動態(tài)圖約束特征權值矩陣的學習.根據問題假設:若偽標簽中V.,和V.,較相似,則權重矩陣中w.,和W.,也應該較相似,從而有

其中:tr(·)表示矩陣的跡;W.;和W.;分別表示W的第i列和第j列向量;LrER“×”表示關于S,T的Laplace矩陣,L=P-S,T,P,ER“X”為對角矩陣,(P,T),=Z(ST),,S,rER“X”為偽標簽矩陣V的低維相似矩陣,(Svr);為第i行、第j列元素,表示V.;和V.,的相似度.本文使用高斯核函數[38]計算SyT:

其中:oER表示高斯核函數的參數;V.,和V.,分別表示v的第;列和第;列向量;Nk(.)表示矩陣的K近鄰,K是近鄰參數.

令R(W)=tr(WL,rWT),則可將式(4)更新為

為保證V的非負性,需要約束W也是非負的,從而構建LRLDG模型的最終目標函數為

其中α為正則項參數.

2優(yōu)化求解

本文設計一個簡單而有效的優(yōu)化方案求解目標函數(8),考慮到目標函數(8)中的兩個變量有非負約束,因此使用非負矩陣分解(nonnegative matrix factorization,NMF)[39]和交替迭代的方法求解目標函數(8).

首先,固定W和V求解b.當W和V固定時,式(8)是關于b的凸函數,所以求出式(8)關于b的導函數,并令導函數為0,則可得b的更新公式為

其次,固定b求解W和V.由于對任意矩陣M.,存在1 M11;=tr(MMT),所以可將式(9)代入目標函數(8),并使用矩陣跡的形式重新表述目標函數(8):

其中H=1——1.17是中心矩陣,IER\"\"是》維單位矩陣.

考慮到變量W和V都具有非負約束,因此在求解過程中,需要將變量w和v的非負約束整合到目標函數中,然后才能繼續(xù)進行NMF過程.構造以下Lagrange公式:

其中L(W,V)表示關于W和V的Lagrange函數,ФE R“X”和ΨERdX\"均為Lagrange乘子.

下面進行NMF過程.首先,分別計算式(11)關于W和V的導函數:

其中

Diag(·)和diag(·)分別表示向量對角矩陣化和矩陣對角向量化,E表示元素全為1的m維列向量.其次,通過KKT(Karush-Kuhn-Tucker)定理[0]的互補松弛條件可得:V=0,W=0.從而可得

其中。表示兩矩陣的Hadamard積.

最后,根據式(14)和NMF的計算規(guī)則可得W和V的更新公式:

其中

至此已完成了對目標函數(8)的求解.此外,本文還設計了如下一種新的具有收斂性的交替迭代算法對模型進行優(yōu)化求解.

算法1LRLDG算法.

輸入:訓練數據集D={X,Y},特征選擇數量k,超參數a,β和y;

輸出:特征選擇結果F;

1)初始化中心矩陣H=1-2)隨機初始化W和V;

3)初始化迭代次數t=0;

重復:

根據式(6)計算PT和ST;

更新U:U=ー-s·(diag(W)+dagw)-2W)

更新W和V:

更新b:b=(y-x

更新t:t=t+1;

直到收斂為止;

4)計算并排序‖W1.‖2,找出前k個最大值的索引賦給F5.

3算法收斂性證明

下面給出LRLDG算法的收斂性證明.

定義1[41]如果Z(W,W)和F(W)滿足以下條件:

則Z(W,W)是F(W)的一個輔助函數,其中W是W在上一步迭代中的更新值.

引理1如果定理1成立,則F(W)基于以下形式單調遞減:

其中argminZ(W,W)表示第t次迭代的最優(yōu)解.

命題1[42]對任何矩陣A∈Rmxm,B∈Rdxd,W,W∈Rdxm.如果A∈Rmxm,B∈Rdxd都是對稱矩陣,則以下不等式成立:

根據命題1,易得如下引理.

引理2如果命題1中的A∈Rmxm是一個m維單位矩陣,則以下不等式成立:

考慮到LRLDG算法關于W和V的收斂性證明類似,所以本文僅給出關于W的收斂性證明.結合式(8),可將定義1中的F(W)改寫為

其中2=XTHX是對稱矩陣.根據式(21),可給出輔助函數Z(W,W)的具體形式為

由引理1可知,若Z(W,W)是F(W)的一個輔助函數,則LRLDG算法關于W是收斂的.因此,只需證明Z(W,W)是F(W)的一個輔助函數即可.

首先,根據矩陣跡的計算規(guī)則可得

其次,根據引理2可得

結合式(23)和式(24),可知Z(W,W)≥F(W)成立.此外,當W=W時,根據矩陣跡的計算規(guī)則,式(24)可重寫為

結合式(23)和式(25),可知當W=W時,Z(W,W)=F(W)成立.

由定理1可知Z(w,W)是F(W)的一個輔助函數,再由引理1可知,LRLDO算法關于W是收的.此外,滿足2(W.W)=0的W*是W的全局最優(yōu)解.綜上所述,LRLDG算法的收斂性得證.

4實驗

下面將LRLDG算法與7個現有的先進算法PMU[34],SCLS[37],FIMF[36],MDMR[35],SSFS[32],RFSFS30]和SLMDS33]進行對比實驗,并利用統(tǒng)計檢驗的方式對比所有特征選擇方法的整體性能.此外,為深度剖析本文方法的性能,還設計了針對LRLDG算法的一系列實驗,包括參數敏感性實驗和收斂性實驗等.

4.1數據集

對比實驗中,采用從木蘭圖書館[3]獲取的12個來自5個不同領域的經典多標簽數據集,其中包括音樂數據集Emotion,生物數據集Yeast和Genbase,聲音數據集Birds和CAL500,圖像數據集Scene,Image和Flags,文本數據集Enron,Computer,Recreation和Social.表1列出了所有數據集的具體參數.

4.2實驗設置

實驗選用ML-KNN]作為多標簽分類算法的代表對各特征選擇算法的性能進行評價,并將ML-KNN的參數設置為S=1,K=10.選用5個多標簽評價指標AP(average precision),MA(macro-F1),MI(micro-F1),HL(Hamming loss)和RL(ranking loss)量化并對比各特征選擇算法的性能.

為使數據集適用于FIMF和SCLS等算法,采用等寬區(qū)間對數據進行離散化處理[6].對于SSFS,RFSFS和LRLDG算法,將其近鄰參數設為5.此外,由于SSFS,RFSFS,SLMDS和LRLDG算法存在隨機初始化變量的問題,為保證實驗結果的準確性,因此本文選取各算法10次實驗結果的均值作為最終實驗結果.最后,采用網格搜索策略對各算法的正則化參數進行調整,并將調整范圍設為[0.001,0.01,0.1,1,10,100,1000],將在各數據集上選擇的特征數量設為2%~20%,步長為2%,其中由于數據集Flags的原始特征數為19,所以在數據集Flags上選擇的特征數量設為2~18.

為保證實驗環(huán)境的公平性,所有實驗均在Windowsl1系統(tǒng),ADM銳龍495536006核處理器3.59GHz,內存16.00GB環(huán)境中完成,并使用MATLABR2016a實現.

4.3實驗結果分析

下面給出并分析所有特征選擇方法在各評價指標上的對比實驗結果.

表2~表6列出了各特征選擇方法在其最優(yōu)參數下的最優(yōu)實驗結果,其中SSFS,RFSFS,SLMDS和LRLDG算法給出的是10次重復實驗結果的均值.為方便觀察,在表2~表6中,“()”中給出各實驗結果的簡單排序結果,并在表中最后一行給出各特征選擇方法在同一指標下所有實驗結果的均值,用于觀察各特征選擇方法的整體性能.由表2~表6可見,LRLDG算法在所有指標下的整體性能均為最優(yōu),表明與對比方法相比,LRLDG算法在處理多標簽特征選擇問題上有一定的優(yōu)越性.

表2和表3分別列出了所有方法在HL和RL指標上的實驗結果,其值越小表示算法的性能越好.由表2可見,LRLDG算法在數據集Image上的性能相對于次優(yōu)算法SLMDS的性能提升了3.93%,在數據集Recreation上的性能相對于次優(yōu)算法SSFS的性能提升了4.03%.由表3可見,相對于性能次優(yōu)的MDMR算法,LRLDG算法在數據集Flags上的性能提升了4.3%.

表4~表6分別給出了各算法在AP,MA和MI指標上的最優(yōu)結果,其值越大表示算法的性能越好.在表4~表6的36組對比實驗中,LRLDG算法獲得了25個最優(yōu)和5個次優(yōu)的結果.表明LRLDG算法相對于其他對比算法有一定的優(yōu)越性.在數據集Recreation上,LRLDG算法在AP,MA和MI指標上的性能相對次優(yōu)算法SSFS的性能分別提升了6.13%,26.01%和30.45%.由表5可見,LRLDG算法在數據集Computer上的性能比次優(yōu)算法RFSFS的性能提升了11.74%.

各特征選擇算法在不同數據集上取不同特征數量時的性能變化情況如圖1~圖5所示,其中橫軸表示選擇的特征數量,縱軸表示各算法在相應指標上的實驗結果.由圖1~圖5可見,大多數情況下,LRLDG算法的性能曲線始終位于最優(yōu)或次優(yōu)的位置,進一步證實了LRLDG算法的整體性能優(yōu)于其他算法.由圖1和圖2可見,LRLDG算法的性能曲線均在其他算法性能曲線的下方,說明在各實驗數據集上,LRLDG算法在HL和RL指標上的性能均優(yōu)于其他算法.尤其是在數據集Yeast,Computer,Recreation,Image和Flags上,LRLDG算法的性能優(yōu)勢更明顯.由圖3~圖5可見,多數情況下,LRLDG算法在AP,MA和MI指標上的性能曲線先明顯上升再趨于穩(wěn)定.尤其是在圖5(G)中,由于數據集Flags的特征僅有19個,LRLDG算法在AP指標的性能先持續(xù)上升,當選擇的特征數為15時LRLDG算法的性能達到最優(yōu),然后再快速下降.表明LRLDG算法在處理特多標簽征選擇問題上有效且有意義.雖然LRLDG算法在數據集Birds,CAL500和Genbase上的性能略不如SLMDS和RFSFS等算法,但在其他數據集上的性能和整體性能上都表明了LRLGD算法的有效性和優(yōu)越性.

4.4參數敏感性分析

下面通過參數敏感性實驗觀察并分析LRLDG算法中各參數對其性能的影響,實驗選用AP指標,并使用數據集Scene.實驗中,將LRLDG算法中的一個正則化參數在[0.001,0.01,0.1,1,10,100,1000]內調整,并固定另外兩個正則化參數為1,以便于觀察LRLDG算法的性能隨參數的變化情況.此外,本文還將實驗數據集Scene的特征選擇范圍調整為[14,28,42,56,70,84,98],以便于觀察選取不同特征數量時各正則化參數對LRLDG算法的性能變化情況.實驗結果如圖6所示.

由圖6可見,對于所有參數,LRLDG算法在AP指標上的性能會隨著特征數量的增加而上升,從而進一步證實了LRLDG算法對解決特征選擇問題有效.在圖6(C)中,雖然當參數y=102時,LRLDG算法的性能波動略大,但由圖6(A),(B)可見,隨著參數a和β的增大,LRLDG算法的性能也逐漸提升,且趨于穩(wěn)定.

4.5收斂性與時間復雜度分析

為進一步證實LRLDG算法的收斂性,下面在數據集Birds,Emotion,Flags和Image上設計針對LRLDG算法的收斂性實驗,設LRLDG算法中各正則項參數的值為1,并將迭代次數設為50,觀察LRLDG算法的目標函數值變化情況,實驗結果如圖7所示,其中橫軸表示迭代次數,縱軸表示目標函數值.由圖7可見,LRLDG算法均能在10次迭代內收斂.

一般情況下在多標簽數據集中n≥m,d≥m.LRLDG算法主要更新W,V和U.其中在每次迭代中更新W的時間復雜度為O(d2n),更新V的時間復雜度為O(dn2),更新U的時間復雜度為O(m2),所以在t次迭代中LRLDG算法的總時間復雜度為O(tdn2+td2n+tm2).LRLDG算法可以在迭代次數t較小時達到收斂,所以LRLDG算法的總時間復雜度為O(dn2+d2n+m2).

綜上所述,針對現有嵌入式方法忽略實例相關性的潛在表示對偽標記學習的影響以及固定的圖矩陣導致計算誤差隨迭代的加深而不斷增大的問題,本文設計了一種新的具有潛在表示學習和動態(tài)圖約束的多標簽特征選擇方法LRLDG.該方法首先利用實例相關性的潛在表示學習指導偽標簽的學習,并利用偽標簽的低維流形結構構造動態(tài)圖矩陣,以緩解由固定的圖矩陣導致的計算誤差隨迭代次數的增加不斷增大的問題.其次,LRLDG算法通過最小化偽標簽和真實標簽之間的Friedman范數距離,并結合標簽流形學習保證偽標簽和真實標簽的高度相關性.最后,在12個基準多標簽數據集上將LRLDG算法與7種先進的現有方法進行了對比實驗,在7個常用評價指標上的實驗結果均驗證了LRLDG算法良好的特征選擇性能.

參考文獻

[1]WU J,SHENG V S,ZHANG J,etal.Multi-label Active Learning Algorithms for Image Classification:Overview and Future Promise[J].ACM Computing Surveys(CSUR),2020,53(2):1-35.

[2]YU W J,CHEN Z D,LUO X,etal.Delta:A Deep Dual-Stream Network for Multi-label Image Classification[J].Pattern Recognition,2019,91:322-331.

[3]WANG B Y,HU X G,LI P P,etal.Cognitive Structure Learning Model for Hierarchical Multi-label Text Classification[J].Knowledge-Based Systems,2021,218:106876-1-106876-13.

[4] XIONG J,YU L,NIU X,etal.Xrr:Extreme Multi-label Text Classification with Candidate Retrieving and Deep1201 Ranking[J].Information Sciences,2023,622:115-132.

[5]GUO Y M.CHUNG F L,LI G Z,etal.Multi-label Bioinformatics Data Classification with Ensemble Embedded Feature Selection[J].IEEE Access,2019,7:103863-103875.

[6]KASHEF S.NEZAMABADI-POUR H.NIKPOUR B.Multilabel Feature Selection:A Comprehensive Review and Guiding Experiments[J].Wiley Interdisciplinary Reviews:Data Mining and Knowledge Discovery,2018,8(2):e1240-1-e1240-29.

[7]YIN H,YANG S Q,SONG X Y,etal.Deep Fusion of Multimodal Features for Social Media Retweet Time Prediction[J].World Wide Web,2021,24:1027-1044.

[8]DING CC,ZHAO M,LIN J,etal.Multi-objective Iterative Optimization Algorithm Based Optimal WaveletFilter Selection for Multi-fault Diagnosis of Rolling Element Bearings[J].ISA transactions,2019,88:199-215.

[9]LABANI M,MORADI P.AHMADIZAR F,etal.A Novel Multivariate Filter Method for Feature Selection in Text Classification Problems[J].Engineering Applications of Artificial Intelligence,2018,70:25-37.

[10]YAO C,LIU Y F,JIANG B,etal.LleScore:A New Filter-Based Unsupervised Feature Selection Method Based on Nonlinear Manifold Em bedding and Its Application to Image Recognition[J].IEEE Transactions on Image Processing,2017,26(11):5257-5269.

[11]GONZáLEZ J,ORTEGA J,DAMAS M,etal.A New Multi-objective Wrapper Method for Feature Selection-Accuracy and Stability Analysis for BCI[J].Neurocomputing,2019,333:407-418.

[12]JADHA V S,HE H M,JENKINS K.Information Gain Directed Genetic Algorithm Wrapper Feature Selection for Credit Rating[J].Applied Soft Computing,2018,69:541-553.

[13]MALDONADO S,LOPEZ J.Dealing with High-Dimensional Class-Imbalanced Datasets:Embedded Feature Selection for SVM Classification[J].Applied Soft Computing,2018,67:94-105.

[14]KONG Y C,YU T W.A Graph-Embedded Deep Feedforward Network for Disease Outcome Classification and Feature Selection Using Gene Expression Data[J].Bioinformatics,2018,34(21):3727-3737.

[15]DONG H B,SUN J,LI T,etal.A Multi-objective Algorithm for Multi-label Filter Feature Selection Problem[J].Applied Intelligence,2020,50:3748-3774.

[16]HU L,GAO L B,LI Y H,etal.Feature-Specific Mutual Information Variation for Multi-label Feature Selection[J].Information Sciences,2022,593:449-471.

[17]馬盈倉,張要,張寧,等。基于流形學習與L21范數的無監(jiān)督多標簽特征選擇[J].紡織高校基礎科學學報,2021,34(3):102-111.(MA Y C,ZHANG Y,ZHANG N,et al Unsupervised Multi-label Feature Selection Based on Manifold Learning and L2.1 Norm[J].Basic Sciences Journal of Textile Universities,2021,34(3):102-111.)

[18]CHEN J,ZHONG M,LI J X,etal.Effective Deep Attributed Network Representation Learning with Topology Adapted Smoothing[J].IEEE Transactions on Cybernetics,2021,52(7):5935-5946.

[19]HU X C,SHEN Y H,PEDRYCZ W,etal.Identification of Fuzzy Rule-Based Models with Collaborative Fuzzy Clustering[J].IEEE Transactions on Cybernetics,2021,52(7):6406-6419.

[20]張要,馬盈倉,楊小飛,等.結合流形結構與柔性嵌入的多標簽特征選擇[J].山東大學學報(理學版),2021,56(7):91-102.(ZHANG Y,MA Y C,YANG X F,etal.Multi-label Feature Selection Based on ManifoldStructure and Flexible Embedding[J].Journal of Shandong University(Natural Science),2021,56(7):91-102.)

[21]張要,馬盈倉,朱恒東,等.結合流形學習與邏輯回歸的多標簽特征選擇[J].計算機工程,2022,48(3):90-99.(ZHANG Y,MA Y C,ZHU H D,etal.Multi-label Feature Selection Combining Manifold Learning and Logistic Regression[J].Computer Engineering,2022,48(3):90-99.)

[22]LIU K Y,YANG X B,FUJITA H,etal.An Efficient Selector for Multi-granularity Attribute Reduction[J].Information Sciences,2019,505:457-472.

[23]CHEN Y.LIU K Y,SONG J J,etal.Attribute Group for Attribute Reduction[J].Information Sciences,2020,535:64-80.

[24]JING Y G,LI T R,FUJITA H,etal.An Incremental Attribute Reduction Approach Based on Knowledge Granularity with a Multi-granulation View[J].Information Sciences,2017,411:23-38.

[25]KAWANOS.Semi-supervised Logistic Discrimination via Labeled Data and Unlabeled Data from Different SamplingDistributions[J].Statistical Analysis and Data Mining:The ASA Data Science Journal,2013.6:472-481.

[26]KAWANO S,MISUMI T,KONISHI S.Semi-supervised Logistic Discrimination via Graph-Based Regularization[J].Neural Processing Letters,2012,36:203-216.

[27]HU J C,LI Y H.GAO W F,etal.Robust Multi-label Feature Selection with Dual-Graph Regularization[J].Knowledge-Based Systems,2020,203:106-126.

[28]HUANG R,WU Z J.Multi-label Feature Selection via Manifold Regularization and Dependence Maximization[J].Pattern Recognition,2021,120:108149-1-108149-12.

[29]GRETTON A,BOUSQUET O,SMOLA A,etal.Measuring Statistical Dependence with Hilbert-Schmidt Norms[C]//Proceedings of the International Conference on Algorithmic Learning Theory.Berlin:Springer,2005:63-77.

[30]LI Y H,HU L,GAO W F.Multi-label Feature Selection via Robust Flexible Sparse Regularization[J].Pattern Recognition,2023,134:109074-1-109074-15.

[31]TANG C,BIAN M R,LIU X W,etal.Unsupervised Feature Selection via Latent Representation Learning and Manifold Regularization[J].Neural Networks,2019,117:163-178.

[32]GAO W F,LI Y H,HU L.Multilabel Feature Selection with Constrained Latent Structure Shared Term[J].IEEE Transactions on Neural Networks and Learning Systems,2023,34(3):1253-1262.

[33]LI Y H.HU L,GAO W F.Robust Sparse and Low-Redundancy Multi-label Feature Selection with Dynamic Local and Global Structure Preservation[J].Pattern Recognition,2023,134:109120-1-109120-16.

[34]LEE J,KIM D W.Feature Selection for Multi-label Classification Using Multivariate Mutual Information[J].Pattern Recognition Letters,2013,34(3):349-357.

[35]LIN Y J,HU Q H,LIU J H,etal.Multi-label Feature Selection Based on Max-Dependency and Min-Redundancy[J].Neurocomputing,2015,168:92-103.

[36]LEE J,KIM D W.Fast Multi-label Feature Selection Based on Information-Theoretic Feature Ranking[J].Pattern Recognition,2015,48(9):2761-2771.

[37]LEE J,KIM D W.Scls:Multi-label Feature Selection Based on Scalable Criterion for Large Label Set[J].Pattern Recognition,2017,66:342-352.

[38]CAI D,ZHANG C,HE X.Unsupervised Feature Selection for Multi-cluster Data[C]//Proceedings of the 16th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York:ACM,2010:333-342.

[39]LEE DD.SEUNG H S.Learning the Parts of Objects by Non-negative Matrix Factorization[J].Nature,1999,401:788-791.

[40]HUANG J,NIE F,HUANG H.A New Simplex Sparse Learning Model to Measure Data Similarity forClustering[C]//Proceedings of the 24th International Joint Conference on Artificial Intelligence.New York:ACM,2015:3569-3575.

[41]LEE D D,SEUNG S H.Algorithms for Non-negative Matrix Factorization[J].Advances in Neural Information Processing Systems,2001,13:556-562.

[42]DING C H Q,LI T,JORDAN M I.Convex and Semi-nonnegative Matrix Factorizations[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2008,32(1):45-55.

[43]TSOUMAKAS G,SPYROMITROS-XIOUFIS E.VILCEK J,etal.Mulan:A Java Library for Multi-label Learning[J].The Journal of Machine Learning Research,2011,12:2411-2414.

[44]ZHANG M L,ZHOU Z H.ML-KNN:A Lazy Learning Approach to Multi-label Learning[J].Pattern Recognition,2007,40(7):2038-2048.

[45]ZHANG Y,MA Y C.Non-negative Multi-label Feature Selection with Dynamic Graph Constraints[J].Knowledge-Based Systems,2022,238:107924-1-107924-14.

[46]DOUGHERTY J,KOHAVI R.SAHAMI M.Supervised and Unsupervised Discretization of Continuous Features[M].San Mateo:Morgan Kaufmann,1995:194-202.

[47]XUE G T,ZHONG M,LI J X,etal.Dynamic Network Embedding Survey[J].Neurocomputing,2022,472:212-223.

(責任編輯:韓嘯)

主站蜘蛛池模板: 成人午夜天| 欧美日韩v| 国产高清又黄又嫩的免费视频网站| 91色在线观看| 欧美精品啪啪| 免费精品一区二区h| 中国国产高清免费AV片| 国产在线无码av完整版在线观看| 国产视频你懂得| 亚洲国产精品日韩av专区| 久无码久无码av无码| 国产在线欧美| 香蕉视频在线精品| 思思99热精品在线| 成人久久18免费网站| 久久99热66这里只有精品一| 欧美日本激情| 亚洲中文字幕国产av| 又爽又大又黄a级毛片在线视频 | 欧美另类精品一区二区三区| 欧美国产在线看| 欧美成人精品在线| 国产精品页| 老司机aⅴ在线精品导航| 日韩欧美成人高清在线观看| 58av国产精品| 亚洲专区一区二区在线观看| 国产精品国产三级国产专业不| 99视频在线免费| 永久在线精品免费视频观看| 青青久视频| 亚洲人成影院在线观看| 亚洲欧美综合精品久久成人网| 一本综合久久| 白浆视频在线观看| 免费无码AV片在线观看国产| 日本手机在线视频| 欧美亚洲一二三区| 亚洲看片网| 亚洲永久精品ww47国产| 国产色爱av资源综合区| 99人妻碰碰碰久久久久禁片| 欧美精品一二三区| 亚洲黄网在线| 九月婷婷亚洲综合在线| а∨天堂一区中文字幕| 国产99视频精品免费视频7 | 99er这里只有精品| 国产人人射| 欧美精品亚洲二区| 丁香婷婷激情综合激情| 日韩国产欧美精品在线| 91伊人国产| 极品国产在线| 日本成人一区| 免费人成又黄又爽的视频网站| 手机在线看片不卡中文字幕| 97免费在线观看视频| 亚洲网综合| 97视频精品全国在线观看| 欧美成人精品高清在线下载| 亚洲A∨无码精品午夜在线观看| 国产在线啪| 成人日韩视频| 国产91丝袜在线播放动漫| 久久黄色免费电影| 亚洲国产成人麻豆精品| 色婷婷在线播放| 亚洲中文字幕无码mv| 午夜福利视频一区| 欧美精品另类| 香蕉99国内自产自拍视频| 久久夜夜视频| 国产精品私拍在线爆乳| 国产成人综合欧美精品久久| 干中文字幕| 在线视频精品一区| 免费中文字幕一级毛片| 手机永久AV在线播放| 99久久精品国产综合婷婷| 日本a∨在线观看| 亚洲a免费|