摘 要:基于核范數矩陣回歸的方法能夠有效解決人臉識別中連續遮擋的問題,然而該類方法僅關注誤差圖像的低秩結構信息,忽略了樣本圖像表示的相關性。為了有效解決自然場景下的遮擋人臉識別問題,考慮到這一特點,提出一種聯合松弛塊對角表示的矩陣回歸模型(RBDMR)學習圖像的松弛塊對角表示,并通過動態優化表示矩陣的塊對角分量加強類內表示的相關性和類間表示的差異性。此外,通過聯合優化訓練樣本和測試樣本的表示持續提高類內表示的一致性。通過在三個不同的數據集進行驗證,實驗結果表明,該方法優于其他對比算法,在真實遮擋和光照變化的情況下有較好的性能。
關鍵詞:人臉識別;塊對角結構;矩陣回歸;遮擋
中圖分類號:TP391 文獻標志碼:A 文章編號:1001-3695(2023)02-050-0612-05
doi: 10.19734/j.issn.1001-3695.2022.06.0276
Occlusion face recognition with relaxed block diagonal representation matrix regression
Ma Qian, Ma Xiang
(School of Information Engineering, Chang’an University, Xi’an 710064, China)
Abstract:Nuclear norm based matrix regression method can effectively solve the continuous occlusion problem in face recognition. However, these methods only focus on the low-rank structural of the error images, which ignores the correlation of sample images representation. In order to effectively solve the occluded face recognition problem in natural scenes, this paper proposed the matrix regression model with joint relaxed block-diagonal representation(RBDMR) to learn the relaxed block-diagonal representation of images, then strengthened the correlation of the intra-class representation and the differences of the inter-class representation by dynamically optimizing the block-diagonal component of the representation matrix. Furthermore the coherence of the intra-class representation was continuously improved by jointly optimizing the representation of training samples and test samples. Through verification on three different databases, the experimental results show that the proposed method outperforms other comparison algorithms and has better performance in the real occlusion and illumination changes.
Key words:face recognition; block-diagonal structure; matrix regression; occlusion
0 引言
近年來,基于回歸的方法在圖像處理[1]、計算機視覺[2~5]等領域得到了廣泛的研究和應用。其關鍵思想是每一個測試樣本可近似由所有訓練樣本的線性組合表示,并根據最小重構殘差進行分類。Wright等人[6]提出一種稀疏表示分類算法(sparse representation based classification,SRC),該方法使用L1范數約束將測試樣本表示為所有訓練樣本的稀疏線性組合,通過確定最小重構誤差實現分類,同時證明其對稀疏像素破壞和塊遮擋的魯棒性。進一步,Zhang等人[7]提出一種協同表示分類算法(collaborative representation based classification,CRC)。實驗證明,該方法能夠在更短的時間內實現與SRC相當的分類性能。然而,這幾種方法忽略了訓練數據的統計信息。因此,Qian等人[8]提出一種通用的回歸和表示模型(general regression and representation,GRR),進一步引入了先驗信息和具體信息以提高分類性能。孫雨浩等人[9]提出了一種基于判別低秩矩陣恢復和協同表示的遮擋人臉識別方法,該方法能有效保留原始數據的局部幾何結構的同時增強了恢復低秩數據的判別能力,但未考慮誤差信息。實際中誤差的分布往往是復雜多樣的,并不遵循高斯分布或拉普拉斯分布。考慮到誤差分布的多樣化,Yang等人[10]提出一種新的魯棒正則化編碼模型(regularized robust coding,RRC),使用正則化回歸系數對給定信號進行魯棒回歸。實驗表明該方法在處理遮擋、光照變化等方面比SRC更具魯棒性。
以上方法均基于誤差圖像的像素是獨立分布的假設,使用像素來表示誤差。這種假設適用于隨機像素遮擋,然而對于連續遮擋是不合理的,因為未考慮到誤差圖像的整個結構信息。實際生活中,人臉圖像的遮擋大多受到光照變化、姿態、實物遮擋的影響,而基于這些因素引起的誤差具有低秩結構。Yang等人[11]基于此提出了一種基于核范數的矩陣回歸方法(nuclear norm based matrix regression,NMR),該方法無須預先將圖像的二維誤差矩陣轉換為向量,并采用核范數作為度量,從而盡可能地保存了誤差圖像的結構信息。實驗結果證明,該方法對于連續遮擋,例如眼鏡、圍巾等具有較好的識別性能。Chen等人[12]考慮到L1范數比L2范數更具有稀疏性,進一步提出了基于稀疏正則化的核范數矩陣回歸方法(sparse regularized NMR,SR_NMR),實驗證明稀疏表示能有效恢復低秩誤差圖像。Li等人[13]注意到重構圖像也是高度相關的,因此提出了增強核范數矩陣回歸方法(enhanced NMR,ENMR),進一步對重構圖像施加核范數約束,保留了誤差圖像的二維結構信息,實驗證明該方法對于連續遮擋和光照變化影響的有效性。然而以上幾種方法均側重于捕獲誤差圖像結構信息,盡可能將誤差部分從圖像中分離,降低遮擋、光照等對人臉識別的影響,卻未考慮到樣本之間的相關性。蔡曉云等人[14]考慮到傳統低秩表示方法計算測試樣本表示系數復雜度較高,提出一種結構化局部約束低秩表示方法,通過引入理想編碼系數正則項,使得到的表示系數矩陣具有塊對角結構,實驗結果也證明該結構的有效性。
本文繼續從獲取判別性的表示角度出發,進一步考慮樣本本身的類間差異性和類內相關性,最終所得的表示系數應是同類內較大,不同類間較小。為了加強這種差異,將松弛塊對角表示引入核范數矩陣回歸,進一步加強樣本的類內表示系數,得到更具有判別性的表示,通過聯合核范數矩陣回歸機制捕獲誤差圖像的低秩結構信息,降低遮擋部分對人臉識別的影響,從而解決自然場景下的遮擋人臉識別問題,并在不同數據集上進行實驗,驗證本文方法的有效性,簡稱RBDMR。
1 相關工作
1.1 基于核范數的矩陣回歸
不同于大多數回歸方法中采用的一維的誤差模型,NMR考慮到遮擋和照明變化影響導致的低秩誤差圖像,提出一種基于二維圖像矩陣的誤差模型。假設共有k類樣本,每類有n
NMR考慮到殘差圖像的低秩結構信息,使用核范數代替秩函數,通過求解以下核范數近似問題得到回歸系數表示Z。
其中:第二項為正則化項,防止過擬合問題。
該方法使用核范數近似捕獲誤差圖像的低秩結構信息,實驗結果表明,在處理連續遮擋和光照變化的人臉圖像時可獲得較好的性能。然而其利用了樣本的協作表示,即‖Z‖22,從CRC中可知,協作表示需要足夠的訓練樣本,即在字典過完備時才能正常工作,而NMR未對訓練數據進行降維,樣本數量往往不足,基于此,SR_NMR使用L1范數約束來獲得更加稀疏的判別表示。
實驗結果證明稀疏表示對恢復低秩誤差圖像非常有幫助。這是因為該方法僅考慮了誤差圖像的結構信息,一定程度上忽略了樣本的底層結構信息,并未關注到樣本的類間表示差異性以及類內表示的相似性。
1.2 判別性的塊對角表示學習
稀疏表示已被充分證明其有效性,然而該類方法只獨立考慮每個樣本的數據表示,沒有利用同類樣本中的全局結構信息。理想的塊對角表示可通過嵌入全局語義信息捕獲有樣本的底層結構信息。基于此,Zhang等人[21]提出了一種判別性的塊對角低秩表示的圖像識別方法(BDLRR)。
該方法引入一種近似塊對角表示結構,其中的塊對角表示項‖Z⊙P‖2F能夠同時最小化所有類的非對角表示系數來突出強調類內表示。P=1n1Tn-P為近似的塊對角結構矩陣,P為一個預定義的理想化表示矩陣。
對于樣本Y,若屬于i類,則Pi中與之相關的系數全為1,其他系數均為0。而理想的塊對角結構并不容易學習,因此近似假設非對角分量盡可能小,即最小化式(6),以此增強類間差異。然而實際應用中類內表示系數應是相似的,而不是相同的,嚴格的0-1二進制標簽矩陣會丟失部分有用的結構信息,Chen等人[16]提出了一種松弛塊對角字典對學習方法,其中構造的結構項為
該方法通過引入松馳項Q,使學習到的類內表示是動態更新的,以便樣本能夠擁有更多的自由度來選擇更合適的字典原子用于重構。如圖1所示,松弛的塊對角約束可以更好地抑制不相關的類,并確保類內的學習更多樣化,有效提高識別精度。
2 本文算法
2.1 算法描述
其中:λ、α為正則化參數;X=[Xtr,Xtt],Z=[Ztr,Ztt];P為一個塊對角矩陣;Q為動態松弛矩陣;⊙表示Hadamard-product算子。第一項對誤差矩陣采用低秩約束,可以有效捕獲圖像誤差的低秩結構信息,從而實現遮擋圖像的識別魯棒性。第三項‖Z-P⊙Q‖2F用于學習樣本的松弛塊對角表示結構,松馳項Q通過在學習過程中自適應地學習以達到動態更新塊對角系數P⊙Q。具體來說,塊對角表示系數在學習過程中進行動態更新,這樣就有更多的自由度從同類中選擇更為合適的樣本進行表示,同時將非塊對角系數強制為0,消除不同類間帶來的干擾,加強Z的塊對角表示。在此基礎上,對表示矩陣使用L1范數約束得到更稀疏的判別表示。
基于核范數矩陣回歸的機制可捕獲更多連續誤差的低秩結構信息,同時利用L1范數約束鼓勵學習到的表示系數是稀疏的,進一步引入松弛塊對角約束提高表示的類內相似性,從而降低遮擋等因素對人臉識別的影響。由于NMR與本文方法密切相關,所以對這兩種方法進行了比較。實驗從Extended Yale B數據集中選擇一張圖像進行測試,剩余樣本中選擇25個樣本作為訓練集,樣本均具有不同程度的光照、表情變化。圖2顯示了由NMR和本文方法產生的所有類的表示系數以及分量(紅色對應正確類),雖然兩者均得到正確的識別結果,但可直觀看到NMR方法受不相關類的干擾較大,本文方法顯著擴大類間差異,能夠獲得更具有判別性的表示用于分類。
2.2 算法優化過程
為了解決本文算法的優化問題,采用ADMM算法交替更新變量。首先引入輔助變量J使問題可分離,將式(10)重寫為
2.3 分類方法
當利用所提出算法對公式進行優化后,可得到測試樣本Xtt的最優表示Ztt,通過學習一個線性分類器來進行分類。參考BDLRR,使用算法求解出的訓練樣本的自表示學習分類器W以及訓練樣本的標簽矩陣Htr,得到以下優化問題:
其中:Zi是測試樣本表示矩陣Ztt的第i列。算法2總結了本文RBDMR模型用于識別的完整步驟。
算法2 RBDMR方法實現步驟
輸入:帶有標簽矩陣Y 的訓練集Xtr,測試樣本集Xtt。
輸出:測試樣本的預測標簽矩陣L。
使用xi/‖xi‖2 將所有訓練樣本和測試樣本歸一化。
利用算法1求解式(11)。
得到判別性的表示矩陣Z=[Ztr,Ztt] 。
使用式(24)學習最優線性分類器W^ 。
使用式(25)得到測試樣本的預測標簽矩陣L。
3 實驗
為了評估所提方法的性能,本章在不同類型的三個數據集上進行實驗,包括Extended Yale B[17]、AR[18]、LFW[19],并與一些現有方法進行對比,包括基于回歸的方法SRC[6]、CRC[7]、ICS_DLSR[20]、SR_NMR[12]、LDMR[15],以及基于塊對角結構的方法BDLRR[21]。對于所有的對比方法,均采用了相應論文中的建議參數進行實驗。
在本文的實驗中,固定設置線性分類器參數γ=0.1。重要的正則化參數λ以及非負權衡參數α通過參數敏感性實驗確定。
3.1 光照變化實驗
為了驗證本文方法對于嚴重照明變化的有效性,本節使用Extended Yale B數據集進行了實驗。該數據集由38個個體組成,共有2 414張圖像,每個個體在不同的光照條件下有59~64張圖像。實驗中所有圖像的分辨率均調整到32×32,隨機選取每個個體的10、15、20、25張圖像作為訓練樣本,剩余圖像作為測試樣本。調整后的部分圖像如圖3(a)所示。
在Extended Yale B數據集的平均識別率如表1所示,實驗結果均為十次實驗的平均值。由表可知,本文方法在大多數情況下都取得了較好的性能,表明本文方法能夠有效應對光照變化下無遮擋人臉圖像的挑戰。在選用每人5張圖像作為訓練樣本的情況下,本文方法略低于LDMR,這是因為LDMR利用了圖像的先驗信息,采用測試樣本與訓練樣本之間的距離
作為權值,這在小樣本情形下有利于捕獲圖像間的相似信息,但該方法逐一計算每個測試樣本和訓練樣本之間的距離用于學習權值,大大延長了計算時間。綜合來看,對于光照變化下的人臉識別,本文方法能取得較好的識別性能。
3.2 自然場景實驗
無約束場景下圖像受姿態變化及光照等多方面因素的多重影響使識別更具有挑戰性。為進一步驗證本文方法的性能,使用LFW數據集進行實驗。實驗數據選自該數據集的一個子集,包含62個個體的3 023張圖像,每個個體有20張以上的圖像,數據樣本量不平衡,所有圖像的分辨率均調整到32×32,調整后的部分圖像如圖3(b)所示。本實驗隨機選取每個個體的7、8、9、10張圖像作為訓練樣本,其余作為測試樣本,實驗結果取十次實驗的平均值,如表2所示。由實驗結果可知,本文方法均優于其他對比算法,相較于SR_NMR平均高出5.31%,充分驗證松弛塊對角表示結構的有效性。結果表明,在受多因素影響的自然場景下,本文方法仍具有較好的識別性能。
3.3 真實遮擋實驗
為了驗證本文方法在真實遮擋情況下的性能,在AR數據集上進行實驗。該數據集中包括126個個體(70名男性和56名女性)的約4 000張人臉圖像,其中每個個體的圖像具有不同的光照、表情、遮擋。本實驗中共使用了120個個體的3 120張照片,所有圖像的分辨率都調整到50×40,調整后的部分圖像如圖3(c)所示。訓練樣本均選取每個個體的8張無遮擋圖像。測試樣本對于不同的遮擋類型,考慮了以下三種情況:
a)太陽鏡遮擋。選取每個個體的6張太陽鏡遮擋圖像作為測試樣本。
b)圍巾遮擋。選取每個個體的6張圍巾遮擋圖像作為測試樣本。
c)混合遮擋。選取每個個體的3張太陽鏡遮擋圖像和3張圍巾遮擋圖像作為測試樣本。
表3總結了AR數據集的實驗結果。可以看出真實遮擋場景下,使用核范數矩陣回歸機制一類的方法,如SR_NMR、LDMR以及本文方法,均取得較優結果,表明使用核范數能有效捕獲遮擋部分的低秩結構信息,證明其有效性。而本文方法均優于其他對比算法,表明引入松弛塊對角約束的有效性,促使其獲得了更具判別性的表示,特別是對于圖像遮擋比例較大的情況(圍巾遮擋),本文方法高出BDLRR 13.2%,充分證明本文方法對于真實遮擋類型識別的有效性。
3.4 隨機遮擋實驗
為了進一步驗證本文方法對于遮擋識別的性能,在Extended Yale B數據集進行實驗,數據預處理與實驗1相同。隨機選取每個個體25張圖像作為訓練樣本,剩余圖像作為測試樣本,分別添加10%、20%、30%、40%的隨機遮擋塊進行實驗,添加遮擋塊的圖像如圖4所示。
實驗結果以及平均運行時間均取自十次實驗的平均值,如表4所示。由實驗結果可知,在添加不同比例隨機遮擋塊的情形下,各個算法的性能隨著遮擋比例的增加而下降,這是因為相鄰的遮擋會破壞圖像的結構信息。然而,本文方法優于大多數對比算法,僅略低于SR_NMR算法,這是由于隨機塊遮擋導致同類樣本不同部分的臉部關鍵信息丟失,從而導致類內樣本的特征差異加大,類間樣本的差異減小,不利于塊對角表示約束的學習,但是本文方法的運行時間遠遠低于SR_NMR算法,效率較高。隨著遮擋比例增加,本文方法的識別性能高出LDMR 6.53%、15.4%、24.22%、29.91%,表明本文方法對于隨機遮擋識別的有效性。
3.5 實驗分析
根據表1~4的實驗結果,可以得出以下觀察結果:
a)在這三個不同數據集上的實驗,本文方法與所有對比算法相比均獲得了較好的性能。這表明本文方法對于人臉識別的有效性和魯棒性。
b)對于光照變化、真實遮擋等情況,本文方法從識別精度或效率上明顯優于一些相關方法,如NMR、SR_NMR、LDMR,這說明加強表示的松弛塊對角結構的必要性。因為該約束擴大了塊對角分量和非塊對角分量之間的邊界,增強了類內表示的同時也加大了類間表示的差異。對于黑塊遮擋,本文方法在保證相當水平識別精度的同時大大地提高了效率。
c)本文方法始終優于BDLRR。對于BDLRR,該方法在低秩表示的基礎上引入一種近似塊對角約束,但忽略了類內表示系數應是相似而非相同這一特點。本文方法通過引入一種松弛塊對角約束,確保類內表示系數是動態更新的,從而得到
更具有判別性的表示用于分類。
綜上,本文方法可以有效解決自然場景下遮擋人臉識別困難的問題,如光照、遮擋、姿態變化。
3.6 收斂性分析
通過實驗驗證了本文方法的收斂性。與文獻[22]相似,實驗中采用相對誤差,即‖X-XtrZ-E‖F/‖X‖F來表示其收斂性。三個數據集的收斂曲線如圖5所示。可以看到,相對誤差均隨著迭代次數的增加而減小,表明所提出的優化算法具有收斂性。
3.7 參數敏感性分析
本文所提出的優化式(10)中有兩個參數需要調整,即λ和α。與收斂性分析實驗類似,本節在Extended Yale B、AR和LFW數據集上進行實驗以研究參數的敏感性。具體來說,重點觀察這兩個參數在{10-4,10-3,10-2,10-1,1}變化范圍對方法識別性能的影響。對于Extended Yale B 、LFW數據集,分別隨機選擇每個個體的10、7張圖像作為訓練樣本,AR數據集使用太陽鏡遮擋實驗中的數據進行實驗。
不同數據集上參數α和λ的性能變化如圖6所示。可以看到,α和λ取值過大時對本文方法的性能有較大影響,這是因為過度的稀疏約束和塊對角表示一定程度上損失了圖像的關鍵特征信息,并不利于最終的分類。特別地,針對具有光照變化的Extended Yale B數據集以及真實遮擋的AR數據集,可以看出在合適的范圍內本文方法的性能對于參數的變化不敏感,表明本文方法對于參數變化具有魯棒性。一般來說,對于這三個數據集,α和λ分別取[10-2,10-3]、[10-3,10-3]、[10-2,10-3]時,本文方法可以取得相對穩定和滿意的性能。
4 結束語
本文提出了一種聯合松弛塊對角表示的核范數矩陣回歸模型(RBDMR),通過學習圖像的松弛塊對角表示增強圖像的類內表示相關性以及類間表示差異性。在此基礎上,為了提高類內表示的一致性,將訓練樣本表示以及測試樣本表示納入統
一的優化問題。此外,還提出一種有效的優化算法用于解決本文方法的優化問題。最后在三種不同的數據集上進行實驗,大量的實驗結果表明,對于真實類型的遮擋、光照變化,本文方法均具有較高的識別效果,對于受多因素影響的人臉仍能取得較好的識別性能,證明了本文方法的有效性。受真實遮擋、光照因素引起的誤差具有低秩結構,本文方法采用核范數作為度量可有效捕獲該類結構,但對于一般噪聲影響的問題還需進一步研究。
參考文獻:
[1]Liu Licheng,Chen C L P,Li Shutao. Hallucinating color face image by learning graph representation in quaternion space [J]. IEEE Trans on Cybernetics,2022,52(1): 265-277.
[2]Hu Weiming,Li Wei,Zhang Xiaoqin,et al. Single and multiple object tracking using a multi-feature joint sparse representation [J]. IEEE Trans on Pattern Analysis and Machine Intelligence,2015,37(4): 816-833.
[3]Wang Pengrui,Tian Yi,Che Wujun,et al. Efficient and accurate face shape reconstruction by fusion of multiple landmark databases [C]//Proc of IEEE International Conference on Image Processing. Pisca-taway,NJ: IEEE Press,2019: 335-339.
[4]Zhang Lei,Liu Ji,Zhang B,et al. Deep cascade model-based face recognition: when deep-layered learning meets small data [J]. IEEE Trans on Image Processing,2020,29: 1016-1029.
[5]Li Ke,Wu Gang. Randomized approximate class-specific kernel spectral regression analysis for large-scale face verification [J]. Machine Learning,2022,111: 2037-2091.
[6]Wright J,Yang A Y,Ganesh A,et al. Robust face recognition via sparse representation [J]. IEEE Trans on Pattern Analysis and Machine Intelligence,200,31(2): 210-227.
[7]Zhang Lei,Yang Meng,Feng Xiangchu. Sparse representation or collaborative representation: which helps face recognition? [C]// Proc of IEEE International Conference on Computer Vision.Piscataway,NJ: IEEE Press,2011: 471-478.
[8]Qian Jianjun,Yang Jian. General regression and representation model for face recognition [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition Workshops. Piscataway,NJ: IEEE Press,2013: 166-172.
[9]孫雨浩,陶洋,胡昊. 基于判別低秩矩陣恢復和協同表示的遮擋人臉識別 [J]. 計算機工程與科學,2020,42(12): 2199-2207.(Sun Yuhao,Tao Yang,Hu Hao. Occlusion face recognition based on discriminant low-rank matrix recovery and collaborative representation[J]. Computer Engineering amp; Science,2020,42(12):2199-2207.)
[10]Yang Meng,Zhang Lei,Yang Jian,et al. Regularized robust coding for face recognition [J]. IEEE Trans on Image Processing,2013,22(5): 1753-1766.
[11]Yang Jian,Luo Lei,Qian Jianjun,et al. Nuclear norm based matrix regression with applications to face recognition with occlusion and illumination changes [J]. IEEE Trans on Pattern Analysis and Machine Intelligence,2017,39(1): 156-171.
[12]Chen Zhe,Wu Xiaojun,Kittler J. A sparse regularized nuclear norm based matrix regression for face recognition with contiguous occlusion [J]. Pattern Recognition Letters,2019,125: 494-499.
[13]Li Qin,He Huihui,Lai Hong,et al. Enhanced nuclear norm based matrix regression for occluded face recognition [J]. Pattern Recognition,2022,126: 108585.
[14]蔡曉云,尹賀峰. 基于結構化局部約束低秩表示的人臉識別 [J]. 江蘇大學學報: 自然科學版,2020,41(3): 256-261.(Cai Xiaoyun,Yin Hefeng. Face recognition based on structured locality-constrained low rank representation [J]. Journal of Jiangsu University: Natural Science,2020,41(3): 256-261.)
[15]Zhang Chao,Li Huaxiong,Qian Yuhua,et al. Locality-constrained discriminative matrix regression for robust face identification [J]. IEEE Trans on Neural Networks and Learning Systems,2022,33(3): 1254-1268.
[16]Chen Zhe,Wu Xiaojun,Kittler J. Relaxed block-diagonal dictionary pair learning with locality constraint for image recognition [J]. IEEE Trans on Neural Networks and Learning Systems,2022,33(8): 3645-3659.
[17]Georghiades A S,Belhumeur P N,Kriegman J. From few to many: illumination cone models for face recognition under variable lighting and pose [J]. IEEE Trans on Pattern Analysis and Machine Intelligence,2001,23(6): 643-660.
[18] Martínez A,Benavente R. The AR face database,CVC technical report 24 [R].[S.l.]: Computer Vision Center,1998.
[19]Zheng Tianyue,Deng Weihong,Hu J N. Cross-age LFW: a database for studying cross-age face recognition in unconstrained environments [EB/OL].(2017-08-28). http://doi.org/10.48550/arxiv.1708.08197.
[20]Wen Jie,Xu Yong,Li Zuoyong,et al. Inter-class sparsity based discriminative least square regression [J]. Neural Networks,2018,102: 36-47.
[21]Zhang Zheng,Xu Yong,Shao Lin,et al. Discriminative block-diagonal representation learning for image recognition [J]. IEEE Trans on Neural Networks and Learning Systems,2018,29(7):3111-3125.
[22]Li Sheng,Fu Yun. Learning robust and discriminative subspace with low-rank constraints [J]. IEEE Trans on Neural Networks and Learning Systems,2016,27(11): 2160-2173.
收稿日期:2022-06-15;修回日期:2022-07-20 基金項目:國家自然科學基金資助項目(61771075);中央高校基本科研業務費資助項目(300102249203)
作者簡介:馬倩(1998-),女,陜西延安人,碩士研究生,主要研究方向為圖像處理與識別(mqlilio@163.com);馬祥(1980-),男,甘肅平涼人,教授,碩導,博士,主要研究方向為圖像處理與識別.