999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

跨域特征融合的端?邊協同遮擋人臉識別方法

2022-12-26 14:11:04吳大鵬譚磊張普寧楊志剛王汝言
關鍵詞:人臉識別特征區域

吳大鵬,譚磊,*,張普寧,楊志剛,王汝言

(1.重慶郵電大學通信與信息工程學院,重慶 400065;2.先進網絡與智能互聯技術重慶市高校重點實驗室,重慶 400065;3.泛在感知與互聯重慶市重點實驗室,重慶 400065)

1 引言

人臉識別[1]是計算機領域最熱門的研究方向之一。人臉識別在我們的日常生活中起著非常重要的作用。如今,新冠病毒在世界范圍內的傳播對人們的生產生活造成了巨大的影響。為了阻擋新冠病毒以及可能出現類新冠等呼吸道病毒的傳播,許多國家都鼓勵非接觸性的操作,如在機場、地鐵站和地鐵站等人員密集的公共區域佩帶口罩。在這些人員密集的場所,快速通過安檢區域能夠減少人與人之間的接觸并且避免人員之間的聚集,因而在大流量人群環境下如何降低人臉識別時延是重要的科學與實際應用問題。然而,佩戴口罩會遮擋臉部的大部分區域,導致大量的面部特征無法提取,直接影響人臉檢測和識別的性能。由此,研究人員提出面向遮擋人臉的有效識別方法[2]。

人臉識別的精度與圖像質量直接相關,帶有噪聲和低質量圖像將引起的人臉識別率降低。因此,研究人員提出可對圖像數據進行預處理以獲得更好的識別性能。目前的人臉圖像預處理技術主要包括:裁剪、調整大小、銳化、去噪、歸一化、增強等[3]。主成分分析(PCA)在正常或非遮擋人臉識別中達到了很好的準確率[4]。基于小波變換的圖像去噪技術可以用于對人臉圖像的噪聲處理,可以用于人臉識別的預處理過程[5]。基于局部保持投影(LPP)[6]的方法也被用于人臉識別中,它是一種流形學習方法,在人臉識別中能夠產生穩定的高分類精度。但是這些傳統方法在遮擋人臉識別中表現的性能較為有限。

遮擋人臉識別的任務旨在將圖像與隨機部分遮擋進行匹配。解決遮擋人臉識別問題(OFR)的現有方法主要有兩種:(1)特征提取方法,首先定位遮擋的面部區域,然后僅從非遮擋的面部提取特征區域;(2)基于圖像重建的方法,從被遮擋的人臉中恢復出完整的人臉以提取魯棒的身份特征。最近,深度卷積神經網絡在無約束環境下識別人臉圖像取得了很大的進展[7]。第一種方法主要是增強未遮擋部分的特征提取,通過修改深度神經網絡架構[8]、[9]、[10]或者設計新穎的損失函數和訓練策略[11]、[12]、[13]。第二種主要是圖像修復方法,充分利用遮擋部分的特征。Ding等人[14]提出潛在部分檢測模型來定位對面具佩帶具有魯棒性的潛在面部部分,利用潛在特征來提取判別特征。Lu等人[15]提出一種口罩遮擋檢測和恢復的框架,利用自適應上下文信息和相鄰像素的相關性來實現恢復人臉的高度真實感,以此提高遮擋人臉識別和驗證的性能。因此,僅僅只是考慮人臉的單一特征勢必會丟失大量可用的特征,所以融合顯示域和隱式域特征是一種能夠保留整體人臉感知的重要方法。

邊緣計算[16]是一種新興的計算架構,它將計算能力從集中式云中心遷移到更靠近用戶端和移動設備的邊緣,在邊緣執行計算相對于云計算而言可以減少延遲,提供實時響應,降低網絡帶寬負載,并緩解云中心的計算負載。邊緣計算在靜態目標識別方面取得了顯著的成果,但是在識別動態目標時性能有限。傳統識別方法由于對計算、與存儲資源的要求很高,在終端設備中不再適用。現有的遮擋人臉識別方法沒有綜合考慮邊緣和終端的資源特征,目前尚未出現面向遮擋人臉識別的端邊協同識別方法研究成果。為此,本文提出跨域特征融合的端-邊協同遮擋人臉識別方法,融合人臉顯式域與隱式域特征設計跨域特征融合方法,并結合終端、邊緣的資源特點設計端邊協同識別方法。

2 端?邊協同識別架構設計

現有基于邊緣計算的人臉識別架構忽略了終端的計算能力,面對人員密集場景下的遮擋人臉識別任務適用性有限。為此,設計了“端-邊”協同的遮擋人臉識別架構。該架構包括圖像采集終端層和邊緣層。圖像采集終端層由攝像頭等圖像采集終端構成,主要采集機場、火車站、高鐵站等人員密集區域入口處的海量遮擋人臉圖像數據。邊緣層主要由部署于該區域的邊緣服務器構成,負責遮擋人臉圖像的快速識別。系統架構如圖1所示。

圖1 端?邊協同識別架構

在終端側,需要對人臉數據進行采集以及對圖像中的人臉邊界進行定位,通過人臉檢測模型提取人臉區域,去除無關背景區域,然后把人臉區域的圖像上傳到邊緣服務器,以達到有效壓縮傳輸圖像數據量的作用,降低圖像傳輸時延。

在邊緣服務器上,采用所提跨域特征融合方法,通過注意力機制對未遮擋區域進行特征提取,模糊掉遮擋區域的部分,然后基于圖像補全方法來對遮擋區域進行人臉補全,獲取人臉的全局特征,通過對人臉的特征進行融合,最后使用人臉識別網絡模型識別人臉的身份信息。由于機場、火車站、高鐵站等人員密集區域,邊緣服務器需對海量人臉圖像進行實時識別,當高峰期出現遮擋人臉識別任務聚集時,邊緣服務器采用所提時延優化的邊緣識別任務調度方法進行調度,從而避免在此類區域出現大面積人群聚集和安全問題。

3 跨域人臉特征融合方法

3.1 顯式域特征增強方法

遮擋人臉識別(MFR)旨在將遮擋人臉與未遮擋或遮擋整體人臉進行匹配。為了研究掩模遮擋對模型特征提取能力的影響,引入了文獻[17]中提出的中值相對變化率(MED)的標準,以捕獲每個特征元素在掩碼遮擋下遠離其非遮擋的程度。以一對無遮擋的人臉圖像Ino-mask及其對應的遮擋人臉圖像Imask作為輸入,使用以下公式計算頂層卷積層特征的神經元激活值的相對變化率:

其中f i(?)是頂部卷積特征圖,ri是特征圖的第i個元素的相對變化率。

有研究表明,遮擋對通道元素的變化影響分布不均[18],下半部分人臉區域的MED值較大,這表明遮擋給從人臉下半部分得到的特征圖帶來了較大的噪聲,影響了FR性能。本文設計基于注意力機制設計顯式域特征提取模塊(EFE),以增強有效通道和空間位置的權重,它們對掩模遮擋不敏感,并且有助于學習遮擋魯棒的身份特征,以指導人臉識別模型中的骨干網絡為非遮擋面部分配更高的權重,以便在訓練中側重學習更加穩健的特征。為了增加特征圖上有效通道和空間位置的權重,以提高對掩模遮擋的魯棒性,本文提出的架構同時利用空間和通道注意。通道注意圖是利用特征圖的通道間關系生成的,為了有效地計算它,有必要分別通過平均池化操作和最大池化操作來壓縮特征圖的空間維度,因為特征圖的空間統計信息(空間上下文描述符)聚合空間信息。顯式特征增強模塊如圖2所示,兩個空間上下文描述符被轉發到主干網絡并且使用元素求和,將相應的輸出特征向量連接起來以生成通道注意圖Mc∈RC×1×1,并且網絡使用了一個內核大小為K的通道一維卷積,它交換了空間上下文描述符的本地跨通道信息。權重提取部分使用一維卷積,不僅增強了跨通道交互,而且避免了降維并降低了復雜度,定義如下:

圖2 顯式域特征增強模塊

其中δ表示矩形函數,E1K表示具有內核尺寸K的一維卷積操作。本文提出的網絡是一個輕量級的自注意力模塊,它計算通道和空間位置之間的相關性以增加有效通道和空間位置的權重,對人臉圖像的掩模遮擋具有魯棒性。

3.2 隱式域特征預測方法

若僅對人臉圖像的未遮擋部分進行特征提取,丟掉遮擋人臉部分的特征,會造成大量的特征損失。因此,本文設計隱式域特征增強模塊(IFE),采用補全方法來進行圖像重建,利用圖像重建的方法修復人臉,以獲取人臉的隱式域特征,從而保留人臉的整體感知,基于深度生成網絡的隱式域特征增強模塊構建一個由成對判別器和一個生成器組成的網絡。

生成器網絡:網絡的生成器采用編碼器、轉換器和解碼器結構。編碼器由6層卷積層組成,依次逐漸提取更加高級的特征,解碼器由5層卷積層組成。轉換器由6個殘差塊組成,由編碼器輸出圖像的不同通道組合了圖像的不同特征,根據這些特征將圖像的特征向量即編碼由帶遮擋轉換到無遮擋。每個殘差塊由兩個卷積層組成,為了確保先前圖層的輸入屬性也可以用于后面的圖層,將輸入殘差添加到輸出中。解碼使用反卷積層進行上采樣,解碼器的作用是從特征向量重新構建低級特征,在編碼層使用卷積算法,為下采樣,將高維圖像轉換為低維圖像的過程。該網絡可以使編解碼具有優異的性能,從而使網絡生成高質量的圖像數據。

雙判別器網絡:為得到更真實的結果,使用雙判別器分別判斷局部生成部分圖像和全局生成圖像。在人臉修復過程中,生成器對缺失區域進行修復,并將結果發送給判別器,判斷其是否足夠真實。由于判別器是二分模型,在模型訓練的初始階段,不同類型的圖像輸入到判別器中會造成不穩定,本文使用交叉熵損失來優化生成器,然后計算真實圖像特征與生成特征之間的MSE(均方誤差損失),以優化生成器。因此,交叉熵損失不

損失函數:會損失更多的信息,從而在很大程度上保證了模型訓練的穩定性。

局部判別器:提出了一個局部判別器網絡,它確定掩碼中產生的內容的真實性。局部鑒別器開始幫助生成具有合理邊界的掩碼內容的細節。為了便于計算特征匹配MSE(均方誤差損失),在判別網絡中添加了一個輸出。在網絡的中間層,使用池化操作來降低轉化為特征向量的特征的維數。首先,局部損失不能正則化人臉的全局結構,也不能保證遮擋區域與外部的一致性。因此,本文還引入了全局鑒別器來確定全局圖像。

全局鑒別器:引入另一個全局鑒別器來判斷整個完成圖像的真實性,新生成的內容不僅要真實,還要與周圍的語義一致。全局判別網絡極大地緩解了真實區域與掩蔽區域的不一致,進一步增強了生成內容的真實性。與局部鑒別器一樣,本文將輸出添加到全局鑒別器網絡。在網絡的中間層,使用池化操作來降低特征的維數,這些特征也被轉化為特征向量。

通過回歸到缺失(退出)區域的真實內容來訓練本文的上下文編碼器。為了填補大量的缺失區域,在圖像修復過程中引入L2圖像重建損失是一個通用的思路。然而,通常有多種同樣合理的方法來填充與上下文一致的缺失圖像區域。本文通過解耦聯合損失函數來模擬這種行為,以處理上下文中的連續性和輸出中的多種模式。重建(L2)損失負責捕獲缺失區域的整體結構和與其上下文相關的連貫性。同樣,將重建損失Lre引入到生成器中,即網絡輸出與原始圖像之間的L2距離。所以,本文使用掩碼L2距離作為重建損失函數Lre:

對于每個真實圖像x,上下文編碼器F產生一個輸出F(x)。設?是對應于被丟棄的圖像區域的二進制掩碼,在任何一個像素被丟棄的地方,其值為1,對于輸入像素,其值為0。其中?是元素乘積運算。

本文的人臉修復網絡有兩個鑒別器,因此有兩個對抗性損失來優化網絡。在訓練成對判別器時,局部和全局判別器分別返回局部和全局損失,使得恢復的人臉圖像與從訓練集中提取的樣本相似。局部判別器有助于生成具有更清晰邊界的掩蔽內容的細節,而全局判別器大大緩解了真實區域與掩蔽區域之間的不一致性,進一步增強了生成人臉圖像的真實性。傳統的判別器提供的信息太少,這不可避免地導致生成器的訓練過程相當不穩定的問題,尤其是在輸入大量訓練樣本時。因此,設計了一個成對的特征匹配損失,使訓練過程更加穩定。讓和代表設計的配對特征匹配損失。這樣可以從判別器網絡中學習到盡可能多的人臉特征,從而使訓練更加穩定:

其中D是預訓練的VGG特征提取器,G表示生成器,z表示輸入網絡的損壞圖像,x表示真實圖像。因此,聯合損失可以有如下式子表示:設α1和α2代表權重,以平衡設計的損失類型。

如圖3所示,跨域特征融合模塊由顯示域特征增強模塊和隱式域特征挖掘模塊組成。這個模塊是嵌入在主干卷積神經網絡中,可以是任何深度的卷積神經網絡架構。人臉圖像數據通過骨干網絡會提取特征,對于人臉的顯式域特征使用IFE模塊進行增強;對于人臉的隱式域特征使用EFE模塊進行挖掘。當人臉識別模型把這兩種特征提取之后,最后,使用全連接(FC)層將高維特征轉換為與全局嵌入特征具有相同維度的嵌入特征。學習到的人臉全局特征嵌入作為分類器的輸出,并且網絡以端到端的形式進行訓練。在邊緣服務器上,人臉識別模型會對人臉特征進行編碼輸出,再與人臉數據庫中進行對比,最后輸出最符合的人員身份信息。

圖3 跨域特征融合方法

4 時延優化的邊緣識別任務調度方法

4.1 問題建模

如機場、火車站和高鐵站等人員密集場所中,進出人員的排隊時間過長易增加疫情傳播風險,已有研究致力于緩解計算資源的限制,未考慮遮擋人臉識別任務的時延優化。為避免人員長時間聚集而帶來的安全風險,本部分設計基于邊緣計算的識別任務調度方式,利用端-邊協作的架構來進行任務調度,以此來減少人臉識別任務的整體時延。

用V={V1,V2,...,Vm}表示視覺終端的集合E={E1,E2,...,Em}表示邊緣節點的集合。假設一個集合中的視覺終端與一個邊緣節點直接連接。在時隙t∈T中,人臉識別任務圖像數據隨機達到,并且正確調度到目的位置。人臉識別任務調度算法在每個時間步選擇一個或多個等待任務調度到邊緣或者協作邊緣。假設每個人臉識別任務的資源需求在它們到達時是已知的;每個人臉識別任務α的資源需求為α={α1,α2,...,αn},其中αn為第n個人臉識別任務所需的資源(例如,內存、帶寬,計算資源)。為簡單起見,假設沒有搶占和固定分配配置文件,這意味著必須從任務執行開始到完成連續分配α。本文設置在預先知道人臉識別任務處理請求的前提下,嘗試最小化延遲。任務分配中的卸載問題由二進制變量xfα決定,表明任務α的卸載目標地點,若為本區域邊緣節點(E1),則xfα=0;若為協作邊緣節點(Em),則xfα=1:

其中α是人臉識別任務,Tαdet是人臉檢測的時間,T αtrans是指任務傳輸到邊緣節點的時間;T αrec表示任務α進行人臉識別的時間;T αwait為人臉識別任務α的等待時間。用公式(7)表示優化函數:

式(8)表示人臉圖像數據在給定時間卸載到邊緣的時間最大為θ,式(9)表示任務在給定時間卸載到協作邊緣的時間最大為σ,式(10)表示任務計算總時間不應超過任務α的時間閾值τα。最后,式(11)表示整個時間內可用帶寬。公式(7)是一個混合整數非線性過程,它是一個NP-hard問題,不能以有效的方式直接解決。在下文中提出一種基于深度學習的算法來解決優化問題,使用持續學習來實現低延遲的識別任務。

4.2 邊緣協作決策

在上述問題中,具有不同資源需求的人臉識別任務在每個時隙動態到達,根據相應的邊緣節點的可用資源來為每個任務分配帶寬和計算資源,每個資源可以用n+m個選項進行調度。但是我們注意到對當前識別任務進行調度會改變對應的目的位置的可用資源,資源的變化情況會影響下一次的調度,這具有馬爾可夫性質。因此我們通過馬爾可夫過程(MDP)求解問題(7)。一個MDP可以由一個元組組成S,A,R來描述,S表示系統狀態的集合,A表示動作的集合,R表示獎勵函數。本部分制定了MDP的系統狀態、動作和獎勵函數。

本文用一種基于邊緣協調的深度強化學習(RL)[19]算法來決定任務調度,如圖4所示。Agen(t邊緣節點)學習反饋的獎勵,并確定增加獎勵的調度策略。使用近端策略優化(Proximal Policy Optimization,PPO)[20]算法來優化目標,其具有更快的收斂速度和更好的性能。PPO由一個行動者網絡Actor和一個批評者網絡Critic組成,它們共同決定動作和狀態。

圖4 識別任務調度

狀態:在每個時隙t∈T,人臉識別系統的狀態將被捕獲。假設所有人臉識別任務都將在時隙t內處理。讓Sα,t={bα,t,cα,t,Lα,t}表示每個識別任務在時隙t中的狀態,其中bα,t表示帶寬,cα,t表示計算能力,Lα,t表示處理的總延遲。由于每個時隙t都有不同的識別任務,并且有些檢測是在幾個時隙上處理的,因此每個時隙中的每個檢測有三種情況:開始處理檢測、正在處理檢測和已經處理檢測。當檢測任務開始被處理或已被處理時,可用資源將被更新。

動作:在每個時隙t,主邊緣節點決定人臉識別任務調度,由RL代理根據當前狀態為每個任務選擇動作表示,狀態在第一個時隙重置。在每個持續時隙,調度程序可能想要確認任務α的任何子集。在每個時隙,代理然后觀察狀態轉換,任務α已被卸載到邊緣節點(xfα=0)或者協作邊緣節點(xfα=1),人臉識別任務將傳輸到系統中的合適目標位置。

獎勵:使用獎勵信息來監督代理來找到本文目標的最佳解決方案:目標是在保證T周期內最小化平均延遲。在每個決策時期之后,代理接受來自獎勵函數的反饋信號并計算獎勵函數的累積和,以達到最小化延遲的最佳目標。

考慮到在MDP中對每個任務的決策是獨立的,本文將通過累積獎勵實現對每個任務的低延遲和保證準確性,并給出了通過MDP的最終目標。

Rs是在時間段T內某一事件的累計獎勵,Qα,t是T中所有人臉識別任務的總和。由于Qα,t和T在一個時期內是常量,定義獎勵Rs為:

其中ε∈{0,1},Rα,t表示人臉識別任務在時隙t處的獎勵,Rs表示一段時間內人臉識別任務的總獎勵。在人臉識別系統中假設N個時期,讓gn=表示在T的時隙中第n個時期的人臉識別系統狀態和動作的集合,其中=和,另外有t∈{1,2,...,T}和n={1,2,...,N},讓θ表示行動者網絡參數。然后有在第n個時期采取gn的概率為:

然后可以得到N個時期內的人臉識別任務帶來的獎勵期望和梯度:

行動者網絡利用梯度更新策略以最大化獎勵。由于有N個時期,因此可通過以下方式獲得平均梯度:

如果θ值發生變化,將通過新的策略收集更多數據進行進一步訓練。令表示當前θ策略優于舊θ'策略的重要性權重,并且行動者網絡通過以下方式更新:

其中折扣因子用λ表示并且λ<1,θ的更新如上式所示。批評者網絡利用時間差異(TD)錯誤來更新:

其中r是當前獎勵,V(?)表示狀態值函數,V'(?)是先前的狀態值函數。批評者網絡評估是否應采取當前行動,把人臉圖像數據傳輸到目標位置。如果時間差異(TD)誤差為正,則表明未來應該加強選擇當前動作的趨勢,而TD誤差為負時趨勢相反,批評者網絡的參數η通過以下更新:

其中η'是批評者舊的網絡參數,并且V(?)由具有參數η的神經網絡近似。最后,本文有了目標函數(23):

Actor和Critic網絡的收斂性已在文獻[20]中得到證明,它通過基于邊緣協調的RL算法獲得了低延遲性能。在邊緣節點上部署時延優化的人臉識別任務調度算法,在這個過程中,在多個終端工作的情況下,會有大量圖像上傳,主邊緣服務器上的基于深度強化學習識別任務調度策略會根據約束條件對任務進行調度,從而確定最佳的識別任務調度方案,決策上傳到主邊緣節點還是協作邊緣節點上進行遮擋人臉圖像的識別。

5 實驗

選擇RMFD[13]數據集中的RMFRD、LFW[21]和MFR2[22]。RMFRD數據集是從海量互聯網資源中獲取公眾人物的正面圖像及其對應遮擋人臉圖像,收集人員對收集的數據中由于錯誤對應導致的不合理的人臉圖像進行刪除。過濾的過程中采用半自動注釋工具裁剪準確的面部區域。該數據集包括525名戴口罩人員的5000張照片,以及相同的525名不帶口罩人員的90000張照片。本文的訓練集是一個混合數據集,包含遮擋和未遮擋的人臉圖像。其中LFW數據庫主要是互聯網上的手機圖像。LFW數據集主要測試人臉識別的準確率,該數據庫從中隨機選擇了6000對人臉組成了人臉辨識圖片對,其中3000對屬于同一個人2張人臉照片,3000對屬于不同的人每人1張人臉照片。為了驗證本文模型在真實遮擋人臉數據集,MFR2上進行了實驗,MFR2是一個小型數據集,共有來自53個不同身份的269張人臉圖像。為了評估MFR2數據集,隨機生成800個圖像對(400個正對和400個負對)。為了對所提出解決方案的性能進行深入評估,如前所述,使用ResNet作為trunk-CNN模型。在實驗中,定義了兩個基線模型以進行公平的比較分析。ResNet[23]是廣泛使用的卷積神經網絡(CNN)架構之一,被多種人臉識別模型使用。

本文應用Pycharm,Pytorch v1.2.0實驗庫在Ubuntu16.04操作系統上進行了實驗,在Intel I9 3.7GHz CPU卡和32GB內存GTX2080 Ti的GPU服務器上運行。通過計算識別測試圖像對的精度來評估本文提出的模型在一個真實數據集和兩個合成數據集上的性能。在三種不同的測試用例場景下評估了本文提出的模型的性能:(1)Unmasked-to-Unmasked,一個通用的FR任務,評估模型的泛化性;(2)Unmasked-to-Masked,在識別系統中注冊未遮擋的人臉圖像,以驗證戴口罩的人的身份;(3)Masked-to-Masked人臉匹配,確定兩個被遮擋人臉的身份相同或不同。

為了進行全面的評估,對真實遮擋人臉數據集RMFRD和MFR2進行了實驗。表1顯示了識別的準確度的驗證結果,表2是AUC的驗證結果。對于MFR2數據集上的1:N人臉識別實驗,本文將所有未遮擋的人臉圖像包含在圖庫集中,而所有遮擋的人臉圖像都包含在驗證集中。本文提出的方法對合成和真實掩模遮擋都表現出很高的魯棒性。這是因為本文的注意力模塊利用了面罩遮擋通常固定在人臉下半部分的先驗知識,并引導模型關注特征圖的上半部分,而不是強制模型以適應任何特定的面具風格。而且本方法充分利用了人臉的隱式特征,不依賴于人臉區域上半部分的裁剪來進行魯棒的特征學習。

表1 評估結果

表2 AUC驗證結果

本文還探討了模型結構的修改并評估兩種不同模型配置下的性能。在第一個配置中,即Baseline+EFE,從本文提出的框架中刪除了隱式特征增強方法,僅將顯式特征嵌入到主干CNN模型中以進行性能評估。在第二個配置中,即Baseline+IFE,刪除了顯式特征,只使用了提出的框架中的隱式特征增強方法進行評估。

為了比較本文的方法與基線的計算復雜度,測試了每秒浮點運算(FLOPs)并計算了網絡參數的數量,如表3所示。本文的模型沒有增加復雜度,并且降低了30%的識別時延,所提方法在減少人臉識別整體時延中的平均增益比例為57%。

表3 不同方法在網絡參數、每秒浮點運算數(FLOPs)方面的比較(其中M表示以百萬為單位的單位)

6 總結

本文提出了一種端-邊協作的人臉識別架構,并結合新穎的注意力和人臉全局特征增強的引導深度CNN模型,用于解決遮擋人臉識別問題。本文提出了一種跨域特征融合的方法,在增強顯式人臉特征的同時,盡可能挖掘到人臉的隱式特征,保留整個人臉的整體感知。此外,通過對大規模的識別任務的分析,通過深度強化學習的方法對任務進行調度,以實現識別的最優時延。在多個合成和真實遮擋人臉數據集上進行的大量實驗表明,本文提出的方法在處理遮擋問題方面具有優越性,同時在一般人臉識別任務上保持高性能。未來,將把研究工作擴展到一般的遮擋人臉識別任務。

猜你喜歡
人臉識別特征區域
人臉識別 等
作文中學版(2022年1期)2022-04-14 08:00:34
揭開人臉識別的神秘面紗
學生天地(2020年31期)2020-06-01 02:32:06
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
關于四色猜想
分區域
基于類獨立核稀疏表示的魯棒人臉識別
計算機工程(2015年8期)2015-07-03 12:19:07
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 国产福利一区二区在线观看| 欧洲一区二区三区无码| 色首页AV在线| 在线视频精品一区| 久久精品一卡日本电影| 欧美成人区| 日韩AV无码免费一二三区| 欧美午夜小视频| 亚洲第一区精品日韩在线播放| 色婷婷在线影院| 久久视精品| 成人中文字幕在线| 日韩高清成人| 狠狠色成人综合首页| 久久国语对白| 亚洲精品无码不卡在线播放| 成人va亚洲va欧美天堂| 亚洲av中文无码乱人伦在线r| 91在线播放国产| 亚洲精品桃花岛av在线| 亚洲国产精品久久久久秋霞影院| 精品剧情v国产在线观看| 亚洲综合激情另类专区| 色婷婷亚洲综合五月| 激情综合图区| 日本精品一在线观看视频| 香蕉久人久人青草青草| WWW丫丫国产成人精品| 污网站在线观看视频| AV不卡在线永久免费观看| 囯产av无码片毛片一级| 久久综合结合久久狠狠狠97色 | 99久久精品国产麻豆婷婷| 欧美日本一区二区三区免费| 国产精品嫩草影院av| 久久久久无码国产精品不卡| 国产精品hd在线播放| 亚洲天堂视频网站| 777午夜精品电影免费看| 色婷婷天天综合在线| 亚洲一级无毛片无码在线免费视频| 欧美人与牲动交a欧美精品| 欧美精品xx| 无码福利日韩神码福利片| 波多野吉衣一区二区三区av| 亚洲第一区在线| 视频在线观看一区二区| 国产精品网址你懂的| 久久99国产视频| 亚洲精品国产成人7777| 四虎精品黑人视频| 午夜少妇精品视频小电影| 精品一区二区三区波多野结衣| 免费又爽又刺激高潮网址 | 欧美 国产 人人视频| 久久综合九色综合97婷婷| 99久久国产综合精品女同| 国产乱子伦手机在线| 亚洲综合天堂网| 亚洲国产中文精品va在线播放| 操操操综合网| 久久a级片| 婷婷色丁香综合激情| 国模极品一区二区三区| 欧美成人区| 91精品国产一区| 国产一区二区三区在线观看视频| 女人18毛片水真多国产| 97se亚洲| 中文字幕乱妇无码AV在线| 思思热精品在线8| 日韩无码视频专区| 伊人成人在线| 精品乱码久久久久久久| 国产超碰一区二区三区| 亚洲精品你懂的| 日本欧美精品| 免费在线a视频| 欧美a√在线| 91色爱欧美精品www| 在线精品亚洲国产| 国内精品自在自线视频香蕉|