999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)MobileNetV2和主從網(wǎng)絡(luò)的行人重識(shí)別方法

2024-01-17 09:54:22魏文芬謝文蘭
關(guān)鍵詞:特征方法

魏文芬,謝文蘭,李 波

(廣東培正學(xué)院 數(shù)據(jù)科學(xué)與計(jì)算機(jī)學(xué)院,廣東 廣州 510800)

行人重識(shí)別(Re-IDentification,Re-ID)在多個(gè)不同相機(jī)捕捉到的視圖中檢索感興趣的目標(biāo)。[1]隨著深度神經(jīng)網(wǎng)絡(luò)技術(shù)的進(jìn)步和智能視頻監(jiān)控需求的上升,Re-ID已成為計(jì)算機(jī)視覺中的熱門研究課題。[2]

一般來(lái)說(shuō),行人重識(shí)別問題可分為基于圖像的Re-ID和基于視頻的Re-ID。[3]其中,在基于圖像的Re-ID中,查詢和圖庫(kù)均為圖像,即圖像到圖像Re-ID。在基于視頻的Re-ID中,查詢和圖庫(kù)均為視頻,即視頻到視頻Re-ID。在圖像到圖像Re-ID設(shè)定下,單個(gè)圖像僅捕捉目標(biāo)的單個(gè)視圖,可能不足以表現(xiàn)其身份標(biāo)識(shí)的多重模態(tài)分布,限制了重識(shí)別的現(xiàn)實(shí)應(yīng)用范圍。[4]在視頻到視頻Re-ID方面,文獻(xiàn)[5]提出了從圖像幀特征序列中學(xué)習(xí)具有區(qū)分性的全局—局部時(shí)間表征的端到端卷積神經(jīng)網(wǎng)絡(luò)(CNN)方法,以結(jié)合鄰近幀之間的短期時(shí)間線索和不連續(xù)幀之間的長(zhǎng)期關(guān)系,解決視頻序列中的遮擋和噪聲問題。文獻(xiàn)[6]提出了基于多樣性約束和離散度分層聚類的無(wú)監(jiān)督行人重識(shí)別方法。但在許多現(xiàn)實(shí)場(chǎng)景中,圖庫(kù)集合通常包含大量監(jiān)控視頻,而查詢可能僅是單張圖像。這種情況下,必須在圖像和視頻之間執(zhí)行Re-ID任務(wù)。[7]

為提高行人重識(shí)別技術(shù)的通用性,研究人員提出了將少量圖像作為查詢輸入的圖像到視頻行人Re-ID方法。與基于圖像和視頻的行人Re-ID任務(wù)相比,圖像到視頻的Re-ID任務(wù)是圖像和視頻之間的跨模態(tài)檢索任務(wù)。[8]文獻(xiàn)[9]采用異構(gòu)字典對(duì)學(xué)習(xí)和顯著區(qū)域聚類方法,以傳統(tǒng)的方式處理該任務(wù)。文獻(xiàn)[10]將原始圖像和視頻映射到學(xué)習(xí)到的異構(gòu)深度特征空間中,并通過(guò)深度距離度量對(duì)學(xué)習(xí)過(guò)程進(jìn)行監(jiān)督,其中利用CNN提取圖像和視頻圖像幀的特征,并利用k-最近鄰三元組損失,在不同身份標(biāo)識(shí)上構(gòu)建圖像特征與視頻幀特征之間的關(guān)系。

但與視頻到視頻Re-ID相比,圖像到視頻的行人Re-ID方法之間依然存在較大性能差距,查詢圖像數(shù)量是決定性能的關(guān)鍵因素。[11]學(xué)習(xí)到的表征不應(yīng)受到輸入網(wǎng)絡(luò)的圖像數(shù)量(例如僅一張圖像)的較大影響。為填補(bǔ)性能差距,文獻(xiàn)[12]提出了時(shí)間知識(shí)傳播(TKP)方法,將視頻表征網(wǎng)絡(luò)學(xué)習(xí)到的時(shí)間知識(shí)傳播到圖像表征網(wǎng)絡(luò),以解決行人圖像中缺少時(shí)間信息,以及圖像和視頻特征之間信息不對(duì)稱的問題,并利用額外的分類和三元組損失,從圖像和視頻特征中學(xué)習(xí)更具表現(xiàn)力和區(qū)分性的特征。但該方法依賴于時(shí)間信息的傳播,需要利用數(shù)據(jù)集的跟蹤注釋,實(shí)現(xiàn)從軌跡片段到圖像幀的知識(shí)遷移。因此,時(shí)間信息遷移中存在局限性。

本文提出了基于主從網(wǎng)絡(luò)的圖像到視頻行人重識(shí)別方法。其主要?jiǎng)?chuàng)新之處總結(jié)如下:(1)提出一種改進(jìn)的MobileNet-V2網(wǎng)絡(luò),通過(guò)雙重歸一化改善特征空間和域適應(yīng)性。(2)基于知識(shí)學(xué)習(xí)策略,將視頻域網(wǎng)絡(luò)在多視圖下學(xué)習(xí)到的視覺多樣性信息遷移至圖像域網(wǎng)絡(luò),從而利用單張圖像準(zhǔn)確快速地完成行人重識(shí)別任務(wù)。

1 研究方法

所提方法是學(xué)習(xí)映射函數(shù)Fθ(S),將圖像集合S=(s1,s2,sn)映射到有代表性的嵌入空間。具體來(lái)說(shuō),S為裁剪出的目標(biāo)包圍框序列,需要推理其相應(yīng)身份標(biāo)識(shí)。利用改進(jìn)的MobileNetV2對(duì)Fθ(S)建模。通常,尋找兩個(gè)有區(qū)分性的屬性:(1)對(duì)背景和視點(diǎn)中差異的不變性;(2)對(duì)查詢圖像數(shù)量減少的魯棒性。為此,本文采用兩階段的訓(xùn)練算法,具體網(wǎng)絡(luò)框架如圖1所示。

(1)針對(duì)標(biāo)準(zhǔn)的視頻到視頻設(shè)定,對(duì)骨干網(wǎng)絡(luò)MobileNet-V2-IN-BN進(jìn)行訓(xùn)練。

(2)將該網(wǎng)絡(luò)作為主網(wǎng)絡(luò),并凍結(jié)其參數(shù)。其后,將同樣架構(gòu)的新網(wǎng)絡(luò)作為從網(wǎng)絡(luò)并實(shí)例化。如圖1所示,將代表不同視圖的圖像幀作為主網(wǎng)絡(luò)的輸入,并要求從網(wǎng)絡(luò)從少量圖像幀中模擬相同的輸出。

圖1 本文方法的網(wǎng)絡(luò)框架圖

1.1 MobileNet-V2

一般MobileNet-V2網(wǎng)絡(luò)架構(gòu)如表1所示,主要網(wǎng)絡(luò)層由一個(gè)或多個(gè)bottleneck組成。其中,n為該層bottleneck個(gè)數(shù),t為該網(wǎng)絡(luò)層中每個(gè)bottleneck的首個(gè)1×1卷積對(duì)輸入通道擴(kuò)張率,c為該層bottleneck的輸出通道數(shù),s為該層首個(gè)bottleneck卷積步長(zhǎng),其他bottleneck的步長(zhǎng)為1。

表1 MobileNet-V2架構(gòu)

1.2 改進(jìn)MobileNet-V2

本文使用改進(jìn)的MobileNet-V2作為骨干網(wǎng)絡(luò),如圖2所示,結(jié)合了實(shí)例歸一化和批歸一化。

圖2 改進(jìn)后的MoblieNet-V2框架圖

1.2.1實(shí)例歸一化

改進(jìn)前后的bottleneck如圖3所示,實(shí)例歸一化(IN)主要用于風(fēng)格遷移任務(wù)中,利用樣本統(tǒng)計(jì)信息在實(shí)例層面對(duì)特征響應(yīng)進(jìn)行歸一化。其假定圖像風(fēng)格被編碼到一階統(tǒng)計(jì)信息中,即卷積特征圖的均值和方差。通過(guò)對(duì)原始反轉(zhuǎn)的殘差bottlenecks進(jìn)行歸一化,過(guò)濾掉實(shí)例特定的風(fēng)格差異性,使學(xué)習(xí)到的特征更具通用性。

注:(a)原始bottleneck;(b)改進(jìn)后的bottleneck。圖3 改進(jìn)前后的bottleneck

1.2.2批歸一化

利用BN作為特征標(biāo)準(zhǔn)化方法,如圖3所示,在倒數(shù)第二個(gè)網(wǎng)絡(luò)層應(yīng)用BN。將圖庫(kù)圖像{Sn}n=1,...N通過(guò)F(·)以得到未歸一化的特征F(sn)∈RB×C×H×W,H和W表示空間位置,C為通道數(shù),B表示小批中的樣本數(shù)。利用全局平均池化層,將F(sn)轉(zhuǎn)換為f(sn)∈RB×C×1×1。其后,在小批上使用均值μ和方差σ2對(duì)f(sn)的每個(gè)通道進(jìn)行歸一化:

(1)

由此,特定實(shí)例的特征將依賴于小批中其他實(shí)例,有助于網(wǎng)絡(luò)訓(xùn)練的規(guī)范化。BN還有助于穩(wěn)定梯度,支持更高的學(xué)習(xí)率,改善收斂速度和通用性。

1.2.3改進(jìn)后的優(yōu)勢(shì)說(shuō)明

通過(guò)利用IN和BN結(jié)合的雙重歸一化機(jī)制,改善學(xué)習(xí)到的特征空間對(duì)不同域的適應(yīng)能力,提高通用性。具體來(lái)說(shuō),假定重識(shí)別任務(wù)中的域差異來(lái)自于圖像風(fēng)格和內(nèi)容的差異。神經(jīng)網(wǎng)絡(luò)淺層的IN能夠?qū)τ蛱囟ǖ膱D像風(fēng)格(例如顏色、光照等)進(jìn)行顯式建模。在特征提取器之后應(yīng)用BN,對(duì)不同相機(jī)角度、體型、視角、姿態(tài)等引起的內(nèi)容差異進(jìn)行歸一化。由此,所提特征提取器降低了在不同數(shù)據(jù)集上執(zhí)行重識(shí)別任務(wù)時(shí)的域特定偏差,提高模型的適應(yīng)性和通用性。添加的歸一化網(wǎng)絡(luò)層增加的參數(shù)量在整個(gè)網(wǎng)絡(luò)參數(shù)中的占比極小,可忽略不計(jì)。新增參數(shù)以端到端的方式與網(wǎng)絡(luò)其他參數(shù)一起學(xué)習(xí),增加的計(jì)算和存儲(chǔ)成本很少。

1.3 主網(wǎng)絡(luò)

本文假定來(lái)自相同軌跡片段的圖像中之間存在高相關(guān)性,而這種相關(guān)性并未在知識(shí)遷移中得到充分利用。此外,將分析限制在時(shí)間域并不能確保背景外觀變化時(shí)的魯棒性。可以進(jìn)一步考慮要遷移的信息,從時(shí)間遷移擴(kuò)展到視圖遷移,將相同目標(biāo)的不同視圖集成在一起,可得到更優(yōu)價(jià)值的信息。此類信息很容易獲得,因?yàn)楹芏鄶?shù)據(jù)集都提供了相同目標(biāo)在不同相機(jī)視角拍攝的圖像。利用不同視圖可得到更具區(qū)分性的逐圖像塊模式,與軌跡片段視圖計(jì)算相比,來(lái)自相同身份標(biāo)識(shí)的激活更具一致性。從而提高對(duì)數(shù)據(jù)集中語(yǔ)義特征的捕捉能力,支持主網(wǎng)絡(luò)將更有價(jià)值的信息傳遞給從網(wǎng)絡(luò)。

對(duì)來(lái)自多個(gè)域的標(biāo)注圖像進(jìn)行聚合,并訓(xùn)練模型區(qū)分所有N個(gè)身份標(biāo)識(shí)。在MobileNetV2架構(gòu)中,將最后一個(gè)分類層(FC)的尺寸變?yōu)镹,即總標(biāo)識(shí)數(shù)量。使用交叉熵(CE)損失,計(jì)算所有源域的損失:

(2)

LTriple旨在施加特征空間中的距離約束,向相同目標(biāo)表征靠攏,并遠(yuǎn)離不同目標(biāo)表征:

(3)

式(3)中,Sa為錨圖像,Spov和Sneg分別為絕對(duì)正樣本和絕對(duì)負(fù)樣本。

1.4 從網(wǎng)絡(luò)

訓(xùn)練主網(wǎng)絡(luò)后,所提方法可增強(qiáng)整個(gè)網(wǎng)絡(luò)的表征能力,特別是當(dāng)模型僅有極少數(shù)圖像可用的情況下。為此,假定可以從不同條件下描述同一個(gè)目標(biāo)的不同視圖。重識(shí)別任務(wù)中,通??衫貌煌鄼C(jī)視圖提高目標(biāo)外觀多樣性,得到目標(biāo)身份標(biāo)識(shí)。理論上可指導(dǎo)一個(gè)新網(wǎng)絡(luò)從單張圖像中恢復(fù)這種多樣性。一般可將該知識(shí)作為督導(dǎo)信號(hào),鼓勵(lì)從網(wǎng)絡(luò)將注意力放在重要細(xì)節(jié)上,并盡量發(fā)現(xiàn)新的細(xì)節(jié)。

LCES=τ2KL(?TR||?ST)

(4)

式(4)中,τ為溫度參數(shù),?TR=softmax(hTR/τ)和?ST=softmax(hST/τ)為通過(guò)τ平滑后的分布,所提方案旨在匹配?TR和?ST。主網(wǎng)絡(luò)的參數(shù)是固定的,則其熵也是常量,因此式(4)的目的是將?TR和?ST之間的交叉熵最小化。由于從網(wǎng)絡(luò)的任務(wù)與主網(wǎng)絡(luò)不同,式中集成了正則化項(xiàng),[14]可以解決嚴(yán)重遺忘問題。

在擬合到主網(wǎng)絡(luò)的輸出之外,所提方法中在從網(wǎng)絡(luò)習(xí)得的嵌入空間上施加了額外約束。具體來(lái)說(shuō),所提方法鼓勵(lì)從網(wǎng)絡(luò)遵循主網(wǎng)絡(luò)的逐對(duì)距離。主網(wǎng)絡(luò)得出的第i個(gè)集合和第j個(gè)集合之間的距離計(jì)算為:

(5)

則所提方法旨在將損失函數(shù)最小化:

(6)

式(6)中,DST[i,j]表示從網(wǎng)絡(luò)的第i個(gè)和第j個(gè)集合之間的距離,Bsize為批大小。由于主網(wǎng)絡(luò)能夠訪問多個(gè)視角,考慮其特征空間中的距離能夠更好地描述相應(yīng)身份標(biāo)識(shí)。從網(wǎng)絡(luò)方面,通過(guò)保留主網(wǎng)絡(luò)的距離指標(biāo),提供了額外的語(yǔ)義知識(shí)。由此得到有效的督導(dǎo)信號(hào),并通過(guò)優(yōu)化增強(qiáng)少量圖像可用情況下的重識(shí)別性能。

一般情況下,通過(guò)將學(xué)習(xí)項(xiàng)(LCES和LDTS)與主網(wǎng)絡(luò)的教導(dǎo)項(xiàng)(LCET和LTriple)結(jié)合在一起,由此改善條件似然性??傊?主從學(xué)習(xí)方案的目的是通過(guò)以下優(yōu)化問題,強(qiáng)化重識(shí)別任務(wù)中的特征:

(7)

式(7)中,δ和λ是用于對(duì)平衡總損失L的作用的兩個(gè)超參數(shù)。基于經(jīng)驗(yàn),設(shè)δ=10-1,λ=10-4。

2 實(shí)驗(yàn)與分析

2.1 實(shí)驗(yàn)設(shè)置

實(shí)驗(yàn)在配置為intel四核i5的臺(tái)式電腦上進(jìn)行,采用pytorch機(jī)器學(xué)習(xí)庫(kù)實(shí)現(xiàn),GPU為GTX 1060。應(yīng)用隨機(jī)裁剪和隨機(jī)翻轉(zhuǎn)以實(shí)現(xiàn)數(shù)據(jù)增廣。

采用從頭訓(xùn)練模型,所有網(wǎng)絡(luò)層的初始學(xué)習(xí)率均為0.01。對(duì)于輸入圖像幀,保留高寬比并將圖像大小調(diào)整為256×128。使用隨機(jī)梯度下降優(yōu)化器對(duì)主網(wǎng)絡(luò)進(jìn)行300代訓(xùn)練,并對(duì)從網(wǎng)絡(luò)進(jìn)行500代訓(xùn)練。在100代之后將學(xué)習(xí)率除以10。在所有實(shí)驗(yàn)中,τ=10,δ=10-1,λ=10-4,Q=8,Q′=2。

在評(píng)估時(shí)不考慮查詢圖像與圖庫(kù)圖像為同一個(gè)相機(jī)捕捉圖像的情況。不同數(shù)據(jù)集之間雖然設(shè)定不同,但根據(jù)以往行人重識(shí)別研究,使用累積匹配特征(CMC,即top-k擊中概率)和平均精度均值(mAP)作為性能指標(biāo),評(píng)估所提方法的性能[15]。

2.2 數(shù)據(jù)集

本文使用中使用了兩個(gè)Re-ID研究常用的數(shù)據(jù)集,具體介紹如下。

(1)MARS數(shù)據(jù)集[16],包含從6個(gè)不同相機(jī)捕捉的1260個(gè)行人的19680個(gè)視頻片段,每個(gè)軌跡片段平均為59幀。將625個(gè)行人標(biāo)識(shí)用于訓(xùn)練集,將626個(gè)行人標(biāo)識(shí)用于圖庫(kù),并將622個(gè)行人標(biāo)識(shí)用于查詢。MAR是自動(dòng)注釋數(shù)據(jù)集,因此誤差會(huì)造成該數(shù)據(jù)集的性能結(jié)果相對(duì)稍低。

(2)Duke-Video數(shù)據(jù)集,[17]包含從8個(gè)相機(jī)捕捉的1404個(gè)行人的5534個(gè)軌跡片段,每個(gè)軌跡片段平均為167幀。該數(shù)據(jù)集的注釋為手工標(biāo)注。

對(duì)于兩個(gè)數(shù)據(jù)集,在測(cè)試圖像到視頻Re-ID任務(wù)時(shí),提取每個(gè)軌跡片段的第1幀作為查詢圖像。圖4給出了兩個(gè)數(shù)據(jù)集中的樣例圖像,每行圖像為不同相機(jī)捕捉的同一個(gè)行人的兩個(gè)序列的圖像幀。

圖4 數(shù)據(jù)集樣例圖像

2.3 主從網(wǎng)絡(luò)分析

本節(jié)將分析在行人重識(shí)別任務(wù)中,使用主從網(wǎng)絡(luò)實(shí)現(xiàn)的性能增益。表2為主從網(wǎng)絡(luò)的增益分析。從中可發(fā)現(xiàn),MobileNet-V2-IN-BN比原網(wǎng)絡(luò)實(shí)現(xiàn)了較大的性能提升,說(shuō)明IN和BN模塊相結(jié)合,顯著提升了跨域準(zhǔn)確度,增強(qiáng)模型對(duì)不同風(fēng)格和不同內(nèi)容的魯棒性,有效移除不同領(lǐng)域上的統(tǒng)計(jì)信息差異,改善行人重識(shí)別任務(wù)的性能。此外,所提主從網(wǎng)絡(luò)所有設(shè)定下均取得了最好性能,特別是在圖像到視頻設(shè)定下,mAP度量平均獲得了3.83%的增益。這是因?yàn)樗岱桨竿ㄟ^(guò)主網(wǎng)絡(luò)的視圖遷移,將相同目標(biāo)的不同視圖集成在一起,得到更有價(jià)值的特征知識(shí)并遷移至從網(wǎng)絡(luò),由此提高對(duì)語(yǔ)義特征的捕捉能力,從而指導(dǎo)從網(wǎng)絡(luò)從單張圖像中恢復(fù)場(chǎng)景多樣性,顯著增強(qiáng)了在少量查詢圖像可用情況下的重識(shí)別性能。而在視頻到視頻設(shè)定中,由于在知識(shí)傳遞損失函數(shù)中結(jié)合了正則化項(xiàng),解決了遺忘問題,使得所提主從網(wǎng)絡(luò)也能夠很好地處理長(zhǎng)序列輸入。因此,主從網(wǎng)絡(luò)在僅少數(shù)查詢圖像可用的情況下能夠顯著提升原網(wǎng)絡(luò)的性能,這與從網(wǎng)絡(luò)的優(yōu)化目標(biāo)是一致的。

表2 主從網(wǎng)絡(luò)性能比較

2.4 與其他方法比較

2.4.1圖像到視頻的設(shè)定

表3和表4分別給出了針對(duì)圖像到視頻的Re-ID,所提方法與當(dāng)前其他先進(jìn)方法在MARS和Duke-Video數(shù)據(jù)集上的比較結(jié)果。從結(jié)果中可以發(fā)現(xiàn),基于深度學(xué)習(xí)的方法性能顯著優(yōu)于使用手工特征的傳統(tǒng)方法。[9]所提方法取得了最好性能,這證明了基于特征距離的主從網(wǎng)絡(luò)能夠從同一個(gè)目標(biāo)的不同視圖中提取出更有價(jià)值的信息,增強(qiáng)了對(duì)查詢和圖庫(kù)中圖像幀的語(yǔ)義解析能力。此外,所提方法優(yōu)于同樣采用主從網(wǎng)絡(luò)的文獻(xiàn)方法。[12]這是因?yàn)楫?dāng)查詢圖像數(shù)量很少時(shí),文獻(xiàn)[12]基于時(shí)間域的知識(shí)傳播存在一定的局限性。而所提方法不依賴于內(nèi)部表征匹配,而是僅依賴于內(nèi)部表征之間的距離,因此所提方法更適用于跨域知識(shí)傳遞。并且在知識(shí)遷移過(guò)程中,利用多個(gè)視點(diǎn)增強(qiáng)了視覺多樣性。

表3 MARS數(shù)據(jù)集的比較結(jié)果

表4 Duke-Video數(shù)據(jù)集的比較結(jié)果

2.4.2視頻到視頻的設(shè)定

表4給出了在MARS數(shù)據(jù)集上,所提方法與其他方法的視頻到視頻設(shè)定下的行人Re-ID的性能比較。與相比較的方法不同,所提方法并非針對(duì)查詢?yōu)橐曨l的情況而設(shè)計(jì)。但本文方法依然取得了稍優(yōu)于其他方法的性能,這證明了使用的Mobile-V2-IN-BN骨干網(wǎng)絡(luò)能夠準(zhǔn)確捕捉查詢圖像幀中的關(guān)鍵特征,且在知識(shí)遷移的過(guò)程中不但沒有造成過(guò)多的信息丟失,且通過(guò)訓(xùn)練從網(wǎng)絡(luò)從少量圖像中識(shí)別出場(chǎng)景多樣性信息,提高了整體網(wǎng)絡(luò)的性能。

表5 視頻到視頻設(shè)定下的比較

2.5 可視化分析

為進(jìn)一步評(píng)估主網(wǎng)絡(luò)和從網(wǎng)絡(luò)之間的差異,本文利用GradCam展示在預(yù)測(cè)身份標(biāo)識(shí)時(shí)影響最大的輸入?yún)^(qū)域[18]。圖5(a)和圖5(b)分別給出了在Duke-video和MARS數(shù)據(jù)集上的示例圖像,圖中紅色區(qū)域表示網(wǎng)絡(luò)重點(diǎn)關(guān)注區(qū)域。從中可發(fā)現(xiàn),主網(wǎng)絡(luò)明顯受到了不同背景與姿態(tài)的影響。相比之下,從網(wǎng)絡(luò)通過(guò)特征學(xué)習(xí)和優(yōu)化,將注意力盡可能集中在目標(biāo)對(duì)象本身。分析結(jié)果證明所提主從學(xué)習(xí)方案能夠有效提升圖像到視頻Re-ID的匹配性能。

圖5 注意力的可視化結(jié)果

所提方法行人重識(shí)別的部分結(jié)果如圖6所示,其中,第1列作為查詢圖像(無(wú)邊框),后幾列圖像為查詢后的圖像。草綠色邊框?yàn)檎_檢索結(jié)果,黃色邊框?yàn)殄e(cuò)誤檢測(cè)結(jié)果,由圖6可以看出,所提方法可以應(yīng)對(duì)不同姿態(tài)變化和遮擋,這說(shuō)明所提方法可以有效進(jìn)行行人重識(shí)別。

圖6 部分人體重識(shí)別的結(jié)果展示

3 結(jié)論

提出了一種利用主從網(wǎng)絡(luò)提高特征學(xué)習(xí)的效果,通過(guò)視頻域到圖像域的知識(shí)傳遞,使得最終主從網(wǎng)絡(luò)能夠利用少量圖像推導(dǎo)出多樣性的特征。此外,本文通過(guò)實(shí)例歸一化和批歸一化模塊對(duì)MobileNet-V2進(jìn)行改進(jìn),改善了圖像到視頻的行人重識(shí)別準(zhǔn)確度和效率。實(shí)驗(yàn)結(jié)果表明,所提方法能夠?qū)⒆⒁饬性谀繕?biāo)最關(guān)鍵的識(shí)別特征上,顯著提高行人重識(shí)別的性能。

猜你喜歡
特征方法
抓住特征巧觀察
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
學(xué)習(xí)方法
抓住特征巧觀察
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 日本少妇又色又爽又高潮| 日本在线国产| 精品国产免费观看一区| 久久久久亚洲精品无码网站| 免费无码在线观看| 亚洲无码91视频| 人妖无码第一页| 欧美成人手机在线视频| 亚洲IV视频免费在线光看| 免费无遮挡AV| 欧美天天干| 国产综合日韩另类一区二区| 97国产在线播放| 国产91视频观看| 国产美女91呻吟求| 亚洲第一区欧美国产综合| 先锋资源久久| AV无码国产在线看岛国岛| 91亚洲视频下载| 国产一区二区影院| 国产精品九九视频| 国产午夜无码片在线观看网站| 国产精女同一区二区三区久| 日本高清免费一本在线观看 | 日韩精品一区二区三区中文无码| 亚洲久悠悠色悠在线播放| 久久一日本道色综合久久| 在线观看视频99| 精品第一国产综合精品Aⅴ| 久久无码av三级| 无码aaa视频| a毛片在线免费观看| 国产96在线 | 69精品在线观看| 国产xx在线观看| 四虎AV麻豆| 伊人大杳蕉中文无码| 国产性精品| 欧美激情视频二区三区| 欧美亚洲国产精品久久蜜芽| 亚洲AⅤ波多系列中文字幕| 99久久99这里只有免费的精品| 日韩精品成人在线| 亚洲成年人网| 亚洲日本中文综合在线| 久久久久88色偷偷| 漂亮人妻被中出中文字幕久久| 99精品高清在线播放| 99免费视频观看| 久久综合九色综合97婷婷| 亚洲精品无码抽插日韩| 99久久婷婷国产综合精| 欧美一级99在线观看国产| 2020国产精品视频| 人人爱天天做夜夜爽| 98超碰在线观看| 91偷拍一区| 色婷婷成人网| a色毛片免费视频| 国产在线观看精品| 看你懂的巨臀中文字幕一区二区| 国产手机在线小视频免费观看| 国产成人亚洲精品色欲AV| 国产欧美视频在线观看| 亚洲一区波多野结衣二区三区| 国产区免费精品视频| 波多野结衣一区二区三区88| 亚洲高清日韩heyzo| 热re99久久精品国99热| 2020极品精品国产| 97se亚洲综合在线韩国专区福利| 露脸真实国语乱在线观看| 亚洲天堂精品视频| 亚洲国产黄色| 成人午夜久久| 91外围女在线观看| 欧美亚洲国产一区| 国产成人调教在线视频| 高清不卡一区二区三区香蕉| 亚洲国产成人超福利久久精品| 风韵丰满熟妇啪啪区老熟熟女| 素人激情视频福利|