


摘要:在大規(guī)模攝像機(jī)網(wǎng)絡(luò)中,行人再識(shí)別人工標(biāo)記圖像對(duì)的時(shí)間成本和經(jīng)濟(jì)成本十分昂貴。因此,最小化標(biāo)記成本成 為行人再識(shí)別研究的關(guān)鍵問題。標(biāo)記代價(jià)最小化問題被證明是NP-難的,現(xiàn)有求解方法主要基于貪婪策略得到非最優(yōu) 解。針對(duì)行人再識(shí)別中人工標(biāo)記成本高昂的問題,提出一種基于最大生成樹的標(biāo)記代價(jià)優(yōu)化算法。該算法在執(zhí)行貪婪 操作前,利用Prim算法構(gòu)建攝像機(jī)網(wǎng)絡(luò)的最大生成樹,并將樹上邊對(duì)應(yīng)的圖像對(duì)加入人工標(biāo)記集,從而提高標(biāo)記傳遞效 率。實(shí)驗(yàn)結(jié)果表明,該算法在不同標(biāo)記預(yù)算下均能有效降低人工標(biāo)記成本,提升自動(dòng)標(biāo)記效果。
關(guān)鍵詞:行人再識(shí)別;標(biāo)記代價(jià);最大生成樹;Prim算法;貪婪策略
中圖分類號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1009-3044(2025)13-0024-04
0 引言
行人再識(shí)別(Person Re-identification) 是利用計(jì)算 機(jī)視覺技術(shù)在非重疊視角域多攝像機(jī)網(wǎng)絡(luò)下對(duì)同一 行人進(jìn)行檢索,確認(rèn)不同位置的攝像機(jī)在不同的時(shí)刻 拍攝到的行人目標(biāo)是否為同一人,可以簡(jiǎn)單理解為對(duì) 不同的、沒有視野重疊覆蓋的攝像機(jī)拍攝的行人圖像 建立對(duì)應(yīng)關(guān)系的處理過程。行人再識(shí)別被認(rèn)為是圖 像檢索的一個(gè)子問題,目的是彌補(bǔ)固定攝像機(jī)的視覺 局限,能夠根據(jù)行人的體態(tài)、發(fā)型、穿著、行為等信息 識(shí)別行人,縮短傳統(tǒng)人工查閱視頻圖像、鎖定人員軌 跡的時(shí)間[1-2] 。
行人再識(shí)別因其實(shí)際應(yīng)用潛力,成為計(jì)算機(jī)視覺 領(lǐng)域的研究熱點(diǎn)。近年來(lái),隨著行人再識(shí)別領(lǐng)域大規(guī) 模標(biāo)記數(shù)據(jù)集的陸續(xù)發(fā)布,針對(duì)行人再識(shí)別提出了許 多有效的監(jiān)督學(xué)習(xí)方法[3] 。然而,監(jiān)督學(xué)習(xí)方法依賴 于整個(gè)訓(xùn)練數(shù)據(jù)的大量人工標(biāo)記,而獲取這些標(biāo)記既 費(fèi)時(shí)又昂貴。出于時(shí)間和金錢方面的考慮,對(duì)大規(guī)模 數(shù)據(jù)進(jìn)行人工標(biāo)記在實(shí)際應(yīng)用中是不現(xiàn)實(shí)的。因此, 對(duì)人工標(biāo)記的需求嚴(yán)重限制了這些方法的可擴(kuò)展性, 為所有大規(guī)模數(shù)據(jù)集提供昂貴標(biāo)記是不切實(shí)際的[4-5] 。 因此,如何在保證性能的前提下降低標(biāo)記成本,是行 人再識(shí)別研究的關(guān)鍵問題。
近年來(lái),針對(duì)數(shù)據(jù)標(biāo)記成本問題,研究人員主要 從兩方面提出了降低數(shù)據(jù)標(biāo)記成本的各種方案。一 方面,研究無(wú)監(jiān)督或半監(jiān)督的行人再識(shí)別。無(wú)監(jiān)督行 人再識(shí)別在沒有任何人工標(biāo)記的情況下學(xué)習(xí)數(shù)據(jù)集 的特征表示,半監(jiān)督行人再識(shí)別利用現(xiàn)有的標(biāo)記數(shù)據(jù) 探索剩余的未標(biāo)記數(shù)據(jù)集。無(wú)監(jiān)督行人再識(shí)別通常 因無(wú)法獲得更具判別性的特征表示而導(dǎo)致性能嚴(yán)重 下降,而半監(jiān)督行人再識(shí)別的數(shù)據(jù)標(biāo)注成本仍然很 高。另一方面,研究主動(dòng)學(xué)習(xí)行人再識(shí)別,選擇最具 信息量的圖像對(duì)進(jìn)行標(biāo)記。主動(dòng)選擇一組圖像對(duì)作 為人類專家標(biāo)注的候選樣本,然后這些標(biāo)記樣本將作 為下一輪模型訓(xùn)練的監(jiān)督。這些步驟不斷重復(fù),直到 預(yù)期標(biāo)注預(yù)算耗盡。盡管現(xiàn)有的主動(dòng)學(xué)習(xí)行人再識(shí) 別方法能夠取得良好的性能,但其標(biāo)注成本仍然不容 忽視。
降低行人再識(shí)別標(biāo)記成本仍具有挑戰(zhàn)性,現(xiàn)有研 究缺乏從計(jì)算理論和計(jì)算復(fù)雜性角度分析數(shù)據(jù)標(biāo)記 成本問題。S. Roy等人將數(shù)據(jù)標(biāo)記成本問題抽象為圖 上的子集選擇問題,證明了該問題是 NP-難的[6] 。在 此基礎(chǔ)上,通過標(biāo)記傳遞性來(lái)優(yōu)化人工標(biāo)記代價(jià),提 出了一個(gè)近似度為2的近似算法和一個(gè)貪婪啟發(fā)式算 法,該啟發(fā)式算法貪婪選擇當(dāng)前權(quán)重最大的邊。在S. Roy等人工作的基礎(chǔ)上,研究數(shù)據(jù)標(biāo)記成本問題的計(jì) 算優(yōu)化。首先對(duì)數(shù)據(jù)標(biāo)記成本問題進(jìn)行嚴(yán)謹(jǐn)抽象建 模。然后基于最大生成樹策略,對(duì)S. Roy等人提出的 啟發(fā)式算法進(jìn)行優(yōu)化,在進(jìn)行貪婪選擇前求解最大生 成樹,增加標(biāo)記傳遞概率。在公開數(shù)據(jù)集WARD上的 測(cè)試表明,提出的新算法能增加傳遞標(biāo)記量,降低人 工標(biāo)記成本。
本文第1節(jié)介紹相關(guān)工作,第2節(jié)給出預(yù)備知識(shí) 與問題模型,第3節(jié)提出改進(jìn)算法,第4節(jié)進(jìn)行實(shí)驗(yàn)分 析,第5節(jié)總結(jié)全文。
1 相關(guān)工作
無(wú)監(jiān)督行人再識(shí)別為了充分利用未標(biāo)記的數(shù)據(jù) 集,通常使用現(xiàn)有的聚類算法生成偽標(biāo)簽作為監(jiān)督來(lái) 訓(xùn)練模型,如何生成更準(zhǔn)確的偽標(biāo)簽是關(guān)鍵。文獻(xiàn)[7] 提出了一種自下而上的聚類框架,以聯(lián)合方式優(yōu)化模型和樣本關(guān)系。文獻(xiàn)[8]提出了群感知標(biāo)簽轉(zhuǎn)移算法, 降低孤立聚類過程中標(biāo)簽噪聲的影響,從而增強(qiáng)偽標(biāo) 簽生成過程和特征表示學(xué)習(xí)過程之間的聯(lián)系。文獻(xiàn) [9]利用攝像機(jī)視圖等輔助信息進(jìn)行無(wú)監(jiān)督行人再識(shí) 別。文獻(xiàn)[10]針對(duì)聚類過程中產(chǎn)生不正確偽標(biāo)簽的問 題,提出了基于反事實(shí)注意力學(xué)習(xí)的無(wú)監(jiān)督域自適應(yīng) 行人再識(shí)別方法。文獻(xiàn)[11]研究半監(jiān)督行人再識(shí)別, 假設(shè)一小部分身份可以被完全標(biāo)記,首先在標(biāo)記數(shù)據(jù) 上訓(xùn)練模型,然后挖掘未標(biāo)記數(shù)據(jù)之間的關(guān)聯(lián)。然 而,無(wú)監(jiān)督方法在關(guān)鍵基準(zhǔn)上的性能仍遠(yuǎn)低于監(jiān)督 方法。
主動(dòng)學(xué)習(xí)行人再識(shí)別旨在選取最具信息量的圖 像對(duì)進(jìn)行標(biāo)注,在降低標(biāo)注成本的同時(shí)保證模型的性 能,如何設(shè)計(jì)樣本選取策略是主動(dòng)學(xué)習(xí)行人再識(shí)別的 關(guān)鍵問題。文獻(xiàn)[12]首先對(duì)所有圖像進(jìn)行聚類,然后 提出通過在每個(gè)聚類中采樣可信的正樣本對(duì)來(lái)凈化 每個(gè)聚類。在模型訓(xùn)練階段,標(biāo)記的負(fù)樣本對(duì)將被推 離其原始聚類。文獻(xiàn)[4]針對(duì)行人再識(shí)別中成對(duì)圖像 主動(dòng)采樣的高度不平衡導(dǎo)致標(biāo)記預(yù)算浪費(fèi)的問題,提 出了一種基于樣本對(duì)距離的全局估計(jì)的平衡采樣方 法,并通過標(biāo)簽估計(jì)和多樣性測(cè)量進(jìn)一步改進(jìn)。文獻(xiàn) [5]提出了一種支持軌跡的協(xié)作標(biāo)記框架,以減少人工 標(biāo)記的需求。將訓(xùn)練樣本劃分為不同的簇,并將每個(gè) 簇中的相鄰圖像關(guān)聯(lián)起來(lái),以生成魯棒的軌跡。同 時(shí),引入了一個(gè)強(qiáng)大的教師模型來(lái)實(shí)施主動(dòng)學(xué)習(xí)策 略,并為人工標(biāo)記者選擇信息最豐富的軌跡,教師模 型本身也充當(dāng)標(biāo)記器來(lái)標(biāo)記相對(duì)確定的軌跡。主動(dòng) 學(xué)習(xí)行人再識(shí)別通過精心設(shè)計(jì)的采樣策略取得良好 性能,但仍具有較高的標(biāo)記成本。
文獻(xiàn)[6]首次從計(jì)算理論角度研究數(shù)據(jù)標(biāo)記成本 優(yōu)化。提出了一個(gè)成對(duì)子集選擇方案,以最大限度地 減少攝像機(jī)網(wǎng)絡(luò)中人員重新識(shí)別的人工標(biāo)記量。將 任何攝像機(jī)網(wǎng)絡(luò)(具有k個(gè)攝像機(jī)) 表示為一個(gè)邊加權(quán) 的完全k分圖,其中每個(gè)頂點(diǎn)表示一個(gè)人,人之間的相 似度得分用作邊權(quán)重。通過求解k分圖上的無(wú)三角子 圖最大化問題來(lái)選擇一個(gè)最佳的對(duì)子集。證明了這 個(gè)子圖權(quán)重最大化問題是NP-難的(k≥4) 。在此基礎(chǔ) 上,提出了兩個(gè)多項(xiàng)式時(shí)間近似最優(yōu)算法,利用成對(duì) 關(guān)系的傳遞性來(lái)節(jié)省標(biāo)記預(yù)算。但其提出的算法缺 乏從圖論角度對(duì)代表圖像對(duì)的邊的關(guān)系進(jìn)行深入分 析,導(dǎo)致非必要的標(biāo)記成本。本文從計(jì)算理論角度對(duì) 行人再識(shí)別標(biāo)記成本問題進(jìn)行嚴(yán)謹(jǐn)?shù)臄?shù)學(xué)建模,從圖 論角度深入分析模型中邊的傳遞規(guī)律,實(shí)現(xiàn)標(biāo)記代價(jià) 優(yōu)化。
2 預(yù)備知識(shí)與問題模型
減少圖像對(duì)人工標(biāo)記數(shù)量主要通過標(biāo)記傳遞性 來(lái)實(shí)現(xiàn),如圖1所示。如果已知P1 1與P1 2圖像對(duì)是正標(biāo) 記(同一個(gè)人) ,且P1 1與P2 3圖像對(duì)是正標(biāo)記,則依據(jù)傳 遞性,顯然P1 2與P2 3圖像對(duì)也是正標(biāo)記。但是,如果已 知 P1 1 與 P2 2 圖像對(duì)是負(fù)標(biāo)記(不是同一個(gè)人) ,且 P1 1 與 P1 3圖像對(duì)是負(fù)標(biāo)記,則無(wú)法推斷P2 2與P1 3圖像對(duì)的關(guān) 系。標(biāo)記代價(jià)最小化問題就是選擇最少數(shù)量的圖像 對(duì)進(jìn)行人工標(biāo)記,然后利用標(biāo)記傳遞性來(lái)完成未標(biāo)記 圖像對(duì)的自動(dòng)標(biāo)記。
為討論方便,將標(biāo)記代價(jià)最小化問題的圖像對(duì)選 擇建模為邊加權(quán)的k-分圖上的邊選擇。k-分圖是指 頂點(diǎn)可以被劃分為k個(gè)不同的獨(dú)立集的圖,獨(dú)立集中 的頂點(diǎn)之間沒有邊。完全k-分圖是指來(lái)自不同獨(dú)立 集的每對(duì)頂點(diǎn)之間都有一條邊。
將攝像機(jī)網(wǎng)絡(luò)(如圖2所示) 表示為邊加權(quán)的完全 k-分圖。假設(shè)攝像機(jī)網(wǎng)絡(luò)有k臺(tái)攝像機(jī),共有n個(gè)行 人,可將該攝像機(jī)網(wǎng)絡(luò)表示為一個(gè)邊加權(quán)的 k-分圖 Gk"=(V,E) 。 頂點(diǎn)vi k:表示在圖Gk中,第k臺(tái)攝像機(jī)下的第i個(gè) 人的圖像。 邊ei k , 1 j ,k2 = (vj k1,vj k2 ):表示第k1臺(tái)攝像機(jī)下的第i個(gè)人 的圖像和第 k2 臺(tái)攝像機(jī)下的第 j 個(gè)人圖像之間的 關(guān)系。
邊的權(quán)重W (ei k , 1 j ,k2 ):表示第k1臺(tái)攝像機(jī)下的第i個(gè) 人的圖像vi k1和第k2臺(tái)攝像機(jī)下的第j個(gè)人圖像vj k2的相 似度:
公式(1) 的 fk i 1,fk j 2 分別為行人圖像 vj k1,vj k2 的特征向 量,函數(shù)D()計(jì)算圖像特征向量之間的距離,μ為設(shè)定 的閾值。
每臺(tái)攝像機(jī)下的每個(gè)人用圖Gk 上的一個(gè)頂點(diǎn)表 示,圖 Gk 上的頂點(diǎn)集合 V 由所有攝像機(jī)下的所有人 組成。同一臺(tái)攝像機(jī)下的任何兩個(gè)人之間沒有連接關(guān)系,即同一臺(tái)攝像機(jī)下的頂點(diǎn)形成了一個(gè)獨(dú)立集。 不同攝像機(jī)下的任何兩個(gè)人之間存在連接關(guān)系。有k 臺(tái)攝像機(jī)的攝像機(jī)網(wǎng)絡(luò)表示為完全k-分圖。
將圖像對(duì)選擇問題建模為圖Gk"=(V,E) 上的邊集 選擇問題。設(shè)T ? E為邊E的子集,定義T的代價(jià)為T 中所有邊的權(quán)值之和,即cost(T ) = ∑e ∈ TW (e)。 行人再識(shí)別標(biāo)記代價(jià)問題:
實(shí)例:完全k-分圖Gk"=(V,E) ,正整數(shù)B。 任務(wù):選擇E的子集T ? E,使得cost(T ) 最大,滿 足圖G' = (V, T ) 不包含三角形子圖且|T |?B。 行人再識(shí)別標(biāo)記代價(jià)問題被證明是NP-難的。 引理 1[6] 若 k≥4,則行人再識(shí)別標(biāo)記代價(jià)問題是 NP-難的。
3 提出的算法
由于行人再識(shí)別標(biāo)記代價(jià)問題具有NP-難解性, 除非 P=NP,否則無(wú)法在多項(xiàng)式時(shí)間內(nèi)求解該問題的 最優(yōu)解。現(xiàn)對(duì)現(xiàn)有啟發(fā)式算法的不足進(jìn)行分析,并提 出改進(jìn)算法。
1) 現(xiàn)有算法分析
文獻(xiàn)[6]提出的啟發(fā)式算法(為描述方便,命名為 Gree) 的基本思路是貪婪選擇當(dāng)前權(quán)值最大的邊e,如 果 e 加入邊集合 T(T 為待尋找的邊集合) 后不會(huì)形成 三角形,則將該邊 e 加入集合 T。該啟發(fā)式算法通過 多輪迭代選擇邊來(lái)完成。首先定義一個(gè)空集合T,將 圖Gk中的邊按權(quán)重遞減順序排序。在每一次迭代中, 需要判斷 e 與集合 T 中的邊組合后是否會(huì)構(gòu)成三角 形。如果該邊與集合T中的任意邊不構(gòu)成三角形,則 將該邊加入集合T。直到所有邊都迭代完成或集合T 中已有B條邊,算法結(jié)束。
算法Gree的主要問題是在有限人工標(biāo)記預(yù)算下, 所選邊可能分散,不利于利用傳遞性獲得更多標(biāo)記 增量。
2) 改進(jìn)算法
針對(duì)文獻(xiàn)[6]中采用貪婪策略、每次迭代判斷權(quán)重 最大邊是否形成三角形的方法,可能出現(xiàn)雖未形成三 角形但選中的邊屬于多個(gè)分散三角形的情形,導(dǎo)致人 工標(biāo)記后可傳遞的三角形數(shù)量有限。為彌補(bǔ)這一缺 陷,提出采用最大生成樹的方法。
最大生成樹是原圖中的一個(gè)極大無(wú)環(huán)連通子圖 (三角形為一類閉環(huán)) 。求最大生成樹可以得到一個(gè) 無(wú)三角形子圖,且權(quán)重最大可以在傳遞階段盡可能保 證為正標(biāo)記。
提出的新算法 PrimGree 的主要思路是在貪婪選 擇前先生成圖的最大生成樹,從而增加可傳遞的三角 形。新算法PrimGree的具體步驟如算法1所示。
算法 PrimGree 的輸入為代表攝像機(jī)網(wǎng)絡(luò)的圖 Gk 及設(shè)定的人工標(biāo)記預(yù)算B,輸出為代表圖像對(duì)的邊集 合T。開始時(shí),邊集合T為空集。將圖Gk復(fù)制為G',并 對(duì) G' 中的所有邊的權(quán)值取反。接著,利用 Prim 算法 求G'的最小生成樹M,并對(duì)M中的邊按生成順序進(jìn)行 標(biāo)記。隨后,將最小生成樹M上的邊按標(biāo)記順序逐一 加入邊集合T中。最后,調(diào)用Gree 算法,貪婪選擇當(dāng) 前未選且權(quán)重最大且不構(gòu)成三角形的邊加入T,直至 T滿足預(yù)算上限B,返回T,算法結(jié)束。
接下來(lái),分析算法PrimGree的時(shí)間復(fù)雜度。
定理1 給定行人再識(shí)別標(biāo)記代價(jià)問題實(shí)例(Gk=(V, E), B),算法PrimGree能夠在時(shí)間O(| E | 2 )內(nèi)返回問題 實(shí)例的近似解T。
證明:顯然,算法PrimGree返回的T滿足圖G'=(V, T)不包含三角形子圖且|T |?B,因此T是問題實(shí)例的近 似解。算法 PrimGree 的耗時(shí)操作在步驟 3 和步驟 5。
步 驟 3 中 ,利 用 Prim 算 法 求 解 生 成 樹 ,可 以 在 O(| E |log |V |) 時(shí)間內(nèi)完成。步驟 5 可在時(shí)間 O(| E | 2 ) 內(nèi) 完 成[6] 。 因 此 ,算 法 PrimGree 的 時(shí) 間 復(fù) 雜 度 為 O(| E | 2 )。
4 實(shí)驗(yàn)
為了測(cè)試改進(jìn)算法PrimGree的有效性,通過實(shí)驗(yàn) 將其與文獻(xiàn)[6]的近似算法 Appr 和貪婪啟發(fā)式算法 Gree 進(jìn)行比較。為更好地實(shí)現(xiàn)比較,同時(shí)引入算法 Baseline:在人工標(biāo)記預(yù)算B下,直接選取前B條權(quán)值 最大的邊加入人工標(biāo)記集。實(shí)驗(yàn)平臺(tái)配置為:Intel(R) Core(TM) i5-5200U CPU @ 2.20GHz,4G內(nèi)存。
選擇 WARD[13] 作為實(shí)驗(yàn)測(cè)試的數(shù)據(jù)集。WARD 數(shù)據(jù)集于 2012 年發(fā)布,共有 70 個(gè)人,圖像總數(shù)為 4 786張,數(shù)據(jù)集規(guī)模適中,可在常規(guī)實(shí)驗(yàn)平臺(tái)下進(jìn)行測(cè) 試。所有圖像均由三臺(tái)不重疊攝像頭拍攝,拍攝環(huán)境 中光照變化較大。實(shí)驗(yàn)中隨機(jī)選取WARD數(shù)據(jù)集中 的7人作為測(cè)試用數(shù)據(jù)集。設(shè)置總圖像對(duì)5%、15%兩 種人工標(biāo)記預(yù)算B進(jìn)行實(shí)驗(yàn),較低的人工標(biāo)記預(yù)算更 符合實(shí)際需求。為避免總圖像對(duì)取 5%、15% 后出現(xiàn)小數(shù),人工標(biāo)記預(yù)算B采用四舍五入取整。
引入總標(biāo)記比和正標(biāo)記比作為算法比較指標(biāo)。 兩個(gè)指標(biāo)的計(jì)算公式如下。
總標(biāo)記比=(人工標(biāo)記數(shù)量+推導(dǎo)的自動(dòng)標(biāo)記數(shù) 量) /總圖像對(duì)數(shù)量× 100%; 正標(biāo)記比=(人工正標(biāo)記數(shù)量+推導(dǎo)的自動(dòng)正標(biāo)記 數(shù)量) /總圖像對(duì)中的正標(biāo)記數(shù)量× 100%。
總標(biāo)記比和正標(biāo)記比能夠較好衡量不同算法在 相同人工標(biāo)記預(yù)算下,利用標(biāo)記傳遞性完成未標(biāo)記圖 像對(duì)自動(dòng)標(biāo)記的性能。
從表1記錄的實(shí)驗(yàn)結(jié)果來(lái)看,在當(dāng)前數(shù)據(jù)集5%、 15%人工標(biāo)記預(yù)算下,4種方法均依靠傳遞性獲得了 一定的標(biāo)記增量,其中PrimGree 改進(jìn)算法表現(xiàn)最佳, 現(xiàn)有貪婪算法 Gree 次之,最差的是近似算法 Appr 和 直接取權(quán)值最大 B 條邊標(biāo)記的 Baseline 算法。對(duì)比 PrimGree改進(jìn)算法和現(xiàn)有貪婪算法Gree,前者在人工 標(biāo)記預(yù)算較少的前提下能夠獲得更好的自動(dòng)標(biāo)記優(yōu) 化和自動(dòng)正標(biāo)記優(yōu)化,主要原因在于PrimGree算法通 過利用最大生成樹增加可傳遞的三角形,從而獲得更 多的自動(dòng)標(biāo)記。
5 結(jié)束語(yǔ)
本文對(duì)行人再識(shí)別標(biāo)記代價(jià)問題的圖建模及現(xiàn) 有貪婪啟發(fā)式算法進(jìn)行了改進(jìn)。將行人再識(shí)別標(biāo)記 代價(jià)問題抽象為完全k-分圖上的邊集選擇問題,利用 圖上的最大生成樹實(shí)現(xiàn)標(biāo)記代價(jià)優(yōu)化。在貪婪選擇 圖像對(duì)前,采用Prim算法求得代表攝像機(jī)網(wǎng)絡(luò)的k-分 圖的最大生成樹,并將最大生成樹對(duì)應(yīng)的圖像對(duì)加入 人工標(biāo)記集,從而增加標(biāo)記傳遞的概率。測(cè)試結(jié)果表 明,提出的改進(jìn)算法在不同標(biāo)記預(yù)算下均能實(shí)現(xiàn)不同 程度的標(biāo)記代價(jià)優(yōu)化。下一步工作將研究如何更深 入地挖掘圖的結(jié)構(gòu)特性,以提高標(biāo)記傳遞效率,實(shí)現(xiàn) 行人再識(shí)別標(biāo)記代價(jià)的進(jìn)一步優(yōu)化。
參考文獻(xiàn):
[1] 李幼蛟,卓力,張菁,等.行人再識(shí)別技術(shù)綜述[J].自動(dòng)化學(xué)報(bào), 2018,44(9):1554-1568.
[2] 王晶,韋永來(lái).公安監(jiān)控中的行人再識(shí)別技術(shù)綜述[J].電腦知 識(shí)與技術(shù),2018,14(35):191-193.
[3] ZHENG Z D,YANG X D,YU Z D,et al.Joint discriminative and generative learning for person re-identification[C]//2019 IEEE/ CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 15-20, 2019, Long Beach, CA, USA. IEEE, 2019: 2133-2142.
[4] TENG X,LAN L,ZHAO J,et al.Highly efficient active learning with tracklet-aware co-cooperative annotators for person re identification[J]. IEEE Transactions on Neural Networks and Learning Systems,2024,35(11):15687-15700.
[5] HE T,SHEN L Q,DING G G,et al.Balanced active sampling for person re-identification[C]//2024 IEEE International Confer? ence on Multimedia and Expo (ICME). July 15-19, 2024, Ni? agara Falls,ON,Canada.IEEE,2024:1-6.
[6] ROY S,PAUL S,YOUNG N E, et al.Exploiting transitivity for learning person re-identification models on a budget[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recog? nition.June 18-23, 2018, Salt Lake City,UT,USA.IEEE, 2018: 7064-7072.
[7] LIN Y, DONG X, ZHENG L, YAN Y, YANG Y. A bottom-up clustering approach to unsupervised person re-identification [C]//Proceedings of the 33rd AAAI Conference on Artificial In? telligence. Honolulu: AAAI Press, 2019: 8738-8745.
[8] ZHENG K C,LIU W,HE L X,et al.Group-aware label transfer for domain adaptive person re-identification[C]//2021 IEEE/ CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 20-25,2021.Nashville,TN,USA.IEEE,2021:5306- 5315.
[9] WANG M, LAI B, HUANG J, GONG X, HUA X S. Camera aware proxies for unsupervised person re-identification[C]//Pro? ceedings of the 35th AAAI Conference on Artificial Intelli? gence. Virtual Event: AAAI Press,2021:2764-2772.
[10] 代雪松,李小紅,張晶晶,等.基于反事實(shí)注意力學(xué)習(xí)的無(wú)監(jiān) 督 域 自 適 應(yīng) 行 人 再 識(shí) 別 [J]. 計(jì) 算 機(jī) 科 學(xué) , 2023, 50(7): 160-166.
[11] XIN X M,WANG J J,XIE R J, et al.Semi-supervised person re-identification using multi-view clustering[J]. Pattern Rec? ognition,2019,88:285-297.
[12] HU B Y,ZHA Z J,LIU J W,et al.Cluster and scatter:a multi grained active semi-supervised learning framework for scal? able person re-identification[C]//Proceedings of the 29th ACM International Conference on Multimedia. Virtual Event China.ACM,2021:2605-2614.
[13] MARTINEL N, MICHELONI C. Re-identify people in wide area camera network[C]//2012 IEEE Computer Society Confer? ence on Computer Vision and Pattern Recognition Workshops. June 16-21,2012,Providence,RI,USA.IEEE,2012:31-36.
【通聯(lián)編輯:唐一東】