999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

行人屬性識別研究

2021-03-25 04:06:12馬路寬
現代計算機 2021年4期
關鍵詞:特征信息模型

馬路寬

(四川大學計算機學院,成都610065)

0 引言

行人屬性識別(Pedestrian Attribute Recognition,PAR),其目的是在給定的行人物圖像中挖掘目標人物的屬性。與LBP[1]、HOG[2]等低級別像素特征不同,行人屬性是更高級的語義特征,是符合人們日常描述一個人外貌特征認知思維的詞語。相較于計算機視覺中的其他任務,行人屬性識別中數據集包含許多不同層次的標簽。例如,頭發的長短、上下衣服的顏色、衣服的款式、是否戴帽子、是否戴眼鏡等被看作是特定的細顆粒度屬性,這些屬性的關鍵位置都在圖像的不同的局部區域,而有些屬性是全局的概念,如行人的性別、年齡等,并不對應于特定的局部區域,需要綜合的特征分析,這些屬性被認為高級屬性。

隨著行人屬性識別在計算機視覺領域越來越多的被學者研究,越來越多的數據集被公開出來,表1 列舉了目前認可度較高的數據集,其中常用的數據集有PETA[3]、Market-1501[4]和Duke-MTMC[4]。

行人屬性識別常用的評價標準主要采用平均準確度(mean Accuracy,mA)[3]評價屬性識別算法。對于行人每一個表情屬性,mA 分別計算正樣本和負樣本的分類準確率,然后取其均值作為該屬性的識別結果。最后,計算所有屬性的平均值得到識別率。公式如下:

其中L為屬性的數量。TPi和TNi分別為預測正確的正例數和負例數,Ti和Ni分別為正例數和負例數。

表1 行人屬性識別數據集

1 算法

1.1 傳統算法

傳統的行人屬性識別方法通常采用手工提取特征,依賴于強大的分類器最終的目的是得到某一圖像的特征表示。常用的分類模型包括HOG[2]、SIFT[9]、條件隨機場模型[10],Layne 等人[12]首先使用支持向量模型(SVM)解決屬性識別問題。Deng 等人[3]利用SVM 和馬爾可夫隨機場進行屬性識別,構建了行人屬性數據集PETA。然而,這些解決思路對特征的提取都是使用傳統手工的方法,不能有效地表示圖像,忽略了對屬性識別任務重要的屬性之間的關系。伴隨著問題規模的擴大,和場景復雜度的提高,這些算法很難勝任一些苛刻的要求,無法滿足實際應用的要求。而且傳統的算法并沒有很好的利用屬性之間的關聯性。

行人屬性識別可以視為一個多標簽分類問題,如果不考慮標簽之間的關聯性可以簡單的視為多個單獨的二值分類問題進行處理[13],但是行人的屬性在一定程度上存在關聯性,例如穿著紅色衣服并且長頭發其性別屬性在很大程度上傾向于女性,標定后的標簽排序算法[14],該算法考慮了成對標簽之間的相關性,將多標簽學習轉化為標簽排序問題。

隨機k-Labelsets 算法[15],它將多標簽分類問題轉化為多個分類問題的集合,每個集合中的分類任務是一個多分類器。多類分類器需要學習的類別是所有標簽的子集。

多標簽行人屬性識別的常規流程如圖1 所示。為了提高輸入圖像的質量,矯正變形,減少噪聲干擾,增強圖像特征,提高訓練模型的魯棒性通常都需要對圖像進行預處理操作,常用的預處理方法有歸一化、隨機裁剪、灰化等。首先將預處理之后的行人圖像輸入,提取其特征表示(如HOG、SIFT),然后根據提取的特征訓練一個分類器來預測相應的屬性。

圖1 多標簽行人屬性識別的常規流程

1.2 基于深度學習的方法

(1)基于全局的方法

全局的方法是考慮圖片的所有信息,將整張圖片輸入給神經網絡處理。

Sudow 等人[16]提出一種針對所有屬性聯合訓練CNN 識別模型的方法,針對所有能夠利用這些依賴關系的屬性,只考慮圖像作為輸入,而不考慮行人的姿態、局部信息或環境信息。并提出了一個真實的戶外視頻序列的數據集PARSE-27k,這是一個更大的、排列良好的屬性數據集,并使用它來評估檢查模型的性能相關因素。其中包含27000 個行人,每個行人標注10個屬性。有創意的是由于遮擋、圖像邊界原因而無法確定屬性的被標記為N/A。

Li 等人[17]提出兩個基于深度學習的模型來識別屬性。首先,將每個屬性視為互相獨立的,提出了基于深度學習的單屬性識別模型DeepSAR,單獨地對每個屬性進行識別,為了有效地利用屬性間的相關性,提出了統一的多屬性聯合學習框架DeepMAR 來同時識別多屬性。在DeepMAR 中,一個屬性可以用于表示其他屬性。

Abdulnabi 等人[18]提出分類器之間共享統計信息的方法,采樣不足的分類器可以利用來自其他分類器的共享信息來提高其性能。具體的做法是,通過一個多任務CNN 模型來學習二元語義屬性,每一個CNN 預測一個二值屬性。多任務學習允許CNN 模型在不同屬性類別之間同時共享視覺知識。每個CNN 都會生成屬性特有的特征表示,然后對特征進行多任務學習來預測它們的屬性。

基于整體的行人屬性識別算法都是將整個圖像作為輸入,進行多任務學習,嘗試學習最健壯的特性表征,并且屬性之間的信息可以共享。共享使用特性,端到端的學習,算法的優點是較為直觀、復雜度低、效率高,但由于缺乏對局部細粒度屬性識別的考慮,這些學習模型的性能仍然有待提高。

(2)基于局部特征的方法

局部特征更符合人們判斷他人衣著、外表屬性的思維模式。

為確定圖片中行人的屬性常常需要檢測一些不顯眼的對象和特性,Diba 等人[19]提出一種新的卷積神經網絡——Deep Pattern CNN 模型來解決這一問題,該模型可以挖掘中層圖像小塊區域,能夠有效地利用細微的局部信息。該模型既利用圖片的上下文信息,又通過迭代學習和局部區域聚類挖掘中層圖像的紋理來進行人的屬性識別。

Li 等人[20]提出PGDM 模型,PGDM 首先估計人的關鍵點,同時生成局部區域,然后把這些基于區域的特征表示綜合起來,用于姿態引導下的行人屬性識別。由于在現有的行人屬性數據集中沒有姿態標注,對現有的行人屬性數據集進行人體姿態的標注是一件十分耗時和困難的工作。該模型將位姿知識應用和局部區域信息關聯起來,一起應用在屬性識別中,具體的做法是將人體關鍵點作為先驗,在這些關鍵點附近找到匹配的局部區域,然后將所有的關鍵點相關區域綜合起來進行行人屬性識別。

Huang 等人[21]提出在自由環境下識別人的屬性的方法。選用一個卷積神經網絡(CNN)從所有小波子檢測中選擇最能描述屬性的人體部分,以行人為中心的上下文通過在CNN 中共同學習到的全局場景分類評分來重新為以人為中心的預測打分,從而產生最終的場景感知預測。使用語義組織的上下文從相關的人體局部和整個圖像的上下文。為了防止全局場景上下文在一些不那么相關的物體對屬性識別的干擾,只將全局場景特征作為互補信號,并將它們映射到CNN 的場景分類分數中。

Liu 等人[22]提出一種新的定位引導網絡,可以預先提取的建議和屬性位置之間的關聯性,為局部特征分配特定屬性的權重。該模型可以自動學習每個屬性的局部特征,并通過與全局特征的交互來強調局部特征。在兩個行人屬性基準PA-100K 和RAP 數據集上的實驗結果證明該模型的識別效果較好。

本小節算法都結合了全局和細粒度局部特征。相較于只考慮全局信息的算法,局部信息的使用顯著提高了算法的識別性能。也更符合人類的判斷方法。但基于局部信息的算法同時也存在著一些缺陷,例如,最終的識別結果很大程度上受局部定位準確度的影響,錯誤的局部特征檢測會導致錯誤的屬性分類等。另外由于考慮到人體部位的信息必然需要更多的訓練時間和代價,在數據集上,一些現有的數據集并沒有局部信息的標注,需要額外標注局部特征屬性標簽,這無疑進一步增加了人力成本。

(3)基于注意力機制的方法

Liu、Zhao 等人[23]提出一種新的基于注意力的深度神經網絡,稱為HydraPlus-Net,它可以多方向地將多層次注意力映射輸入到不同的特征層。該模型能夠從低層次到語義層次捕獲多個關注,探索了關注特征的多尺度選擇性,豐富了行人的最終特征表示。對行人細粒度屬性,提出了一種基于多方向性注意模塊的多頭聯立網絡(HydraPlus Network,HP-Net)。在此基礎上,并且提出了一種新的大規模行人屬性數據集(PA100K dataset),包括最大數量的行人圖像和實例。

Sarfraz 等人[24]提出端到端感知視圖屬性預測模型,在端到端學習框架中確定了屬性依賴的關系,除了依賴于身體部位、圖像中的屬性空間上下文或一般場景上下文的流行觀點之外,粗糙的身體姿態信息可以是另一個簡單但高度相關的可靠屬性推斷線索,并提出姿態視圖敏感屬性推理能夠更好地學習屬性預測。

Sarafianos[25]提出了一種有效的方法來提取和聚合不同尺度的視覺注意力遮罩。通過引入了一個損失函數來處理類和實例級別上的類不平衡,并進一步證明帶有高預測方差的懲罰注意掩模是導致注意機制的監管不力的原因。算法在PETA 和更大屬性數據集中使用簡單的注意機制,無需附加上下文或附加信息,就能獲得很好的識別率。

Guo 等人[26]提出使用類激活圖網絡(CAM)來識別人的屬性,并通過細化注意力熱圖來進一步改進識別,注意力熱圖是CAM 的中間結果,反映了每個屬性的相關圖像區域。該方法不需要身體部位的檢測以及身體部位與屬性之間的先驗對應關系。定義一個新的指數損失函數來度量注意力熱圖的適宜性,根據原有的分類損失函數和新的指數損失函數對屬性分類器進行進一步的訓練。該方法是在帶有CAM 的端到端CNN 網絡上開發的,通過添加一個新的組件來細化注意力熱圖。

2 問題與挑戰

雖然有眾多學者研究行人屬性識別領域,并提出很多解決的算法,但是由于問題場景的復雜性,行人屬性識別仍然存在這很大的挑戰,在實際的監控場景中,由于攝像機的拍攝角度不同會造成同一個人的觀察視角不同,對識別效果產生的影響較大,使人的屬性識別變得更為復雜。另外由于戶外的場景不定性很強,行人軌跡可以看作是隨機的,另外其他車輛、廣告牌等物體可能出現在行人之前,從而遮擋行人,造成行人身體一部分的信息缺失,這顯然增加了屬性識別的難度甚至會導致錯誤的分類結果。由于行人和監控攝像頭的距離都比較遠,所以造成圖像的分辨率較低,給一些細粒度屬性的識別增加了難度,這也是很難采用人臉識別的原因之一。另外,室外光線的強度、數據分布不均等因素也給行人屬性識別增加了挑戰。

目前主要的研究還是基于行人圖片的屬性識別,而現實場景主要是視頻幀,考慮單張圖片有遮擋、角度問題,可以考慮視頻幀之間的連續性,例如遮擋問題,可以進行視頻多幀之間的彌補,視頻作為圖像的高維信息,如何準確、高效地利用這些高維度信息來識別行人的屬性是一個值得研究的問題。

3 結語

本文介紹了行人屬性識別的概念背景以及評估的方法,另外介紹了部分現有工作,主要闡述了早期基于傳統的識別算法以及深度學習的方法在行人屬性識別領域的應用,包括基于全局的算法和基于局部細粒度屬性的算法并介紹了基于注意力機制的算法,并介紹了行人屬性識別存在的問題難點,對未來的工作做出了展望。

猜你喜歡
特征信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 在线色综合| 综合色在线| 97精品伊人久久大香线蕉| 扒开粉嫩的小缝隙喷白浆视频| 国产精品手机视频| 日本道综合一本久久久88| 亚洲天天更新| 在线播放国产一区| 青青草原偷拍视频| 九九热免费在线视频| 国产精品美人久久久久久AV| 久久久受www免费人成| 好紧太爽了视频免费无码| 亚洲国产成人久久精品软件| 伊人大杳蕉中文无码| 女人18一级毛片免费观看| 特级毛片免费视频| 欧美在线黄| 国产熟睡乱子伦视频网站| 国产精品99在线观看| 88av在线| 2022精品国偷自产免费观看| 亚洲综合一区国产精品| 免费看黄片一区二区三区| 成年人国产视频| 99精品福利视频| 不卡午夜视频| 国产农村妇女精品一二区| 毛片免费观看视频| 国产精品熟女亚洲AV麻豆| 91福利片| 中文纯内无码H| 国产日韩欧美视频| 香蕉久人久人青草青草| 免费一极毛片| 亚洲午夜国产精品无卡| 91探花在线观看国产最新| 欧洲欧美人成免费全部视频| 亚洲av片在线免费观看| 97无码免费人妻超级碰碰碰| 久草美女视频| 四虎在线高清无码| 国产av剧情无码精品色午夜| 日韩欧美中文字幕在线精品| 一区二区三区四区精品视频| 2021天堂在线亚洲精品专区| 亚洲精品在线91| 依依成人精品无v国产| 精品国产污污免费网站| 国产成人精品一区二区三区| 国产精品理论片| 日本人妻丰满熟妇区| 国产xx在线观看| 亚洲va在线∨a天堂va欧美va| 99久久人妻精品免费二区| 国产成人综合在线观看| 国产在线自在拍91精品黑人| 丝袜美女被出水视频一区| 亚洲无码高清免费视频亚洲| 国产黑丝一区| 亚洲综合国产一区二区三区| 欧美国产在线精品17p| 国产理论一区| 国产女人在线观看| 欧美综合激情| 九九精品在线观看| av天堂最新版在线| 天天躁夜夜躁狠狠躁躁88| 激情综合网激情综合| 亚洲精品成人福利在线电影| 亚洲第一国产综合| 高清国产在线| 福利视频一区| 亚洲日韩AV无码一区二区三区人| 色噜噜综合网| 中国丰满人妻无码束缚啪啪| 国产欧美视频在线观看| 日韩成人在线一区二区| 久久99这里精品8国产| 亚洲第一视频免费在线| 国产美女人喷水在线观看| 亚洲欧洲免费视频|