999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進的卷積神經網絡在行人檢測中的應用*

2018-05-09 08:49:43謝林江季桂樹羅恩韜
計算機與生活 2018年5期
關鍵詞:特征檢測模型

謝林江,季桂樹,彭 清,羅恩韜

中南大學 信息科學與工程學院,長沙 410083

1 引言

行人檢測指的是判斷待處理圖像或者視頻幀中是否含有行人,如果有行人,給出標注。它是機動車輔助駕駛[1-3]、智能視頻監控[4]、智能機器人以及人體行為分析[5-6]等應用中的關鍵技術,近些年來成功地應用于直升機等飛行器拍攝的圖片中[7]以及在地質災害中的受困人員搜尋與營救[8-9]等新興領域。但在實際應用中行人圖像容易受到光照、穿著、姿態、遮擋以及拍攝角度的多樣性等影響,使得行人檢測成為計算機視覺領域的研究難點與熱點。目前,行人檢測的方法主要有傳統的檢測方法和基于神經網絡的檢測方法。

傳統的檢測方法主要是通過圖像相鄰像素之間的關系來得到其特征表達。文獻[10]提出的梯度方向直方圖(histogram of oriented gradient,HOG)通過計算像素梯度方向直方圖來構成特征。但是HOG特征的維度高,計算量大,難以滿足實時性的要求。文獻[11]利用積分圖技術來提高HOG特征的計算速度,但還是未能解決特征維度高的缺點。文獻[12]提出了局部二值模式(local binary pattern,LBP)算子,其根據每個像素點與周圍像素值大小比較進行編碼,得到LBP特征圖譜,具有旋轉不變性和灰度不變性等顯著優點。文獻[13]將LBP特征作為行人的特征描述子,同樣取得了較好的檢測效果。文獻[14]提出了模板匹配的方法,該方法雖然在檢測速度和檢測率上有所提高,但其需要人工標注模板且存在泛化能力不強的缺點。

為了克服傳統方法中需要人工標注模板以及特征維度高的缺點,文獻[15]將卷積神經網絡(convolutional neural network,CNN)應用到行人檢測中,利用CNN具有從原始像素中學習辨別特征的能力,顯著減少了計算量。文獻[16]把區域提案網絡(region proposal network,PRN)和級聯分類器相結合,運用到行人檢測中,提高了檢測的準確率。文獻[17]提出了多尺度CNN模型(multi-scale CNN,MS-CNN),在不同層生成一個目標檢測子網,提高了CNN對小物體的檢測能力。文獻[18]通過對行人屬性分析和語義任務來優化行人檢測,降低了誤檢率。

本文結合了復雜的行人姿態、背景屬性以及人眼視覺行為的分析,在網絡的卷積層前加入選擇性注意層,以減少復雜背景的干擾,同時突出了行人特征,以達到更高的檢測結果。為了驗證本文方法的優越性,分別在INRIA、NICTA和Daimler行人數據集上進行實驗,與傳統的CNN模型檢測效果進行對比,實驗結果表明,改進的CNN模型具有更高的準確率。

本文主要貢獻有:(1)提出一種改進的CNN模型,即在傳統CNN的基礎上增加了一個選擇性注意層,用來模擬人眼的選擇性注意功能;(2)在選擇性注意層,分析了兩種選擇性處理方法,并與傳統CNN模型進行實驗對比,分析不同處理對檢測結果的影響,找到最佳的處理方式;(3)將改進的CNN模型在INRIA、NICTA和Daimler行人數據集上進行實驗,取得了比傳統模型更好的效果。

2 相關理論

2.1 選擇性注意原理

為了對目標的存在性做出判斷,傳統CNN在卷積過程中會對整幅圖片進行無差別特征提取,但實際上人們所關注的內容通常僅僅是圖像中很少的一部分。這種特征提取方式不僅加重了分析難度,又造成了計算的浪費。文獻[19-20]在對貓和猴的視覺皮層研究時,發現了一些對外界某種具有一定方向或朝向的刺激有強烈反應的視神經細胞,被稱為方向選擇性細胞。文獻[21]研究發現人眼在面對復雜場景時能夠迅速地將注意力集中并優先處理一些顯著的目標上,這里存在一個視覺選擇性注意機制,這種機制使得視覺皮層在有限的神經元下很好地處理視覺信息。

文獻[22]通過對視覺注意研究,提出了一個稱為特征整合理論的視覺注意假設,把注意力選擇分為并行特征提取和串行特征融合兩個階段。文獻[23]提出了一個視覺選擇性注意模型,將選擇性注意應用到目標檢測上,在計算結構上模擬人腦的視覺選擇性神經機制,最終計算得到應用場景的視覺顯著圖。文獻[24-25]通過對原圖像提取候選檢測區域來模擬人眼的選擇性注意功能,加快了檢測速度。

以上方法都是采取候選框策略來模擬選擇性注意功能,更小的候選框意味著更快的計算速度。然而在實驗中發現,當目標在原圖像中占比過大或者很小時,候選框可能未能完全覆蓋目標或者還有很大一部分背景區域,這樣就會給檢測任務帶來困難。并且人眼在觀察物體的時候并不是簡單地框出一個候選區,還會感知整個區域的結構或邊緣信息,之后再進行細節上的處理[26-27]。

在行人檢測中,行人背景變化多樣,姿態也存在一定變化,但是行人的整體結構卻相對固定。因此本文嘗試在整個區域應用選擇性注意原理,對輸入圖像進行紋理或者梯度操作,突出行人結構。實驗證明,在行人檢測中,與不進行預處理相比,改進的CNN模型能有效提高行人識別率。

2.2 圖像預處理

在行人圖像中,通常存在著光照強度變化、視角變化、行人姿態變化以及行人背景多樣性等干擾。為了減少這些干擾對CNN的影響,對行人圖像進行選擇性處理,突出行人結構特征,是一種可行的方式。根據方向選擇性細胞對圖像的紋理與邊緣表現出較強的選擇性,本文將分析在選擇性注意層分別采用紋理預處理和梯度預處理對實驗結果的影響。

2.2.1 紋理特征預處理

圖像紋理特征描述了圖像或者圖像區域所對應的物體的表面性質,其本質是研究圖像相鄰像素點灰度的空間分布情況。LBP紋理特征是一種局部紋理描述算子[28],其在圖像紋理上具有較好的表達能力。LBP紋理特征具有旋轉不變性和灰度不變性且對光照變化不敏感。文獻[29]將LBP紋理特征作為行人特征的描述子,在實際應用中取得了較好的效果。LBP的基本思想是:以窗口中心點(x,y)的灰度值為閾值,用相鄰的8個灰度值與其進行比較,若相鄰像素的灰度值大于中心點的值,則該像素標記為1,否則標記為0,從像素點(x-1,y+1)逆時針排列得到二進制編碼,最后轉換為十進制數即為像素點(x,y)的特征值。本文采用的窗口大小為3×3,則LBP特征的計算公式為:

其中,(xc,yc)為3×3鄰域的中心元素,它的像素值為ic;ip代表鄰域內其他點的像素值;s(x)為符號函數,定義如下:

其LBP特征生成圖如圖1所示。

Fig.1 Schematic diagram of calculation of3×3LBP operator圖1 3×3LBP算子計算示意圖

對圖像每個像素依次進行LBP特征計算,可得到該圖像的LBP紋理特征圖。

2.2.2 梯度預處理

圖像在計算機中以數字圖像的形式存儲,即圖像是離散的數字信號,因此可以把圖像看成一個二維離散函數,函數的求導即為圖像梯度。

定義1(梯度圖像)設f(x,y)表示一幅圖像,Fy為圖像水平方向的梯度,Fx為圖像垂直方向的梯度,則有:

其中,f(i,j)為圖像(i,j)點的像素值。然后計算梯度圖像Grad(x,y):

梯度圖像能夠更好地適應圖像的變化趨勢,通過計算梯度,可以去除圖像上的局部極小值和噪聲,而且可以去掉與邊界無關的信息,突出行人邊緣輪廓。

3 本文CNN模型

卷積神經網絡作為一種前饋神經網絡,是近年發展起來,并引起學者廣泛重視的一種高效識別方法。其通過局域感受野、權值共享和池化實現識別位移、縮放和扭曲不變性。局域感受野指的是網絡層的神經元與前一層的某個區域內的神經單元連接,通過局域感受野,每個神經元可以提取初級的視覺特征;權值共享使得卷積神經網絡只需要較少的參數就能完成對數據的訓練;池化通過降低特征的分辨率減少計算量,防止過擬合。在行人檢測中,為了減少復雜背景對檢測效果的干擾,本文提出一種改進的CNN模型,即在第一個卷積層前加入一個選擇性注意層。模型結構如圖2所示。

Fig.2 Preprocessing CNN model圖2 預處理CNN模型

3.1 選擇性注意層

傳統CNN在卷積過程中直接對原圖像進行特征抽取。通過研究發現,在行人檢測中,行人圖像通常以房屋、道路、車輛為背景,且行人的非剛性特點,致使CNN在特征提取過程中時常會學習到其他錯誤的特征,干擾最終檢測效果。

在傳統CNN的輸入層后加入選擇性注意層,模擬人眼的選擇性注意功能。選取LBP紋理預處理和梯度預處理為該層運算。圖3是部分樣本不同預處理效果對比。從圖3(a)與圖3(b)的對比可以得出,圖3(b)把圖3(a)的行人的背景差異全部轉為紋理的差異,并突出了行人輪廓。再對比圖3(c),梯度圖像過濾掉了絕大部分噪聲,僅僅保留了圖像的邊界信息。實驗表明,當把LBP紋理預處理作為該層運算操作時,比傳統CNN具有更高的識別率。

Fig.3 Effect contrast on different pretreatments of some samples圖3 部分樣本不同預處理效果對比

3.2 卷積層

卷積是卷積神經網絡的特征提取操作,其過程如圖4所示。

在卷積層,特征圖的每一個神經元與前一層的局部感受野相連接,與一個卷積核進行卷積,經過卷積操作提取圖像的局部特征。卷積層的計算公式為:

Fig.4 Convolution operation diagram圖4 卷積操作示意圖

其中,表示第l層的第j個特征圖;為網絡權重(卷積核);f(x)為激活函數;為偏置;Xil-1為網絡的輸入。CNN的輸入為初始圖像或者卷積層和下采樣層生成的特征圖。卷積核內部的參數和偏置通過反向傳播算法進行訓練,卷積核的初始值為隨機生成,偏置b的初始值為0。卷積核的大小確定了運算區域的大小,卷積核中權值的大小對應了其節點的貢獻能力,權值越大貢獻越大,反之越小。

3.3 下采樣層

在下采樣層中,為了減少網絡參數,并提高對圖像平移、伸縮不變性,在計算圖像局部特征時,需要對圖像局部進行統計和分析,得到該局部的特征表達,這個統計和分析過程在CNN中被稱作為池化。池化的基本原理是根據圖像相對不變性的屬性,對圖像相鄰區域的特征信息進行聚合統計。具體操作為:

其中,down(x)為池化函數;表示第l層第j個特征圖對應的權重系數;b為偏置。對于一幅圖像I,尺寸為M×N,采樣窗口為s×s,則得到特征圖的大小為(M/s)×(N/s),本文CNN的采樣窗口為2×2。最常見的兩種池化方法為平均值池化和最大值池化。平均值池化是對池化域內所有值求和并取其平均值作為下采樣特征圖的特征值;最大值池化則是取池化域中的最大值作為下采樣特征圖的特征值。本文采用的是平均池化,將池化的結果加上偏置b進行計算,遍歷原特征圖的池化域后,得到下采樣特征圖。

4 實驗與分析

為了驗證本文算法的性能,在INRIA[30]、NICTA[31]和Daimler[32]3個公開的行人數據集上進行測試。對于每個數據集,先將兩個數據集中的所有圖像大小縮放為128×64像素,然后在相同條件下重復10次實驗,每次實驗迭代(epoch)200次,每次批序列(batch size)大小為32張圖像,取10次結果的平均值為實驗的最終結果。采用均方誤差和正確率對模型進行評價。實驗使用英特爾i7-4510U處理器,8 GB內存,GeForce840M顯卡,在Matlab2016環境下進行。

4.1 INRIA數據集測試結果

INRIA行人數據集是當前使用最廣泛的靜態行人檢測數據庫,拍攝條件多樣化,背景復雜,存在人體遮擋、光線強度變化等情形,檢測難度較大。該庫分為訓練集和測試集,訓練集中有2 416張正樣本和912張不含行人的負樣本,測試集中有1 126張正樣本和300張負樣本。

在INRIA數據集上,對本文CNN模型采用LBP紋理和梯度兩種不同預處理方式進行對比實驗。圖5是兩種不同處理方式的均方誤差及正確率隨迭代次數變化曲線圖。

從圖5(a)可以看出,梯度預處理的均方誤差曲線在訓練初期波動較大,繼續增加訓練次數,二者都得到了收斂,但LBP紋理預處理方式比梯度預處理方式收斂得更快更好。從圖5(b)可以看出,LBP紋理處理方式的正確率始終高于梯度預處理方式的正確率。由上可知,采用LBP紋理預處理方式優于梯度預處理方式。結合圖3可以發現,采用梯度處理后的圖像僅僅留下圖中行人及其他背景物體的輪廓,其他大部分都是黑色,致使CNN無法學習更加詳盡的特征,最終使得檢測率不高。因此本文將采用LBP紋理預處理作為選擇性注意層運算方式。

然后繼續分析本文改進的CNN模型和傳統CNN模型實驗效果的對比,如圖6所示。

由圖6(a)可知,兩種模型的均方誤差曲線收斂都比較快,而從圖6(b)中可以發現,在訓練初期,傳統CNN模型與本文CNN模型的正確率曲線波動都比較大且二者的差別不大,但隨著迭代次數的增加,二者的正確率曲線逐漸穩定,且本文CNN模型的正確率曲線在傳統CNN模型之上。再結合表1可以看出,相對于傳統CNN模型而言,本文CNN模型的正確率提高了3.33%,達到了96.14%。

Fig.5 Result comparison of different pretreatments圖5 不同預處理結果對比

Fig.6 Result comparison of different CNN models圖6 不同CNN模型結果對比

Table 1 Correct rate comparison of different pretreatments表1 不同預處理正確率對比

圖7是不同CNN模型部分錯誤分類樣本。從圖7(a)中可以看出,即使是很明顯的行人也不能正確分類,卻把形狀輪廓與行人相似的負樣本誤認為是行人,而圖7(b)中的行人衣著與背景十分相似,對于某些圖片,即使是人眼也可能誤判。

由此可以說明,傳統CNN模型在行人檢測中更加容易被復雜背景影響,本文改進的CNN模型在選擇性注意層采用LBP紋理預處理能夠有效地去除圖像復雜背景對CNN網絡的影響,突出行人特征,提高行人檢測率。

為了驗證本文CNN模型的魯棒性和泛化能力,本文用NICTA和Daimler行人數據庫對改進的CNN模型進行了實驗。

Fig.7 Partial misclassification samples of different CNN models圖7 不同CNN模型部分錯誤分類樣本

4.2 NICTA數據集測試結果

NICTA是一個規模較大的靜態行人數據庫,包含25 551張行人圖像和5 207張非行人圖像,并且對部分樣本進行了平移、旋轉、縮放等變換,增加了檢測難度。本文從以上樣本集中隨機選取了一部分作為實驗樣本集,樣本集組成如表2所示。

Table 2 NICTAintegrated sample composition表2 NICTA樣本集成分組成

將學習效率(alpha)設為1,批訓練樣本數量(batchsize)設為50,實驗中對網絡模型訓練200次,得到其均方誤差及正確率變化曲線,如圖8所示。從圖中可以看出,傳統CNN模型的檢測效果低于本文改進的CNN模型。NICTA樣本集中存在著平移、旋轉、縮放等變換,而CNN中的卷積操作能很好地適應這種變換。

Fig.8 Result comparison of different CNN models on NICTAdata set圖8NICTA數據集不同CNN模型測試結果對比

4.3 Daimler數據集測試結果

Daimler行人數據集是采用車載攝像機獲取的,它分為檢測和分類兩個數據集,每個數據集包含訓練和測試兩部分,而每個訓練和測試又分為正樣本和負樣本。檢測數據集的訓練樣本集有正樣本15 560張,負樣本6 744張。該訓練集是車載視角拍攝,相比于前兩個數據集而言,更加貼近真實情況。

本文從以上樣本集中隨機選取了9 400張圖片(4 700個正樣本和4 700個負樣本)作為訓練集和4 000張圖片(2 000個正樣本和2 000個負樣本)作為測試集。樣本集組成如表3所示。

同樣將學習效率(alpha)設為1,批訓練樣本數量(batchsize)設為50,實驗中對網絡模型訓練200次,得到其均方誤差及正確率變化曲線,如圖9所示。

從圖9中同樣可以看出,本文CNN模型的正確率高于傳統CNN模型的正確率。通過在Daimler數據集上的對比再一次說明了本文CNN模型要優于傳統CNN模型。但對比前兩個數據集的表現,這種優勢不太明顯,可能是因為車載視角拍攝的圖像背景復雜度較低,使得兩種CNN模型差別并不是十分明顯。

Table 3 Daimler Integrated sample composition表3 Daimler樣本集成分組成

Fig.9 Result comparison of different CNN models on Daimler data set圖9 Daimler數據集不同CNN模型測試結果對比

之后根據前面的實驗結果,在INRIA和Daimler兩個數據集進行交叉驗證。具體步驟如下:首先采用INRIA數據集訓練本文CNN模型,再用Daimler數據集進行測試,然后再把訓練集和測試集相互對調進行實驗,結果如表4所示。從表4中可以看出,在不同的數據集進行交叉驗證的實驗中,本文CNN模型的正確率都優于傳統CNN模型,本文CNN模型具有更好的泛化能力。

Table 4 Comparison of cross test results for different CNN models表4 不同CNN模型的交叉測試結果對比

Table 5 Comparison of recognition rate for different characteristics on Daimler data set表5 不同算法在Daimler數據集的識別率對比

從正確率來看,傳統CNN模型高于其他檢測方法,而本文改進的CNN模型比傳統CNN模型的正確率更高,達到了99.78%;從耗時來看,本文CNN模型的檢測速度明顯優于其他算法。結合表1可以發現,不管是從正確率還是從耗時來考慮,本文CNN模型都具有很大優勢。經過不斷調節網絡參數最終發現傳統CNN模型在網絡層數為9時達到了最高準確率,而本文改進的CNN模型在網絡層數為8時準確率已經高于傳統CNN模型。由此可以得出,圖像在經過選擇性注意層處理后,CNN能夠更加快速地提取到行人特征。

5 結束語

本文針對現有的行人檢測方法難以處理背景復雜的行人樣本的問題,提出根據人眼的選擇性注意功能,對傳統CNN進行改進,加入選擇性注意層,對復雜的行人圖像進行預處理。在3個公開的行人數據集上,對本文CNN模型進行交叉驗證以及與傳統方法進行對比,實驗表明,本文CNN模型能更好地提取行人特征,其在Daimler數據集上的識別準確率達到了99.78%。結果顯示本文CNN模型優于傳統的行人檢測方法,具有一定的可行性和使用價值。

本文分析了不同預處理方式對檢測效果的影響,發現選用預處理的方式要適當,過度的預處理會使得圖像留下的特征太少,致使CNN無法學習到足夠多的特征,影響檢測率。并且研究發現,LBP紋理預處理方式能夠有效地過濾圖像背景噪聲,突出行人特征,最終提高CNN的檢測率。

同時,在深度學習中,利用合理的先驗知識對數據進行適當的預處理,能夠去除一定的噪聲,突出數據特征,使其在解決實際問題時更加有效,為今后的研究指明了方向。

[1]Liu Xiao,Tao Dacheng,Song Mingli,et al.Learning to track multiple targets[J].IEEE Transactions on Neural Networks&Learning Systems,2015,26(5):1060-1073.

[2]Li Xiaofei,Li Lingxi,Flohr F,et al.A unified framework for concurrent pedestrian and cyclist detection[J].IEEE Transactions on Intelligent Transportation Systems,2017,18(2):269-281.

[3]Biswas S K,Milanfar P.Linear support tensor machine with LSK channels:pedestrian detection in thermal infrared images[J].IEEE Transactions on Image Processing,2017,26(9):4229-4242.

[4]Huang Shiyao,Ying Xianghua,Rong Jiangpeng,et al.Camera calibration from periodic motion of a pedestrian[C]//Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition,Las Vegas,Jun 27-30,2016.Washington:IEEE Computer Society,2016:3025-3033.

[5]Bera A,Kim S,Manocha D.Realtime anomaly detection using trajectory-level crowd behavior learning[C]//Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition Workshops,Las Vegas,Jun 26-Jul 1,2016.Washington:IEEE Computer Society,2016:1289-1296.

[6]Pan Lei.Real-time detection method of abnormal event in crowds based on image entropy[J].Journal of Frontiers of Computer Science and Technology,2016,10(7):1044-1050.

[7]Smedt F D,Hulens D,Goedeme T.On-board real-time tracking of pedestrians on a UAV[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops,Boston,Jun 7-12,2015.Washington:IEEE Computer Society,2015:1-8.

[8]Minaeian S,Liu Jian,Son Y J.Vision-based target detection and localization via a team of cooperative UAV and UGVs[J].IEEE Transactions on Systems Man and Cybernetics Systems,2016,46(7):1005-1016.

[9]Bertuccelli L F,Cummings M L.Operator choice modeling for collaborative UAV visual search tasks[J].IEEE Transactions on Systems Man and Cybernetics:Part A Systems and Humans,2012,42(5):1088-1099.

[10]Dalal N,Triggs B.Histograms of oriented gradients for human detection[C]//Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,San Diego,Jun 20-26,2005.Washington:IEEE Computer Society,2005:886-893.

[11]Kim S,Cho K.Trade-off between accuracy and speed for pedestrian detection using HOG feature[C]//Proceedings of the IEEE 3rd International Conference on Consumer Electronics,Berlin,Sep 9-11,2013.Piscataway,IEEE,2014:207-209.

[12]Ojala T,Harwood I.A comparative study of texture measures with classification based on feature distributions[J].Pattern Recognition,1996,29(1):51-59.

[13]Mu Yadong,Yan Shuicheng,Liu Yi,et al.Discriminative local binary patterns for human detection in personal album[C]//Proceedings of the 2008 IEEE Conference on Computer Vision and Pattern Recognition,Anchorage,Jun 23-28,2008.Washington:IEEE Computer Society,2008:1-8.

[14]Gavrila D M.A Bayesian,exemplar-based approach to hier-archical shape matching[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(8):1408-1421.

[15]Szarvas M,YoshizawaA,Yamamoto M,et al.Pedestrian detection with convolutional neural networks[C]//Proceedings of the 2005 Intelligent Vehicles Symposium,Las Vegas,Jun 6-8,2005.Piscataway:IEEE,2005:224-229.

[16]Zhang Liliang,Lin Liang,Liang Xiaodan,et al.Is faster RCNN doing well for pedestrian detection?[C]//LNCS 9906:Proceedings of the 14th European Conference on Computer Vision,Amsterdam,Oct 11-14,2016.Berlin,Heidelberg:Springer,2016:443-457.

[17]Cai Zhaowei,Fan Quanfu,Feris R S,et al.A unified multiscale deep convolutional neural network for fast object detection[C]//LNCS 9908:Proceedings of the 14th European Conference on Computer Vision,Amsterdam,Oct 11-14,2016.Berlin,Heidelberg:Springer,2016:354-370.

[18]Tian Yonglong,Luo Ping,Wang Xiaogang,et al.Pedestrian detection aided by deep learning semantic tasks[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition,Boston,Jun 7-12,2015.Washington:IEEE Computer Society,2015:5079-5087.

[19]Hubel D H,Wiesel T N.Receptive fields of single neurones in the cat's striate cortex[J].Journal of Physiology,1959,148(3):574-591.

[20]Hubel D H,Wiesel T N.Receptive fields of optic nerve fibres in the spider monkey[J].Journal of Physiology,1960,154(3):572-580.

[21]Itti L,Koch C,Niebur E.A model of saliency-based visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.

[22]Treisman A M,Gelade G.A feature integration theory of attention[J].Cognitive Psychology,1980,12(1):97-136.

[23]Koch C,Ullman S.Shifts in selective visual attention:towards the underlying neural circuitry[J].Human Neurobiology,1985,4(4):219-227.

[24]Guo Mingwei,Zhao Yuzhou,Zhang Chenbin,et al.Fast object detection based on selective visual attention[J].Neurocomputing,2014,144(20):184-197.

[25]Salah AA,Alpaydin E,Akarun L.A selective attention-based method for visual pattern recognition with application to handwritten digit recognition and face recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(3):420-425.

[26]Deubel H,Schneider W X.Saccade target selection and object recognition:evidence for a common attentional mechanism[J].Vision Research,1996,36(12):1827-1837.

[27]Johansson R S,Westling G,B?ckstr?m A,et al.Eye-hand coordination in object manipulation[J].Journal of Neuroscience,2001,21(17):6917-6932.

[28]Chu Miao,Tian Shaohui.An extraction method for digital camouflage texture based on human visual perception and isoperimetric theory[C]//Proceedings of the 2nd International Conference on Image,Vision and Computing,Chengdu,Jun 2-4,2017.Piscataway:IEEE,2017:158-162.

[29]Li Baopu,Yang Can,Zhang Qi,et al.Condensation-based multi-person detection and tracking with HOG and LBP[C]//Proceedings of the 2014 IEEE International Conference on Information and Automation,Hailar,Jul 28-30,2014.Piscataway:IEEE,2014:267-272.

[30]INRIA person dataset[DB/OL].[2017-09-25].http://pascal.inrialpes.fr/data/human/.

[31]Daimler.Daimler pedestrian detection benchmark dataset[DB/OL].[2017-09-25].http://www.gavrila.net/Research/Pedestrian_Detection/Daimler_Pedestrian_Benchmark_D/Daimler_Mono_Ped_Detection_Be/daimler_mono_ped_detection_be.html.

[32]NICTA.Data61 predestrian dataset[DB/OL].[2017-09-25].https://data.csiro.au/dap/landingpage?pid=csiro:23454&v=1&d=true.

[33]Ikemura S,Fujiyoshi H.Human detection by Haar-like filtering using depth information[C]//Proceedings of the 21st International Conference on Pattern Recognition,Tsukuba,Nov 11-15,2012.Washington:IEEE Computer Society,2012:813-816.

[34]Abd-Almageed W,Davis L S.Human detection using iterative feature selection and logistic principal component analysis[C]//Proceedings of the IEEE International Conference on Robotics and Automation,Pasadena,May 19-23,2008.Piscataway:IEEE,2008:1691-1697.

附中文參考文獻:

[6]潘磊.基于圖像熵的密集人群異常事件實時檢測方法[J].計算機科學與探索,2016,10(7):1044-1050.

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 福利一区在线| 91美女视频在线| 欧美亚洲第一页| 久久频这里精品99香蕉久网址| 午夜老司机永久免费看片| 成人免费网站久久久| 毛片久久网站小视频| 99在线视频免费| m男亚洲一区中文字幕| 久久久久国产一级毛片高清板| 91成人试看福利体验区| 国产99视频免费精品是看6| 亚洲视频影院| 国产JIZzJIzz视频全部免费| 久久精品中文无码资源站| 91香蕉视频下载网站| 天堂成人在线视频| 亚洲欧美另类日本| 免费欧美一级| 欧美成人综合视频| 99视频在线观看免费| 一本久道久久综合多人| 婷婷六月激情综合一区| 亚洲国产无码有码| 国产精品青青| 不卡色老大久久综合网| 亚洲人成亚洲精品| 亚洲AV一二三区无码AV蜜桃| 国产精品hd在线播放| 一本一本大道香蕉久在线播放| 国产尹人香蕉综合在线电影| 老司机久久99久久精品播放| 色亚洲激情综合精品无码视频| 亚洲天堂久久久| 久久亚洲国产一区二区| 91青青在线视频| 2021国产在线视频| 欧美精品另类| 亚洲欧美不卡视频| 亚洲国产在一区二区三区| 亚洲午夜18| 亚洲天堂网在线视频| 亚洲成人动漫在线| 国产精品9| 久久夜色撩人精品国产| 亚洲伦理一区二区| 亚洲人成影院午夜网站| 久久青草视频| 国产精品不卡片视频免费观看| 99视频在线观看免费| 在线观看国产精品一区| 久久特级毛片| 免费人成网站在线观看欧美| 九色视频最新网址 | 亚洲性视频网站| 久久精品这里只有精99品| 91久久国产综合精品女同我| 2021国产乱人伦在线播放| 亚欧成人无码AV在线播放| 国产高清不卡| 国产高颜值露脸在线观看| 国产制服丝袜无码视频| 国内精品手机在线观看视频| 亚洲欧美一区二区三区麻豆| 久久久久夜色精品波多野结衣| 久久这里只有精品66| 久久国产V一级毛多内射| 91美女视频在线| 伊伊人成亚洲综合人网7777| 欧美一级高清片欧美国产欧美| 久久成人免费| 国产精品林美惠子在线播放| 青青草国产在线视频| 亚洲精品自产拍在线观看APP| 国产精品lululu在线观看| 中国一级特黄视频| 亚洲欧美成人在线视频| 日韩在线1| 国产乱子精品一区二区在线观看| 久久毛片免费基地| 日韩国产精品无码一区二区三区 | 国产正在播放|