999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CBAM-Res2Net的人群計數算法

2023-01-09 07:16:42陳江川吳云韜
武漢工程大學學報 2022年6期
關鍵詞:特征模型

陳江川,吳云韜*,孔 權

1.武漢工程大學計算機科學與工程學院,湖北 武漢 430205;

2.智能機器人湖北省重點實驗室(武漢工程大學),湖北 武漢 430205;

3.武漢工程大學藝術設計學院,湖北 武漢 430205

人群計數是近年來計算機視覺領域中的一個熱門研究領域,其目的是通過計算機對輸入圖像的處理來估計圖像中的人數。隨著城市化的進程以及世界人口的不斷增長,在火車站、體育場、音樂會和游行等許多場景中,可能會出現大量人群快速聚集的情況。而人群計數能夠針對這些特定場景下的人群目標數量進行估計,做到對重大事件的事先警告以及在事后復盤中發揮積極作用[1]。此外,人群計數方法也能夠輔助實現實時估計場景人數,進而對各個場景中人數進行有效的管控,減少人群的聚集,這對當下新冠肺炎疫情的控制起著不可或缺的作用。

在早期的人群計數中,大多使用基于檢測的方法,這些方法通常通過一個滑動窗口在圖像上對人或頭部進行檢測。然而其準確性和模型性能卻極容易受到目標尺度大小不一、目標間重疊、背景干擾、圖像分辨率低等因素的影響。為了改善這些問題,Chen等[2]提出了基于回歸的方法。該方法直接學習從圖像到計數的映射,雖然從整體上來說提升了計數的性能,然而回歸的計數方法依舊忽視了圖像中的空間信息,僅僅只得到一個最終的計數結果,因此缺乏可靠性和解釋性。

近年來,卷積神經網絡(convolutional neural networks,CNN)發展迅速,相較于傳統技術來說,使用深度學習技術的算法往往能夠獲得更好的性能,并且具有更強的泛化能力。因此,越來越多的基于CNN的方法被應用于人群計數領域[3-5]。不同于傳統方法需要手工制作特征,基于CNN的方法[6]對于輸入的人群圖像自動的提取特征,并在末端通過一個卷積核大小為1×1的輸出層生成包含人群數量信息和位置信息的密度圖。

針對人群計數中的尺度變化問題,Zhang等[7]提出了一種多列卷積神經網絡(multi-column CNN,MCNN),每一列使用不同大小的卷積核,這種結構在一定程度上緩解了計數目標尺寸大小不一致的問題。Shi等[8]提出了一種尺度聚合網絡(scale aggregation network,SANet),不 同 于MCNN,該網絡采用分層的方式提取多尺度特征,以進行后續處理。雖然多列卷積神經網絡相較于傳統算法擁有了更好的性能和泛化能力,但由于其多列的特性導致網絡結構冗余,模型參數繁多、訓練困難,因此為了克服這些問題,越來越多新型的CNN結構被引入到人群計數領域。Li等[9]提出了一種空洞卷積神經網絡模型(network for congested scene recognition,CSRNet),采用空洞卷積神經網絡,在保持分辨率的同時擴大感受野,保留了更多的圖像細節信息。Liu等[10]提出了一種融合注意力機制的可形變卷積網絡(attentioninjective deformable convolutional network for crowd understanding,ADCrowdNet),該網絡的注意力生成器(attention map generator,AMG)可以過濾掉復雜背景等無關信息,使得后續模型只關注人群區域。

本文提出的方法從增強特征的尺度適應性和降低背景噪聲干擾兩方面進行了優化,從而達到提高人群計數性能的目的,并進行了模型消融性實驗,驗證了本文方法的有效性。

1 人群計數網絡

為了實現在靜態圖像中進行人群計數,本文結合卷積注意力模塊(convolutional block attention module,CBAM)[11]與Res2Net模塊[12],提出了一種基于CBAM-Res2Net的人群計數算法,網絡模型的結構如圖1所示。該網絡可以分為前端網絡、CBAM-Res2Net模塊以及后端網絡3個部分,整個網絡的輸入為一幅人群圖像,輸出為對應的人群密度圖。

圖1 整體網絡架構Fig.1 Overall network architecture

該網絡前端部分為視覺幾何組網絡(visual geometry group networks,VGG)16[13]網絡的前10層,對輸入圖像進行初步的特征提取。為了解決背景噪聲干擾等問題引入了CBAM模塊,該模塊能夠對輸入的特征分別在空間域和通道域上編碼注意力特征,讓模型更多的去關注人群區域。由于人群圖像廣泛存在拍攝角度差異大,目標尺度變化不均勻等問題,僅靠VGG在整個圖像上編碼相同的感受野難以得到完整的多尺度信息,因此引入了多尺度特征提取模塊Res2Net,它通過在一個殘差塊中構造分層殘差連接來實現。并在此基礎上串聯Res2Net模塊和CBAM模塊組合成CBAM-Res2Net模塊來提升模型的計數性能和泛化能力。后端網絡設計了一個擴張模塊以提取更深層的特征并進行特征融合回歸。

1.1 卷積注意力模塊

在計算機視覺領域,注意力機制可以讓網絡像人一樣有選擇地關注圖像信息的突出部分。因此,為了防止背景噪聲對特征圖的干擾,在網絡中引入了卷積注意力模塊CBAM,如圖2所示。CBAM模塊不僅關注通道域信息,同時也關注空間域信息,因此相較于單通道域注意力網絡(squeeze-and-excitation networks,SENet)[14],

圖2 卷積注意力模塊Fig.2 Convolutional block attention module

CBAM模塊更適合需要關注人群空間分布信息的人群計數任務。通道注意力模塊通過學習特征間的通道關系生成通道注意圖,空間注意力模塊通過學習特征間的空間關系生成空間注意力圖,根據通道和空間注意力圖對特征進行調整,以達到提高特征圖中人群區域權重的目的。

1.2 多尺度特征提取模塊

多尺度特征現已廣泛應用于計算機視覺任務中。然而,大多數現有方法以分層的方式表示多尺度特征。Gao等[12]提出了一種新的構建模塊,即Res2Net模塊,它通過卷積分組的方式以更細的粒度提取多尺度特征。輸入特征圖在通過1×1卷積后被均分為s組,原先通道數為n的卷積層也被均分為s組通道數為n/s的小卷積層,每一組特征圖都會輸入到與其對應的小卷積層,并將其輸出結果和下一組特征圖相加后輸入到下一個小卷積層。當所有的小卷積層都輸出結果后,將這些特征圖進行拼接并通過1×1卷積對多尺度信息進行融合。在這個過程中,分組后的輸入特征圖經過所有路徑,并融合為輸出特征圖,由于組合效應,每經過一個3×3的卷積層,其感受野都會增加。

圖3展示了殘差塊和Res2Net模塊之間的差異[12]。在通過1×1卷積之后,將輸入特征均勻地分割為s個特征子集,并用xi表示,其中i∈{1,2,…,s}。每個特征子集xi都具有相同的空間大小。除了x1以外每個xi都有與之相對應的3×3卷積,用Ki來表示,并將其輸出表示為yi。yi的定義公式如下:

在Res2Net模塊中,使用了一個新的控制參數“規模”,用s來表示,更大的s能使模型擁有更大的感受野。圖3(b)中s設定為4,在模型中s設定為8。為了減少模型的參數量,省略了第1次分割后的卷積,這也是特征重用的一種形式,假設輸入輸出特征的通道數分別為Ic和Oc,對于殘差塊,其參數 量 為3×3×Ic×Oc,即9×Ic×Oc,對 于Res2Net模塊,其參數量為(s-1)×9×(Ic/s)(Oc/s)。顯然Res2Net模塊具有更少的參數量。

圖3 (a)殘差塊,(b)Res2Net模塊Fig.3(a)Bottleneck block,(b)Res2Net module

1.3 CBAM-Res2Net模塊

本文設計的CBAM-Res2Net模塊如圖4所示。在Res2Net模塊中集成CBAM模塊,能夠使CBAM模塊的優勢更加突出,即在殘差單元內部實現在空間域和通道域上對原始特征的重標定,完成特征調整。將CBAM模塊添加在Res2Net模塊的殘差連接之前,1×1卷積之后,這也是目前主流的網絡結構對于殘差塊和注意力模塊的組合構造 方 式,如SE-Res2Net、SE-ResNet以 及SEInception等。

圖4 CBAM-Res2Net模塊Fig.4 CBAM-Res2Net module

1.4 損失函數

本文模型在訓練中使用歐氏距離來評估真實密度圖與預測密度圖之間的差異,因此將歐氏距離作為損失函數來調整預測密度圖的生成,具體公式如下:

式中,N是一次訓練圖片的總數量,Xi為第i張訓練圖片,D(Xi;θ)為第i張圖片的預測密度圖,其中i∈[1,N],θ為網絡模型參數,為第i張訓練圖片的真實密度圖。

2 實驗部分

2.1 真實密度圖的生成

為了獲得真實密度圖,采用了與之前工作[9]相同的策略,即使用幾何自適應高斯核生成密度圖,作為預測學習的標簽,具體公式如下:

式中,x為圖像中的像素點,xi表示第i個人頭在圖片中的位置,G(x)為高斯核濾波器為每個人的頭部與其相鄰的k個人之間的平均距離,β參照文獻[9]設置為0.3。

2.2 實驗環境和參數設置

實驗所使用的是NVIDIA-3060 12 GB顯卡,深度學習框架為PyTorch 1.11.0。在模型的訓練過程中,對于圖像尺寸大小不一致的數據集使用批量大小為1的隨機梯度下降(stochastic gradient descent,SGD)優化器進行訓練,對于圖像尺寸固定的數據集使用批量大小為8的Adam優化器進行模型優化。由于人群數據集圖片有限,為了獲得更多的圖片用于訓練,進行了數據增強工作,即在不同的位置將圖像隨機裁剪為原始大小的1/4,并對裁剪后的圖片進行鏡像翻轉。

2.3 評價指標

選取平均絕對誤差(mean absolute error,MAE)和均方根誤差(root mean square error,RMSE)作為評價指標,MAE通常用來評估人數估計的準確性,其值越小也就表明該算法的準確性越好,而RMSE通常用來量度算法的魯棒性,其值越小也就表明該算法的魯棒性越好。MAE和RMSE的定義公式如下:Ci和CGTi分別為第i張圖像中的預測人數和真實人數。

2.4 數據集與實驗結果分析

2.4.1 ShanghaiTech數據集ShanghaiTech數據集中共有1 198張圖片并根據人群密度等級分為A、B兩個部分。其中A部分包含482張人數從33到3 193人不等的圖像,平均人數為501人,訓練集和測試集分別包含了300和182張圖像。B部分中包含了716張人數范圍為9到578人的圖片,平均人數為124人,訓練集和測試集分別包含了400和316張圖像。數據集的總共標記人數達到了330 165人。該數據集的實驗結果如表1所示。

表1 基于ShanghaiTech數據集的實驗結果對比Tab.1 Comparison of experimental results on ShanghaiTech dataset

與現有算法相比,本文方法在B部分上的性能指標MAE與RMSE均取得了最優的結果。而在A部分,本文方法在RMSE的表現上僅次于ASD,在MAE的表現上取得了最優。

2.4.2 UCF_CC_50數據集UCF_CC_50數據集中共有50張圖片,其中場景包括火車站、大型游行、演唱會等大量人群聚集的場合。每張圖片包含的人數從94到4 543人不等,數據集的總共標記人數達到了63 974人,平均每張圖片標記的人數為1 280人。該數據集的實驗結果如表2所示。由表2可見,即使在這種人群密度變化大、人頭模糊、背景復雜的數據集上,本文方法的性能依然優于其它算法。

表2 基于UCF_CC_50數據集的實驗結果對比Tab.2 Comparison of experimental results on UCF_CC_50 dataset

2.4.3 實驗結果可視化為了能夠直觀的展示本文方法的預測效果,列出了部分在不同數據集上生成的預測密度圖的可視化結果,真實密度圖和預測密度圖的計數結果均標注在圖片右下角,如圖5所示,其中第1行和第2行為ShanghaiTech數據集Part B中的測試圖像,第3行和第4行為ShanghaiTech數據集Part A中的測試圖像,第5行和第6行為UCF_CC_50數據集的測試圖像。由圖5結果可知,本文模型能夠有效的學習人群圖像和人群密度圖之間的映射關系。

圖5 可視化結果:(a)人群圖像,(b)真實密度圖,(c)預測密度圖Fig.5 Visual results:(a)crowd images,(b)ground-truth density maps,(c)estimation density maps

2.4.4 消融實驗為了驗證Res2Net模塊和CBAM模塊的有效性。在ShanghaiTech B數據集中進行了相關的消融實驗。其中Baseline為本文模型去掉CBAM-Res2Net模塊之后的網絡,結果如表3所示。

表3 基于ShanghaiTech Part B數據集的消融實驗結果Tab.3 Ablation experimental results on ShanghaiTech Part B dataset

從表3中可以看出在加入Res2Net模塊和CBAM注意力模塊后均可以使人群計數的MAE和RMSE下降,具有提升計數準確性的效果。在加入CBAM-Res2Net模塊之后,本文模型的計數效果得到了顯著的提升。

3 結論

本文對CSRNet進行改進,在其后端網絡前加入一種融合注意機制的多尺度特征提取模塊CBAM-Res2Net,該模塊采用Res2Net提取多尺度特征進行融合,融合后的多尺度特征對尺度變化具有良好的魯棒性;采用CBAM提升特征圖中人群區域的權重,并抑制弱相關的背景特征。在ShanghaiTech和UCF_CC_50公共數據集上,本文模型均具有良好的準確性和魯棒性。但本文中的方法仍有不足之處,在經過3次最大池化后,生成的密度圖的高度和寬度只有輸入圖片的1/8大小,這對最終的計數結果帶來了負面影響。在未來的工作中,將針對如何生成高分辨率高質量的密度圖進行研究,進一步提高人群計數的精度。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 中文字幕调教一区二区视频| 茄子视频毛片免费观看| 中文字幕乱码中文乱码51精品| 国产视频久久久久| 高清无码手机在线观看| 女人av社区男人的天堂| 91久久青青草原精品国产| 国产91蝌蚪窝| 亚洲天堂视频在线免费观看| 午夜国产不卡在线观看视频| 欧美日韩中文国产va另类| 日韩a在线观看免费观看| 亚洲精品福利视频| 曰韩人妻一区二区三区| 国产视频 第一页| 黄色网在线免费观看| 国产成熟女人性满足视频| 婷婷色中文| 亚洲天堂网2014| 久久亚洲AⅤ无码精品午夜麻豆| 毛片久久久| 丁香婷婷在线视频| 精品视频福利| 国产女人在线视频| 久久国产成人精品国产成人亚洲| 国产精品欧美日本韩免费一区二区三区不卡 | 亚洲国产看片基地久久1024| 久久99久久无码毛片一区二区| 欧美一区二区人人喊爽| 亚洲高清国产拍精品26u| 国产成人精品视频一区二区电影| 国内老司机精品视频在线播出| 一级毛片免费的| 国产精品网址在线观看你懂的| 国产亚洲欧美另类一区二区| 99热精品久久| 成人午夜免费观看| 国产人成网线在线播放va| 啪啪免费视频一区二区| 欧美福利在线| 亚洲成人网在线播放| 特级做a爰片毛片免费69| 国产SUV精品一区二区6| 蜜桃视频一区二区| 美女视频黄频a免费高清不卡| 久久性妇女精品免费| 国产亚洲精品自在线| 亚洲欧美自拍一区| 国产经典在线观看一区| 国产成人精品亚洲日本对白优播| 久久国产精品影院| 久操线在视频在线观看| 伊人久久青草青青综合| 国产精品久久久精品三级| 日韩AV无码一区| 国产手机在线ΑⅤ片无码观看| 亚洲无码高清视频在线观看| 国产一级二级在线观看| 久久久久青草大香线综合精品| 国产欧美日韩91| 欧美A级V片在线观看| 亚洲综合在线最大成人| 在线精品亚洲一区二区古装| 国产99在线观看| 尤物午夜福利视频| 在线亚洲小视频| 青青草原国产| 国产一区二区网站| 热99精品视频| 亚洲国产高清精品线久久| 亚洲天堂免费在线视频| 手机在线免费不卡一区二| 亚洲欧洲AV一区二区三区| 国产精品播放| 免费三A级毛片视频| 国产精品白浆在线播放| 日本成人精品视频| 国产熟睡乱子伦视频网站| 中文字幕波多野不卡一区| 精品无码视频在线观看| 高潮毛片免费观看| 国产人碰人摸人爱免费视频|