999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于自注意力機制的雙分支密集人群計數算法

2023-10-24 10:08:30楊天樂李玲霞張為
浙江大學學報(工學版) 2023年10期
關鍵詞:監督特征模型

楊天樂,李玲霞,張為

(天津大學 微電子學院,天津 300072)

隨著人口的快速增長,高密集的人群聚集場景時有發生.人群計數通過估計圖像中的人群總數和分布情況[1-3],可以有效規避人群密集帶來的風險,目前已成為計算機視覺領域中熱門的研究方向.在體育場、地鐵站和旅游景區等場所中,人群計數能及時分析人群行為信息,避免人員踩踏、非法集會等公共安全事件.此外人群計數可以擴展到農業、生物醫藥和智能交通等其它領域中,如細胞計數[4]、果實計數[5]和車輛計數[6]等.

早期的人群計數算法通過手工特征分類[7]、目標檢測[8]等方法實現,但是僅僅適用于稀疏場景,在高密集場景下由于嚴重遮擋的原因,檢測效果不盡人意.隨著計算機視覺技術的發展,基于深度學習的技術方案成為主流的研究方向[9].Lempitsky 等[10]提出將逐個體計數轉換為像素值積分計數,更加適用于高密集、高遮擋場景,奠定了基于密度圖的檢測方式.Zhang 等[11]結合多個感受野不同的卷積,組成多列卷積神經網絡,提取不同尺度的人頭信息,優化人群計數中人群尺度跨度大的問題.萬洪林等[12]引入注意力機制到網絡中,將模型更加關注人群前景,并抑制噪聲背景.Liu 等[13]采用雙分支路徑,同時實現檢測和回歸2 種計數方式,自適應地處理密集和稀疏場景.Xie 等[14]利用特征金字塔模塊和涵蓋通道、區域注意的特征重校準模塊,實現同時解決人群尺度變化和復雜背景問題.此外,考慮到基于密度圖的方式須花費較多精力來標注人頭位置,近年來基于弱監督學習方式的研究越來越火熱.Lei 等[15]提出多任務輔助的訓練策略,構造正則化來限制生成密度圖的自由度,實現從計數級標簽和少量的位置級標簽中學習模型.Liang 等[16]將Transformer 網絡引入人群計數,利用Transformer 網絡的自注意力機制,以增加人群數目序列的方式實現語義信息的提取.

由于卷積的感受野固定且有限,卷積神經網絡 (convolutional neural network, CNN)方法僅能關注離散尺度的人群特征,無法適應密集場景,尤其是遠近視角中跨度較大的連續尺度變化.上述方法僅僅利用通道或空間維度的注意力機制,對人群區域的聚焦有待進一步增強.由于CNN 網絡特征的提取能力欠佳,計數級-弱監督方式多采用整體移植Transformer 通用網絡的方式實現,但是Transformer 通用網絡并非完全適配人群計數領域,存在檢測精度低、模型參數量過大問題.

針對上述問題,本研究提出基于自注意力機制的雙分支人群計數算法.結合CNN 和Transformer 這2 種網絡框架,利用自注意力機制捕獲的全局信息,關注并補充人群區域的局部細節信息,從而具備連續尺度的人群特征提取能力.為了進一步聚焦人群區域并抑制背景噪聲,引入混合注意力模塊,使人群區域的特征更加明顯,從而提高模型的計數精度.采用基于位置級標簽的全監督方式和基于計數級標簽的弱監督方式分別進行實驗,在幾個常用的數據集上均取得了令人滿意的結果.

1 算法設計

本研究提出的基于自注意力機制的雙分支密集人群計數網絡(dual-branch crowd counting net,DBCC-Net)整體結構如圖1 所示.網絡由3 部分組成:淺層特征提取網絡、雙分支融合網絡和深層特征提取網絡,最后通過一個簡單的檢測頭輸出人群密度圖.淺層特征提取網絡采用VGG-16 網絡的前13 層,提取具有位置不變性的低層次特征.特征圖分辨率依次降低,選取末端3 尺度特征作為輸出,記為{f1,f2,f3}.

圖1 基于自注意力機制的雙分支密集人群計數算法整體結構圖Fig.1 Overall structure of dual-branch crowd counting algorithm based on self-attention mechanism

雙分支融合網絡采用CNN 與Transformer 并行的雙分支結構.CNN 分支通過多尺度融合模塊提取{f1,f2,f3}的人群細節特征,經過合并下采樣、插值上采樣的操作,融合至1/8 尺度,輸出該分支特征FC.Transformer 分支采用2 組基于卷積增強自注意力模塊的Transformer 網絡,將f2作為輸入,經過降維卷積層、補丁嵌入層和Transformer網絡后,輸出該分支特征FT.由雙分支注意力融合模塊,將FC和FT融合,輸出涵蓋全局信息和局部信息的雙分支特征FCT.深層特征提取網絡采用2 組基于混合注意力模塊的Transformer 網絡,輸出人群語義信息特征FS.最后,經空洞卷積檢測頭,將FS映射為通道數為1 的人群密度圖P,求和即為人群總數.

本研究主要內容有:1)設計了CNN 和Transformer 雙網絡框架,結合卷積的局部關注和自注意力的全局建模,在保證精度的前提下,顯著降低了Transformer 參數量.2)引入多尺度融合模塊,提高局部信息提取能力;引入卷積增強自注意力模塊,提高全局信息提取能力;引入雙分支注意力融合模塊,實現連續尺度的人群特征提取能力;引入混合注意力模塊,進一步聚焦人群區域,提升模型整體計數性能.3)除位置級-全監督方式外,還關注了計數級-弱監督方式,縮小了兩者之間的性能差距,為低成本人工標注提供解決方案.

1.1 雙分支融合網絡

1.1.1 CNN 分支 為了獲取不同尺度下的人群細節信息,DBCC-Net 采用多尺度融合模塊將{f1,f2,f3}進行融合.對于1/4 尺度特征f1,為了防止常規下采樣過程中的人頭細節損失,分別以(0,0)、(0,1)、(1,0)、(1,1)為起始位置,對特征圖進行步長為2 的間隔取值采樣,在通道維度拼接后即為1/8 尺度特征,由1 ? 1 卷積將通道數合并至256,過程如圖2 所示.對于1/16 尺度特征f3,由雙線性插值上采樣至1/8 尺度.最終將3 種尺度特征相加,經卷積層和激活函數后輸出CNN 分支特征FC.

圖2 1/4 尺度特征的下采樣示意圖Fig.2 Down sampled diagram of 1/4 scale feature

1.1.2 Transformer 分支 Transformer 分支采用淺層特征提取網絡的f2作為輸入,并將通道數目由512 降至256.相比于原圖輸入,較小的特征尺度和通道數目保證了較低的模型參數量,并且CNN低層次特征可有效防止Transformer 傳播過程中的過擬合.DBCC-Net 采用的Transformer 網絡由補丁嵌入層、卷積增強自注意力模塊和前饋神經網絡層組成.對于輸入f2∈RB×H×W×C(其中B為批量大小,H和W為特征映射的長度和寬度,C為特征通道數),補丁嵌入層將其重塑為f2?∈RB×C×H*W/P^2(其中P為補丁大小),實現三維特征到二維特征的轉換.卷積增強自注意力模塊是Transformer 網絡的核心,負責全局范圍內的特征提取.前饋神經網絡內置激活函數和全連接層,負責增強非線性的表征能力.經過上述2 組深度為8 的網絡傳播后,輸出Transformer 分支特征FT.

卷積增強自注意力模塊由多頭注意力模塊和大感受野卷積增強模塊組成,采用雙分支結構連接,其結構如圖3 所示.對于多頭自注意力模塊,首先經過線性層的轉換,分別生成Q(query)、K(key)、V(value)參量.其中,Q參量與K參量的轉置相乘生成空間維度的注意力特征,增加相對位置編碼后,經SoftMax 歸一化函數生成注意力權重.最后,該權重與V參量做矩陣乘法,經過線性層和殘差連接后輸出,自注意力機制計算式為

圖3 卷積增強自注意力模塊Fig.3 Convolution enhanced self-attention module

式中:d為多頭自注意力的維度,可防止模型計算量過大;E為相對位置編碼,可以顯式地為一維特征添加二維位置信息.

DBCC-Net 為有效利用CNN 低層次特征并降低模型參數量,在Transformer 傳播時固定了特征尺度和通道數目.然而在Transformer 通用模型[17]中,常采用逐層下采樣升通道的方式來增加感受野.為了彌補感受野的部分缺失,引入了大感受野卷積增強模塊.該模塊由卷積核尺寸為9 ? 9 的深度可分離卷積組成,9 ? 9 的卷積尺寸保證了全局層面的信息交互,深度可分離卷積可有效避免引入較高的參數量和計算量.將以上2 個分支的特征相加,即為卷積增強自注意力模塊的輸出.

1.1.3 雙分支注意力融合模塊 CNN 分支具有細節豐富、局部注意的特征,Transformer 分支具有細節粗糙、全局注意的特征.由于2 種網絡機制的不同,若不加區分的將兩者相加或拼接,會產生次優的效果.因此,DBCC-Net 采用了雙分支注意力融合模塊,利用自注意力機制的基本思想,將Transformer 輸出特征作為一種監督信號,來選擇性的增強CNN 分支的細節信息,從而實現兩種特征的融合,其結構如圖4 所示.將FT經線性層生成Q參量,將FC經補丁嵌入層映射為一維特征并生成K、V參量.Q參量與K參量的轉置相乘生成空間維度的注意力特征,經SoftMax 歸一化函數生成注意力權重.最后,該權重與V參量做矩陣乘法,輸出CNN 分支注意力特征FC?,與原始FC和FT做加后,即為雙分支注意力融合模塊輸出FCT.

圖4 雙分支注意力融合模塊Fig.4 Dual-branch attention fusion module

1.2 深層特征提取網絡

深層特征提取網絡由基于混合注意力模塊的Transformer 組成,結構同上文提到的Transformer 網絡結構.Transformer 只能利用有限的信息范圍,可以通過增加特定層面的注意力機制學習更多的特征[18].因此,在自注意力模塊的基礎上,引入空間通道注意力模塊,增強Transformer的表達能力,以進一步聚焦人群區域.混合注意力模塊由多頭注意力模塊和空間通道注意力模塊組成,采用雙分支結構連接,其結構如圖5 所示.

圖5 混合注意力模塊Fig.5 Hybrid attention module

空間通道注意力模塊由空間注意分支和通道注意分支組成,全程在一維特征層面進行,不需要多余的重塑操作.對于輸入fx∈RB×C×N,空間注意分支在通道維度進行平均池化,經Sigmoid 函數,生成空間維度的注意力權重Ws∈RB×1×N.空間注意力權重Ws與輸入特征fx做矩陣乘法,經加權平均處理,生成融合空間信息的通道注意力權重Wc1∈RB×1×C;通道注意分支在空間維度進行平均池化,直接輸出通道注意力權重Wc2∈RB×1×C.將兩分支的輸出權重拼接,經全連接層和Sigmoid 函數,生成最終的注意力權重Wc∈RB×1×C.fx與Wc進行Hadamard 乘積,即為空間通道注意力模塊的輸出特征fout∈RB×C×N.最后與多頭注意力模塊做權重為α 的加權融合,即為混合注意力模塊的輸出.

1.3 檢測頭與損失函數

檢測頭負責回歸人群密度圖,通過3 個膨脹系數分別為1、2、3 的3×3 空洞卷積實現,并由兩層1×1 卷積將通道數目映射為1,輸出1/8 尺度的人群密度圖.

位置級-全監督使用人群計數中流行的DMLoss[19]作為損失函數,由人工標注的離散圖直接作為標簽,避免生成偽密度圖過程中的誤差影響.全監督損失函數Lfull由3 部分組成,其中,最優運輸損失LOT負責度量預測圖和標簽之間的相似性,總變量損失LTV負責稀疏區域的回歸,計數損失LC負責增加訓練穩定 性,計算式為

式中:G為標簽離散圖,P為預測密度圖,λ1和λ2分別設置為0.10 和0.01.

計數級-弱監督僅使用CG(對G求和得到的真實人群數目)作為標簽,無須提供涵蓋人頭坐標和區域的位置級信息,從而能更好地節約標注成本.該方式將模型輸出的預測人群密度圖P求和,得到CP(對P求和得到的預測人群數目).利用損失函數Lweak衡量CG和CP之間的差異,完成對預測人群數目的監督.除了能夠實現人群數目的預測外,通過計數級-弱監督方式獲得P,仍涵蓋較為精確的位置級信息.

弱監督采用Smooth L1[20]作為損失函數,相比于L1 損失或者L2 損失,Smooth L1 損失更易收斂,可以避免L1 損失的原點不可導問題.

2 人群計數實驗及分析

2.1 實驗細節與評價指標

實驗的硬件配置為Intel Xeon 4310 處理器和NVIDIA A40 顯卡;軟件環境使用Ubuntu 18.04 操作系統、Python 3.8 編程語言、PyTorch 1.12.1 深度學習框架和CUDA 11.7 并行計算架構.

淺層特征提取網絡VGG-16 采用ImageNet-1k 預訓練權重,剩余卷積層和全連接層采用均值為0、方差為0.02 的隨機權重.對于模型的超參數,混合注意力模塊相加權重α 設為0.01,Transformer 模塊深度設為8,多頭注意力模塊head 數設為8.在訓練過程中,采用AdamW 優化器進行優化,其中學習率設為0.000 01、權值衰減設為0.000 1、批量大小根據圖片裁剪尺寸設為4 或16.根據不同數據集的特點,采用固定尺寸Patch 進行訓練.為避免數據冗余,從訓練圖片中隨機裁剪出所需尺寸的Patch,并使用隨機率為0.5 的水平翻轉進行數據增強.

DBCC-Net 在Part A 數據集上的訓練曲線如圖6 所示,其中圓圈為損失值,三角為平均絕對誤差,方塊為均方誤差,橫坐標E為迭代次數,縱坐標LOSS、MAE、MSE 為結果數值.從圖中可以看出,隨著訓練的進行,損失值能夠快速下降并完成收斂,在440 輪次獲得最佳計數性能,即MAE為55.3、MSE 為93.1.由此可以說明損失函數的選擇和訓練參數的設置較為合理,達到預期結果.

圖6 DBCC-Net 模型的訓練曲線Fig.6 Training curve of DBCC-Net

實驗使用人群計數領域中常用的平均絕對誤差(mean absolute error,MAE)和均方誤差(mean squared error,MSE)用于性能評估,2 個指標的定義為

式中:N為測試數據集的圖片總數,為測試集中第i張圖片的真實人群數目,為測試集中第i張圖片的預測人群數目.評價指標MAE 和MSE越小,表示模型的誤差越低,計數性能越好.

2.2 數據集

ShanghaiTech: ShanghaiTech 數據集[11]包含了1 195 張標注圖片和330 165 個標注人數,數據集由Part A 和Part B 這2 個部分組成.Part A 由482 張從互聯網收集的高密集場景下的圖片組成,訓練集與測試集的數量比例為300∶182.Part A 中單張圖片人數在33~3 139,是一個高度密集的數據集.Part B 由716 張上海街道圖片組成,訓練集與測試集的數量比例為400∶316.Part B 中單張圖片人數為9~578,是相對稀疏的數據集.在訓練過程中,對于Part A 數據集,Patch 大小設置為256×256;對于Part B 數據集,由于人群較稀疏且分辨率較差,裁剪大小設置為512×512.

UCF-QNRF: UCF-QNRF 數據集[21]包含1 535 張標記圖片和1 251 642 個標注人數,是一個大型且具有挑戰性的人群數據集.該數據集中單張圖片人數為49~12 865,訓練集與測試集的數量比例為1 201∶334.相比于其他數據集,該數據集中場景更加擁擠,更接近真實情況.由于分辨率較大,考慮到訓練速度和內存占用,對于全監督部分,將最小邊重塑為不超過2 048,裁剪大小為512×512.對于弱監督學習部分,將最小邊重塑為不超過1 024,裁剪大小為256×256.

UCF_CC_50: UCF_CC_50 數據集[22]包含50 張標記圖片和63 075 個標記人數,是極密集的小型人群數據集,單張圖片人數為94~4 543.由于數據集的數量僅為50 張,采用5 折交叉驗證的方式進行訓練,裁剪大小為512×512.

JHU-Crowd++: JHU-Crowd++數據集[23]包含4 372 張標記圖片和151 萬余個標注人數,是在各種不同場景下收集的超大型人群數據集.該數據集中單張圖片人數為0~25 000,訓練集與測試集的數量比例為2 772∶1 600.由于分辨率較大,同樣考慮到訓練速度和內存占用,對于全監督部分,將最小邊重塑為2 048 以下,裁剪大小為512×512.對于弱監督學習部分,將最小邊重塑為不超過1 024,裁剪大小為256×256.

2.3 實驗結果

采用全監督和弱監督2 種方式,評估模型在4 個常用數據集上的檢測效果,并與其他人群計數模型進行對比.從結果可以看出,所提模型在ShanghaiTech、UCF-QNRF、UCF_CC_50 和JHUCrowd++數據集上均獲得令人滿意的成績.

2.3.1 定量結果 采用基于位置級標簽的全監督方式,結果表1 所示,對于Part A 數據集,所提模型在所有比較的方法中取得了最好的成績.與采用CNN 與Transformer 結合的CLTR 算法相比,DBCC-Net 將Part A 的MAE 和MSE 分別降低了2.8% 和2.2%;在Part B 數據集中,DBCC-Net 以9.8 的MSE 取得最優效果,MAE 也十分接近最優成績.與其他數據集相比,Part B 數據集更加稀疏和簡單,復雜背景噪聲和連續尺度人頭變化問題不突出,因此本模型在MAE 上取得與其他模型相似的性能.對于QNRF 數據集,DBCC-Net 以82.9 的MAE 達到優秀的計數水平,驗證了算法在擁擠場景、復雜背景干擾下的計數性能.對于UCF_CC_50 數據集,取得最低的誤差結果,證明算法可以很好地適用于小型數據集.對于JHUCrowd++大型數據集,該算法展現了良好的計數性能.與采用相同損失函數的DM-Count 模型相比,在4 個數據集上,DBCC-Net 的MAE 分別降低了4.4、0.7、2.1、63.5,MSE 分別降低了2.6、2.0、2.3、86.4.

表1 位置級-全監督對比實驗的結果Tab.1 Results of position-level full supervision comparison experiment

采用基于計數級標簽的弱監督方式,結果如表2所示.可以看出,DBCC-Net 在4 個數據集上均取得了最好的成績,進一步表明算法的有效性.相比于采用Transformer 網絡的TransCrowd 算法,DBCC-Net 在4 個數據集上的MAE 分別降低了9.1%、19.4%、6.5%和18.2%.DBCC-Net 極大地縮小了全監督和弱監督算法之間的性能差距,達到全監督算法87.9%的計數性能,為降低人工標注成本提供了解決方案.

表2 計數級-弱監督對比實驗的結果Tab.2 Results of count-level weakly supervision comparison experiment

2.3.2 可視化結果 將模型輸出進行可視化展示,圖7 展示全監督下的模型在4 個數據集上的預測密度圖.其中,SHT Part B 和UCF_CC_50 圖片分別為稀疏場景和全密集場景下的檢測效果,SHT Part A 和QNRF 圖片為復雜場景、多尺度人頭大小和遮擋下的檢測效果.由圖7 可以看出,預測密度圖接近真實值,計數結果較為準確.

圖7 位置級-全監督人群密度圖Fig.7 Position-level full supervision crowd density map

為了進一步分析本研究模型優于其他方法的原因,圖8 展示DBCC-Net 與DM-Count[19]、CFANet[37]的可視化對比圖.從第1 行標記可以看出,本研究模型在準確計數稀疏場景的基礎上,在高密集、高遮擋場景下更具優勢,能夠清晰地定位出人頭位置,證明了采用雙分支融合模塊能夠較好地融合細節特征和全局特征;從第2 行標記可以看出,本研究模型能夠有效識別大、中、小尺寸的人頭目標,說明DBCC-Net 具備連續的尺度特征提取能力.從第3 行標記可以看出,與其他方法相比,本研究模型能準確區分前景和背景,有效排除復雜環境下的干擾.

圖8 不同方法的可視化對比圖Fig.8 Visual comparison of different methods

圖9 展示弱監督下的模型在QNRF 數據集上的人群關注圖,圖中138、198、398、652 的人群數量對應從稀疏到密集的不同場景.從預測結果可以看出,DBCC-Net 僅以人群數目作為學習對象,即可準確地定位到人頭位置,實現人群數目估計和人群分布估計2 種任務需求.

圖9 計數級-弱監督人群關注圖Fig.9 Count-level weakly supervision crowd density map

2.4 實驗分析

2.4.1 框架與模型復雜度分析 為了評估模型的空間和時間復雜度,本研究根據參數量Np和每秒浮點運算次數GFLOPs 對模型進行對比分析,如表3 所示.在空間復雜度方面,DBCC-Net 以38.0×106的參數量處于Transformer 框架模型中的較低水平,接近CNN 框架模型的參數量.在時間復雜度方面,由于結合了2 種網絡的運行機制,本研究算法在運算次數方面沒有明顯優勢,但仍優于RAN[32]、CCST[36]近期研究,并且在計數性能方面取得更好的表現.經本實驗硬件平臺驗證,DBCCNet 能將1 024×768 大小的圖片以單張0.368 6 s 的推理速度實現人群計數,滿足實時性要求.

表3 時間及空間復雜度對比的實驗結果Tab.3 Experimental results of time and space complexity comparison

為了驗證算法框架的有效性,使用相同的損失函數和訓練方法,對不同框架的算法進行對比實驗,結果如表4 所示.基于CNN 的算法擁有較小的模型尺寸,但其精度有待進一步提高.基于Transformer 的算法精度較高,但其模型參數量較大.采用CNN 與Transformer 直接串聯的方式,效果提升有限.采用DBCC-Net 的雙分支融合框架,較好地結合了2 種網絡的優勢,相比CNN 框架絕對誤差降低了6.9%,相比Transformer 框架模型參數量降低了64%.

表4 網絡模型框架的對比實驗結果Tab.4 Comparison of experimental results with network model framework

2.4.2 消融實驗 為了驗證DBCC-Net 各個組成的有效性,將串行連接的VGG 和Swin Transformer作為基本模型進行消融實驗,結果如表5 所示.結合CNN 與Transformer 這2 種網絡的基本模型即具備較高的計數精度,展示良好的人群特征提取能力.在串行連接的基礎上引入CNN 分支并進行雙分支融合后,MAE 和MSE 分別降低了0.9 和0.7,表明融合局部信息和全局信息可以有效提升模型性能.在引入卷積增強自注意力模塊后,誤差進一步降低.最后在此基礎上,引入混合注意力模塊,MAE 和MSE 相較于基本模型分別降低了3.3 和4.0.以上實驗證明,各組成有效提升了模型計數性能.

表5 DBCC-Net 模型消融實驗結果Tab.5 Results of ablation experiments for DBCC-Net

為了驗證全監督損失函數DM-Loss 的有效性,與基于傳統高斯密度圖的MSE-Loss 和基于離散點標注圖的Bayesian-Loss 進行定量對比實驗,如表6 所示.相比于前兩者,DM-Loss 能將MAE降低1.9 和5.3,MSE 降低2.5 和8.1,表明DMLoss 能更好地適用于DBCC-Net 網絡模型.為了確定全監督損失函數中最優運輸損失LOT的權重λ1和總變量損失LTV的權重λ2,類比于DMCount[19],本研究將λ1固定0.1,設置λ2分別為0.01、0.05 和0.10,輸出誤差結果55.3、56.8 和57.3,從而確定λ2為0.01.設置λ1分別為0.01、0.05 和0.10,輸出誤差結果57.9、56.4 和55.3,從而確定了λ1和λ2的最優權重為0.10 和0.01.

表6 損失函數的對比實驗結果Tab.6 Comparison experiment results of loss function

為了進一步分析各模塊對計數性能的影響,本研究采用弱監督學習的方式進行對比實驗.分別在多尺度選擇和注意力增強方面進行探究.對于多尺度融合模塊,結果如表7 所示.采用1/4、1/8 或1/16 單個尺寸的卷積特征,僅能補充單一尺度的細節信息,模型效果相似.利用多尺度融合模塊,可以充分提取不同尺度下的細節信息,從而有效降低模型誤差.對于混合注意力模塊,結果如表8 所示.相比于僅使用單一維度的注意力增強,同時關注通道和空間維度的注意力增強,有助于進一步提升模型效果.相較于傳統CBAM模塊,本研究提出的空間通道注意力模塊獲得最優的結果,且僅在一維特征層面實現,有利于Transformer 網絡中一維序列的傳播,無需空間注意力分支中一維特征到二維特征之間的轉換.

表7 多尺度融合模塊的對比實驗結果Tab.7 Comparative experiment results of multiple fusion modules

表8 混合注意力模塊的對比實驗結果Tab.8 Comparative experimental results of hybrid attention modules

3 結 語

本研究提出基于自注意力機制的雙分支密集人群計數算法,有效解決了當前人群計數算法面臨的主要問題.通過引入多尺度融合模塊提高局部信息提取能力,通過引入基于卷積增強的自注意力模塊提高全局信息提取能力.通過采用雙分支融合模塊,實現連續尺度的人群檢測能力.通過增加混合注意力模塊,進一步聚焦人群區域,提升模型的整體計數性能.本研究分別采用全監督學習和弱監督學習進行實驗,兩者在多個數據集上取得滿意的性能表現.在弱監督學習中,以較低的參數量實現更佳的計數效果,并縮小與全監督算法之間的性能差距.實驗結果表明,該算法具備良好的人群計數性能,可以實現高密集、高遮擋場景下的準確計數,具有較高的應用價值.

猜你喜歡
監督特征模型
一半模型
重要模型『一線三等角』
突出“四個注重” 預算監督顯實效
人大建設(2020年4期)2020-09-21 03:39:12
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
監督見成效 舊貌換新顏
人大建設(2017年2期)2017-07-21 10:59:25
夯實監督之基
人大建設(2017年9期)2017-02-03 02:53:31
3D打印中的模型分割與打包
主站蜘蛛池模板: 亚洲人成在线免费观看| 污污网站在线观看| 在线色综合| 亚洲天堂免费观看| 免费网站成人亚洲| 亚洲天堂网视频| 黄片在线永久| 日韩午夜福利在线观看| 日韩 欧美 小说 综合网 另类| 国产一区免费在线观看| 不卡无码网| 欧美激情,国产精品| www.av男人.com| 暴力调教一区二区三区| 久久综合伊人 六十路| 91久久青青草原精品国产| 无码又爽又刺激的高潮视频| 无码AV动漫| 欧美精品成人| 国产黄在线免费观看| 无码丝袜人妻| 国内精品免费| 天天综合天天综合| 91美女视频在线观看| 亚洲日韩欧美在线观看| 国产亚洲精品自在线| 农村乱人伦一区二区| 亚洲一区第一页| 国产精品一区在线麻豆| 在线观看亚洲天堂| 亚洲国产天堂久久综合226114| 亚洲一区二区在线无码| 亚洲欧美日韩动漫| 麻豆国产精品视频| 国产18在线播放| 亚洲第一精品福利| 亚洲AV无码一区二区三区牲色| 最新国产成人剧情在线播放| 99精品热视频这里只有精品7| 青青青国产精品国产精品美女| 人妻熟妇日韩AV在线播放| 亚洲精品无码AV电影在线播放| 99热这里只有成人精品国产| 欧美亚洲香蕉| 精品国产一区91在线| 538精品在线观看| 色精品视频| 亚洲高清日韩heyzo| 国产在线观看91精品亚瑟| 最新无码专区超级碰碰碰| 中文字幕永久在线观看| 国产特级毛片aaaaaaa高清| 天堂成人在线| 青青操视频在线| 国产乱子伦视频在线播放| 亚洲色成人www在线观看| 性欧美精品xxxx| 日本久久网站| 91美女视频在线| 精品色综合| 在线免费观看AV| 亚洲男女在线| 国产精品福利尤物youwu| 国产激爽大片高清在线观看| 亚洲综合一区国产精品| 色窝窝免费一区二区三区| 成人毛片在线播放| 无码一区中文字幕| 青青草国产免费国产| 欧美日韩中文国产| 国产精品永久免费嫩草研究院| 午夜色综合| 欧美日韩综合网| 欧美精品啪啪| 免费国产小视频在线观看| 国产精品漂亮美女在线观看| 在线视频亚洲色图| 无码在线激情片| 在线观看亚洲成人| 国产一级做美女做受视频| 亚洲综合专区| 蝴蝶伊人久久中文娱乐网|