999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于特征與數據增強的城市街景實例分割算法

2024-01-01 00:00:00李成嚴車子軒鄭企森
哈爾濱理工大學學報 2024年2期
關鍵詞:特征提取

摘" 要:城市街景分割是智能交通領域中一項關鍵的技術,對于城市街景環境中的客觀因素例如遮擋、小目標等問題,提出一種基于特征增強與數據增強的城市街景實例分割算法DF-SOLO(data augmentation and feature enhancement SOLO)。針對遮擋問題,通過非對稱自編-解碼器架構對城市街景圖像進行數據增強,與傳統方法相比處理后的圖像更貼近真實的源數據分布。針對城市街景中的小目標分割問題,引入特征加權和特征融合的思想,特征加權模塊在特征處理過程中能夠根據特征的重要程度賦予不同的權值,提高對重要特征的利用率;特征融合模塊從更細粒度的角度進行多尺度特征融合以解決尺度敏感問題,提高語義特征的描述性。通過在Cityscapes數據集上的實驗表明,提出的實例分割算法在保證實時性的同時相較于單階段SOLO算法和兩階段Mask R-CNN算法的mAP值上分別提升2.1%和2%,改善了對小目標和遮擋目標的分割效果。

關鍵詞:實例分割;SOLO算法;特征提取;數據增強;城市街景

DOI:10.15938/j.jhust.2024.02.004

中圖分類號: TP391.41

文獻標志碼: A

文章編號: 1007-2683(2024)02-0025-08

Instance Segmentation Algorithm of Urban Street Scene Based

on Data Augmentation and Feature Enhancement

LI Chengyan, "CHE Zixuan," ZHENG Qisen

(School of Computer Science and Technology, Harbin University of Science and Technology, Harbin 150080, China)

Abstract:Urban street scene segmentation is a key technology in the field of intelligent transportation. For the objective factors in the urban street scene environment such as occlusion, small objects, etc., a DF-SOLO(Data Augmentation and Feature Enhancement SOLO) instance segmentation algorithm of urban street scene based on data augmentation and feature enhancement is proposed. Aiming at the occlusion problem, the urban street view image is enhanced by the asymmetric self-encoder-decoder architecture. Compared with the traditional method, the processed image is closer to the real source data distribution. Aiming at the problem of small target segmentation in urban street scenes, the idea of feature weighting and feature fusion is introduced. The feature weighting module can assign different weights according to the importance of the features in the feature processing process, so as to improve the utilization rate of important features; the feature fusion module Multi-scale feature fusion is performed from a finer-grained perspective to solve the scale-sensitive problem and improve the descriptiveness of semantic features. Experiments on the Cityscapes dataset show that the proposed instance segmentation algorithm can improve the mAP value by 2.1% and 2% respectively compared with the single-stage SOLO algorithm and the two-stage Mask R-CNN algorithm while ensuring real-time performance. Improved segmentation of small objects and occluded objects.

Keywords:instance segmentation; SOLO algorithm; feature extraction; data augmentation; urban street scene

收稿日期: 2022-08-17

基金項目: 黑龍江省自然科學基金(LH2021F032).

作者簡介:

車子軒(1997—),男,碩士研究生;

鄭企森(1998—),男,碩士研究生.

通信作者:

李成嚴(1972—),男,教授,碩士研究生導師,E-mail: chengyan@hrbust.edu.cn.

0" 引" 言

城市街景檢測與分割是智能交通的核心研究領域[1],與目標檢測、語義分割相比,城市街景實例分割是一項更為復雜的任務,它不僅要求像素級的分割,而且需要預測每個實例的位置。由于城市街景環境中存在的車輛、行人等小目標和遮擋等因素干擾,致使分割難度加大,因此城市街景實例分割已成為當前熱點研究的問題。

實例分割模型中包含目標檢測分支和分割分支,目標檢測模型主要分為單階段模型和兩階段模型。兩階段目標檢測模型在準確性方面具有優勢,但較大的模型權重致使實時性方面效果較差。單階段目標檢測從早期基于錨框(anchor-base)的檢測模型YOLO[2]和Retina Net[3]等,發展到無錨框(anchor-free)的檢測模型Center Net[4]和FCOS[5]等,由于不需要預先生成錨框,目標檢測速度得到了進一步的提高[6]。因此基于單階段目標檢測的實例分割模型更加適用于城市街景實時分割。

目前主流的實例分割方法可以歸為三類[7]:自上而下(top-down)的方法,首先進行目標檢測,然后在檢測框內進行語義分割,該方法過于依賴目標檢測的準確率;自下而上(bottom-up)的方法,首先對像素進行語義分割,然后再通過聚類、度量學習等手段區分不同的實例,該方法一般泛化能力較弱;直接得到實例分割結果的方法,通過直接分割實例掩碼擺脫了錨框的限制。SOLO[8](segmenting objects by locations)算法是一種無錨框的單階段實例分割算法,通過量化中心點位置和物體大小對實例中的每個像素分配類別。該模型憑借全圖卷積、網絡結構一體化、不裁剪特征圖等特性,在分割速度上能夠滿足城市街景環境下對實例分割算法性能的要求[9]。但由于SOLO算法的特征提取部分采用簡單的Resnet+FPN[10](feature pyramid networks)結構,對小目標特征提取不充分;在檢測目標時缺少兩階段范式的ROI-Align操作[11],致使無法準確獲取目標區域,對遮擋目標的分割精度上存在一定的局限性。

為解決SOLO算法對于城市街景中的小目標和目標遮擋分割效果不佳的問題,本文從特征工程和數據處理角度出發,提出一種改進的城市街景分割方法即DF-SOLO(data augmentation and feature enhancement SOLO)。對于小目標分割場景,在特征提取網絡中結合特征融合算法[12]和特征加權算法[13],有效利用不同通道之間的關聯性以提高特征圖對小目標的描述性;針對目標遮擋分割場景,提出一種基于MAE[14](masked auto encoders)的數據增強方法為模型訓練帶來更復雜的訓練數據場景,在保證實時性的前提下進一步提高模型對遮擋實例的分割精度。

1" SOLO實例分割網絡

Wang等[8]提出的SOLO算法是一種通過量化中心點位置和物體大小直接得到結果的單階段實例分割算法。與Mask R-CNN[11]等兩階段分割模型相比,SOLO算法不受錨框位置和規模的限制,端到端的方式顯著降低其計算復雜度和模型大小。與YOLO類似,SOLO算法對于輸入圖像從概念上將其均分為網格。通過全卷積網絡[15](fully convolutional networks,FCN)和特征金字塔提取特征,判別實例的中心點是否落在某個網格中,類別分支(category branch)和掩膜分支(mask branch)分別預測物體的語義類別和分割實例掩碼。如圖1所示,SOLO主要由4部分構成:全卷積網絡、特征金字塔、類別分支和掩膜分支。

城市街景圖像輸入到全卷積網絡和特征金字塔后,將不同尺寸的對象分配到不同層次的特征圖中,分別送入SOLO網絡的類別分支和掩膜分支。類別分支用于預測各個位置目標的類別,網格落到中心區域則為正樣本否則為負樣本。輸出空間為S×S×C,經過FPN得到的H×W特征圖經過上采樣變換為S×S,C為數據集中實例的類別數。掩膜分支創建一個與輸入相同空間大小的張量以解決平移不變性問題,其中包含像素坐標,這些坐標被標準化至[-1,1]并和原始的輸入進行通道上的拼接。如果原始特征張量的大小為H×W×D,則新張量的大小為,其中后兩個通道為像素坐標,提供全局位置信息。因為掩膜分支有S2個位置,因此生成2H×2W×S2維輸出空間以實現目標的全圖位置預測。

2" 本文方法

2.1" 總體網絡框架

小目標的相對定義是指對于原圖的長寬來看,當目標尺寸小于原圖尺寸0.1倍時就可認為是相對小目標[16],城市街景環境下的小目標包括交通標志牌、遠處的行人和車輛等,基于ResNet和FPN的實例分割網絡對城市街景中小目標的特征提取具有較大的難度。SOLO算法根據實例的尺寸和位置為實例中的每個像素分配類別,對實例的中心點信息較為敏感,由于城市街景下的實例存在較多的遮擋,即實例中心點可能出現重疊導致的語義模糊極大的影響了模型分割性能。對于城市街景中的目標遮擋和小目標問題,本文分別提出基于MAE的數據增強方法和結合通道特征加權及特征融合思想的特征增強算法。

數據增強模塊通過非對稱編碼-解碼架構對原始圖像進行處理,編碼器在可見區域進行操作,解碼器在像素空間中重建丟失的區域,增強后的訓練圖像在盡量避免因添加噪聲所帶來的負面影響的同時更貼近真實的源數據分布以提高數據集的表征能力;其次在特征提取網絡之后施加特征增強算法,通過特征加權的方式能夠在增強有效特征的同時抑制無用特征,降低算法編-解碼過程造成的特征映射損失;特征融合模塊對不同尺度的特征進行提取以提高分割精度。通過增強網絡通道間的相關性和對卷積核更細粒度的利用,改進后的特征增強網絡可以在獲得含有更多細節信息特征圖的同時兼顧深層特征所具有的豐富語義信息[17],DF-SOLO算法整體結構如圖2所示。

為提高城市街景分割模型對小目標和遮擋目標的分割精度,本文從數據增強和特征處理兩個角度出發對模型進行改進。基于MAE的數據增強相較傳統方法能夠在不引入過多歧義和噪聲的同時提高模型訓練的復雜度,改善對遮擋目標的分割效果;在特征處理方面,通過特征增強網絡對通道特征進行重構,并采用特征融合的方式提高對小目標的描述性。

2.2" 基于MAE的數據增強方法

數據增強方法廣泛應用在提高深度神經網絡的性能上,如隨機擦除[18](random erasing)模擬檢測目標被部分遮擋的情況:刪除10%~25%的圖像區域以隱藏或使圖像的某些特征混淆,防止網絡專注于少數重要的圖像區域,迫使其加強對圖像整體結構中特定區域的特征學習,從而增強模型的分割性能。

需要注意的是,盡管隨機擦除方法通過在訓練數據和標簽中添加噪聲和歧義來提高整體性能,但當擦除率超出一定限度刪除圖像中的信息時,模型沒有足夠的信息來學習和區分類別,圖像的標簽變得與模型完全無關并有噪聲。因此本文提出一種基于MAE的數據增強方法,通過輕量化的非對稱編碼器-解碼器架構對城市街景圖像進行預處理,編碼器在可見區域進行操作,解碼器在像素空間中重建丟失的區域。與傳統方法相比,本文方法在增強圖像中保留顯著信息,從抽樣分布的角度更貼近真實的源數據分布,非對稱自編-解碼器架構如圖3所示。

非對稱自編-解碼器只接受未被掩碼的序列作為輸入,編碼器部分負責對可見區域特征提取,解碼器專注于圖像的重建,高度稀疏的輸入可以提升模型的學習能力。首先將城市街景圖像分割成尺寸相同的圖像塊并標記其位置信息,打散順序(shuffle)后取集合的一部分作為可見區域輸入到編碼器,經過一系列transformer[19]單元處理后獲得編碼塊(encoded patches),丟失的區域采用同一個mask embedding向量與編碼結果結合并還原到初試圖像序列作為解碼器的輸入。解碼器部分預測每個圖片浮點型的像素值,最后一層是全連接層,將輸出整形映射以形成重建的圖像。損失函數計算像素空間中重建圖像和原始圖像之間的均方誤差,如式(1)所示,和y分別代表預測值和真實值。

J(,y)=1m∑mi=1((i)-y(i))2(1)

這種設計下,較高的掩碼率在優化準確性的同時允許編碼器僅處理一小部分的圖像輸入,即非對稱的架構。非對稱自編-解碼架構在大幅提高整體預訓練速度的同時減少內存消耗,能夠輕松地擴展到大型模型中。在圖像增強方面重構后的城市街景圖像更貼近真實的數據分布,以提高模型對整體結構中特定區域的學習能力,改善對遮擋目標的分割效果。通過實驗比對本文選用65%的掩碼率,圖像尺寸分別為224和448。

2.3" 特征增強網絡結構

在實例分割中,基于無錨框的實例分割模型較基于錨框的模型省卻了根據RPN生成預選框的步驟,只需對不同尺度特征圖的目標中心點和寬高進行回歸,例如在SOLO算法中根據實例的尺寸和中心點的位置信息去為每個像素分配類別,極大降低了模型所需的算力和耗時。然而無錨框模型缺乏人為先驗分布,無法根據邊界框獲取到更加精準的小尺度特征,導致其分割結果一般召回率較高但準確率低于基于錨框的方法。

通過FCN全卷積網絡和特征金字塔處理后可以獲得城市街景圖片的特征圖,為增強分割的效果,采用通道特征加權的思想對通道進行重構,如圖4所示。在對通道特征進行重構中,采用平均池化(average pool)和最大池化(max pool)分別對同一特征圖進行池化操作,獲得街景圖片的背景信息和紋理信息。接著使用一維卷積對多通道特征進行卷積操作,能夠實現通道內和通道間的互聯,以此實現對特征通道的加權。為保證特征的完整性,使用殘差網絡中跳躍連接(skip connection)的思想將原始特征圖和重構后的特征圖進行拼接,實現對特征圖不同通道權值的設置。

在對特征通道進行加權重構后,進而輸入到特征融合模塊中。在特征融合過程中,輸入和輸出采用全連接的形式,不同顏色的卷積核表示不同的膨脹率。圖4特征融合模塊中,Conv_kernal_1、Conv_kernal_2、Conv_kernal_3和Conv_kernal_4表示4個不同膨脹率的卷積核,這4個卷積核在不同的通道上按照不同的順序進行排列且按照周期性變換,從而在廣泛的范圍內對特征進行聚合。

在特征通道的重構過程中,通道維數為C,跨通道卷積的內核尺寸為k,即有多少領域參與了一個通道的注意預測。跨通道交互的覆蓋范圍與通道維度成正比,參數k的求解如式(2)所示:

k=ψ(C)=log2(C)+bγodd(2)

式中:|*|odd標識最臨近的奇數以便于計算;b和γ參數的值可自定義,本文分別2和1。因此,在特征融合中,輸入特征為Φ∈RCin×H×Wk(輸入特征與參數k有關,H和W表示輸入特征的尺寸),輸出特征為Λ∈RCin×H×Wk,卷積核為Γ∈PCoutCin×K×K。輸出特征可表示為式(3):

Λcxy=∑Cin,kK=1∑K-12i=-K-12∑K-12j=-K-12Γc,K,i,j*

ΦK,x+iD(c,K),y+jD(c,K)(3)

由上式可以看出,緊湊多尺度卷積在驗證輸入通道時循環調節膨脹比率以實現多尺度的上下文信息融合,將膨脹比率設置一致的卷積核堆疊處理以提高計算效率,輸入與輸出通道通過全局連接,不同通道的卷積計算時多種尺度卷積交替執行,提高了模型對城市街景圖像的細節處理能力。

3" 實驗結果與分析

3.1" 實驗環境和模型訓練

實驗選擇GeForce RTX 2070 GPU處理器,顯存為6GB;使用的操作系統為Ubuntu 16.04,內存為16GB;使用Python3.7版本的語言開發工具,深度學習環境使用PyTorch 1.5.0進行搭建,并在Mmdetection 2.17下搭建實例分割模型。具體內容如表1所示。

實驗采用單張顯卡,顯卡每次處理1幅圖像,根據顯卡數量設置初始學習率為0.000625。其余部分網絡模型訓練參數設定如下:優化算法采用隨機梯度下降法,動量因子為0.9,權重衰減因子設置為0.0001;模型訓練36 epoch,每輪訓練的前500次迭代中學習率逐漸線性增長,

當迭代訓練至第27輪和第33輪時降低學習率以加速模型收斂過程。如圖5所示,模型訓練過程中的驗證損失在前期下降趨勢明顯,之后逐漸趨于平穩。

3.2" 在Cityscapes數據集上的實驗

實驗使用Cityscapes數據集,數據集由50個不同城市的街景組成,包括5000張細粒度標注圖片和20000張粗粒度標注圖片。根據實際應用場景,實驗選用car、bus、pedestrian、rider、truck包括背景共6個類別,篩選出3970張圖片構建城市街景數據集。隨機抽取數據集的80%作為訓練集,10%作為驗證集,剩余的作為測試集,如表2所示。

3.2.1" 基于MAE的數據增強方法

為評估本文基于MAE的數據增強方法對遮擋目標分割的性能,與Mixup[20]、Cutout[21]、Random Erasing等方法進行對比試驗。數據增強方法中的編碼器部分可選用隨機掩碼、塊狀掩碼和網格掩碼對原始圖像進行處理,根據實驗結果本文選用隨機掩碼,掩碼比率設置為65%,圖像尺寸為224和448,增強前后的圖像如圖6所示。可以看出本文方法在加強網絡對圖像中局部區域的特征學習的同時盡可能的保留上下文信息,最大限度地避免因添加噪聲和歧義對遮擋目標所帶來的負面影響。

在保證基線模型和訓練策略一致的前提下,實驗結果如表3所示,結果表明基于MAE的數據增強方法可以有效提升模型對遮擋目標的分割性能。

3.2.2" 基于特征增強的DF-SOLO算法

在實例分割中,通常采用mAP(mean average precision)來評估模型的分割精度,實驗使用相同的訓練策略分別對單階段和兩階段的實例分割算法在城市街景數據集上進行訓練,結果對比如表4所示。DF-SOLO算法通過對特征通道進行加權重構,提高對小目標特征的關注程度;添加特征融合模塊,提升了特征的表征能力;結合基于MAE的數據增強方法改善對遮擋目標的分割效果。相較于兩階段的FCIS算法[22]、PANet算法[23]和Mask R-CNN算法在均值平均精度上分別提升了5.5、1.6、2.0個百分點;相較于單階段的Polar Mask[24]算法、YOLACT[25]算法和SOLO算法分別提升了3.3、3.6和2.1個百分點,印證了本文方法的有效性。

圖7通過部分實驗結果展示與SOLO算法的分割實驗效果對比,可以看出本文方法對部分遮擋和小目標的分割效果有所改善,在分割精度和分割質量上有所提升。圖中7(a)組黃框標識處汽車存在部分遮擋,本文的數據增強方法有效的改善了由遮擋引起的漏分割情況;(b)組和(d)組中由于公共汽車樣本數量較少,出現了明顯的分割錯誤和分割不全的情況;在(c)組中黃框標識處SOLO算法對小目標行人存在漏分割情況,將騎手誤分割為行人,特征增強處理使得改進算法能夠有效識別較遠距離的小目標。綜上可以看出本文方法在分割質量和分割數量上明顯優于SOLO算法。

在城市街景數據集上對比了交通場景中較為常見的汽車(car)、公共汽車(bus)、行人(pedestrian)、騎手(rider)和卡車(truck)共5個類別的平均精度值,閾值設定為0.5,對比結果如表5所示。

從表中可以看出本文方法在4個類別的分割精度上有所提升,對小目標行人類別的提升較為明顯。

3.3" 消融實驗

在城市街景數據集上進行消融實驗以驗證本文各改進模塊的有效性,采用主干網絡為ResNet50的SOLO算法作為基線網絡,依次添加通道特征重構、特征融合模塊和基于MAE的數據增強方法,模型訓練參數與3.1小節一致。選用召回率(Recall)和準確率(Precision)作為消融實驗的性能評價指標,AP閾值設定為0.5,最大訓練輪次分別為12和36,實驗對比結果如表6所示。從實驗結果可以看出,本文的不同改進方法與基線模型契合度良好,對城市街景實例的分割效果均有所改善。改進后的模型在確保召回率的同時有效提升了智能交通應用場景下實例分割的準確率。

4" 結" 論

本文提出了一種基于特征與數據增強的實例分割方法即DF-SOLO算法,針對城市街景圖片中存在的小目標分割問題,使用特征增強網絡對特征進行處理,提高對特征的表征能力,實現更細粒度的多尺度特征探索。針對遮擋問題,提出基于MAE的數據增強方法進行數據預處理,提升模型性能的同時最大限度地避免因添加噪聲和歧義所帶來的負面影響。在Cityscapes數據集上對本文提出的DF-SOLO算法和幾種常見的實例分割算法進行比較,mAP值明顯優于其他方法,表明本文所提方法能夠有效解決城市街景環境中小目標和遮擋目標的實例分割問題,在智能交通場景中具有重要的啟發性。針對圖像中正負樣本不均衡的問題,可以在損失函數上進行優化,值得進一步的研究。

參 考 文 獻:

[1]" 張帆, 劉瑜. 街景影像——基于人工智能的方法與應用[J]. 遙感學報, 2021,25(5): 1043.

ZHANG Fan, LIU Yu. Street View Imagery: Methods and Applications Based on Artificial Intelligence[J]. National Remote Sensing Bulletin, 2021,25(5): 1043.

[2]" REDMON J, DIVVALA S, GIRSHICK R, et al." You Only Look Once: Unified, Real-Time Object Detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016:779.

[3]" GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]//Proceedings ofthe IEEE Conference on Computer Vision and Pattern Recognition,2014: 580.

[4]" ZHOU X, WANG D, KRAHENBUHL P. Objects" as Points[J]. arXiv preprint arXiv:1904.07850, 2019.

[5]" TIAN Z, SHEN C, CHEN H, et al. FCOS: Fully Convolutional One-Stage Object Detection[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019: 9627.

[6]" 李成嚴, 趙帥, 車子軒. 基于特征增強與Anchor-object匹配的目標檢測算法[J]. 哈爾濱理工大學學報, 2022,27(3): 73.

LI Chengyan, ZHAO Shuai, CHE Zixuan. Object Detection Algorithm Based on Feature Enhancementand Anchor-object Matching[J]. Journal of Harbin University of Science and Technology, 2022,27(3):73.

[7]" 蘇麗, 孫雨鑫, 苑守正. 基于深度學習的實例分割研究綜述[J]. 智能系統學報, 2022,17(1): 16.

SU Li, SUN Yuxin, YUAN Shouzheng. A Survey of Instance Segmentation Research Based on Deep Learning[J]. CAAI Transactions on Intelligent Systems, 2022,17(1): 16.

[8]" WANG X, KONG T, SHEN C, et al. SOLO: Segmenting Objects by Locations[C]//European Conference on Computer Vision, 2020: 649.

[9]" 張聲傳, 喻松林, 紀榮嶸. 基于注意力機制的實例分割算法[J]. 導航定位與授時, 2021,8(6): 28.

ZHANG Shengchuan, YU Songlin, JI Rongrong." Research on Instance Segmentation via Attention" Mechanism[J]. Navigation Positioning and Timing, 2021,8(6): 28.

[10]LIN T. DOLLAR P, GIRSHICK R, et al. Feature Pyramid Networks for Object Detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Washington: lEEE Computer Society, 2017: 2117.

[11]HE K, GKIOXARI G, DOLLAR P, et al. Mask RCNN[C]//Proceedings of the IEEE International Conference on Computer Vision, 2017: 2961.

[12]LI D, YAO A, CHEN Q. PSConv: Squeezing Feature Pyramid into One Compact Poly-Scale Convolutional Layer[C]//Computer Vision ECCV 2020. Glasgow,2020: 615.

[13]WANG Q, WU B, ZHU P, et al. ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks[C]//Proceedings of the Conference on Computer Vision and Pattern Recognition, 2020: 11534.

[14]HE K, CHEN X, XIE S, et al. Masked Autoencodersare Scalable Vision Learners[EB/OL]. (2021-12-19) https://arxiv.org/abs/2111.06377.

[15]LONG J, SHELHAMER E, DARRELL T. Fully" Convolutional Networks for Semantic Segmentation[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition, 2015: 3431.

[16]劉穎, 劉紅燕, 范九倫, 等. 基于深度學習的小目標檢測研究與應用綜述[J]. 電子學報, 2020, 48(3):590.

LIU Ying, LIU Hongmei, FAN Jiulun, et al. A Survey of Research and Application of Small Object Detection Based on Deep Learning[J]. Acta Electr-onica Sinica, 2020, 48(3):590.

[17]李成嚴, 馬金濤, 趙帥. 基于空間域注意力機制的車間人員檢測方法[J]. 哈爾濱理工大學學報, 2022, 27(2): 92.

LI Chengyan, MA Jintao, ZHAO Shuai. Workshop Staff Detection Method Based on Spatial Domain Attention Mechanism[J]. Journal of Harbin University of Science and Technology,2022, 27(2): 92.

[18]ZHONG Z, ZHENG L, KANG G, et al. Random Erasing Data Augmentation[C]//Proceedings of the AAAl Conference on Artificial Intelligence, 2020: 13001.

[19]VASWANI A, SHAZEER N, PARMAR N, et al. Attention is All You Need[C]//Advances in Neural Information Proceeding Systems, 2017: 5998.

[20]ZHANG H, CISSE M, DAUPHIN Y, et al. Mixup:Beyond Empirical Risk Minimization[J]. arXiv preprintarXiv:1710.09412,2017.

[21]DEVRIES T, TAYLOR G W. Improved Regularization of Convolutional Neural Networks with Cutout[J]. arXiv:1708.04552,2017.

[22]LI Y, QI H, DAI J, et al. Fully Convolutional Instance-aware Semantic Segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and" Pattern Recognition, 2017: 2359.

[23]LIU S, QI L, QIN H, et al. Path Aggregation Network for Instance Segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 8759.

[24]XIE E, SUN P, SONG X, et al. Polarmask: Single Shot Instance Segmentation with Polar Representation[C]//Proceedings of the IEEE/CVF Conference onComputer Vision and Pattern Recognition. 2020: 12193.

[25]BOLYA D, ZHOU C, XIAO F, et al. YOLACT:" Real-time Instance Segmentation[C]//Proceedings of the International Conference on Computer Vision, 2019: 9157.

(編輯:溫澤宇)

猜你喜歡
特征提取
特征提取和最小二乘支持向量機的水下目標識別
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于DNN的低資源語音識別特征提取技術
自動化學報(2017年7期)2017-04-18 13:41:09
Bagging RCSP腦電特征提取算法
一種基于LBP 特征提取和稀疏表示的肝病識別算法
基于DSP的直線特征提取算法
基于改進WLD的紋理特征提取方法
計算機工程(2015年4期)2015-07-05 08:28:02
淺析零件圖像的特征提取和識別方法
機電信息(2015年3期)2015-02-27 15:54:46
基于CATIA的橡皮囊成形零件的特征提取
主站蜘蛛池模板: 在线视频精品一区| 99在线观看国产| 97人妻精品专区久久久久| 国产jizz| 国产精品偷伦在线观看| 精品国产一二三区| 亚洲区欧美区| 国产女人喷水视频| 日韩高清一区 | 国产你懂得| 久久网欧美| 欧美曰批视频免费播放免费| 久久精品欧美一区二区| 永久免费无码日韩视频| 2020最新国产精品视频| 97国产在线视频| 国产精品分类视频分类一区| 国产精品福利尤物youwu | 亚卅精品无码久久毛片乌克兰| 中文字幕在线一区二区在线| 99视频精品在线观看| 国产69精品久久| 91成人试看福利体验区| 中国特黄美女一级视频| 亚洲欧美不卡| 国产福利在线免费| 在线免费亚洲无码视频| 国产一级无码不卡视频| 99久久精品国产综合婷婷| 老司机精品99在线播放| 丰满少妇αⅴ无码区| 91福利免费| 婷婷综合色| 日韩国产黄色网站| 中文字幕不卡免费高清视频| 一本色道久久88| 亚洲一区黄色| 欧美成人手机在线视频| 久久黄色免费电影| 国产又色又爽又黄| 人妖无码第一页| 亚洲精品卡2卡3卡4卡5卡区| 国产成人h在线观看网站站| 伊人久久大香线蕉综合影视| 中文无码精品A∨在线观看不卡 | 精品一区二区三区波多野结衣| 国产99免费视频| 国产资源免费观看| 亚洲精品无码久久久久苍井空| 亚洲人成网址| 亚洲精品午夜天堂网页| 久久精品女人天堂aaa| 麻豆精品在线视频| 亚洲免费成人网| 国产精品亚洲а∨天堂免下载| 国产无码高清视频不卡| 国产成年无码AⅤ片在线| 国产精品成人一区二区| 日韩一级毛一欧美一国产| 国产成人一区在线播放| 国产精品丝袜视频| 日韩无码视频专区| 亚洲色图欧美| 中文字幕在线欧美| 91丝袜在线观看| 免费a在线观看播放| 日韩精品少妇无码受不了| 88av在线| 一区二区无码在线视频| 国产一区二区精品福利| 国产91小视频在线观看| 五月婷婷伊人网| 成年人国产网站| 91精品专区| 中文字幕丝袜一区二区| 国产午夜看片| 国产精品免费久久久久影院无码| 91精选国产大片| 日韩天堂在线观看| 亚洲成人动漫在线| 国产永久在线观看| 污污网站在线观看|