999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5的輕量級船舶目標檢測算法

2023-03-24 13:25:40李佳東張丹普范亞瓊楊劍鋒
計算機應用 2023年3期
關(guān)鍵詞:船舶特征檢測

李佳東,張丹普,范亞瓊,楊劍鋒

(1.中國航天科工集團第二研究院,北京 100039;2.北京航天長峰股份有限公司 北京航天長峰科技工業(yè)集團有限公司,北京 100039)

0 引言

近年來智能光電監(jiān)控在海洋監(jiān)控中發(fā)揮著越來越重要的作用,利用圖像視覺和神經(jīng)網(wǎng)絡(luò)算法實現(xiàn)海上船舶目標檢測已成為重要的應用方向和研究熱點。船舶檢測是一種典型的目標檢測問題。基于深度學習的目標檢測算法主要分為兩類:一類是以R-CNN(Regions with Convolutional Neural Network)為代表的二階段算法,但速度較慢,無法滿足船舶檢測的實時性要求;另一類是以SSD(Single Shot MultiBox Detector)和YOLO(You Only Look Once)為代表的一階段算法,雖然可以滿足實時性要求,但檢測精度較低。目前,這兩類算法均已應用于船舶檢測。例如,齊亮等[1]基于Faster R-CNN,通過圖像降尺度、場景窄化等方法減少船舶檢測的時間;但是由于Faster R-CNN 等兩階段算法在檢測速度上的缺陷,依舊無法達到實時要求。同兩階段算法相比,一階段算法雖然檢測精度略低,但是在速度上有極大提升,做到了速度與精度的較好折中,在工業(yè)界各種生產(chǎn)環(huán)境中應用廣泛。Sun等[2]在SSD 的基礎(chǔ)上,通過空洞卷積與多尺度特征融合等方法提升了檢測效果。

和SSD 相比,YOLO 是一種不斷利用視覺領(lǐng)域最新研究成果進行持續(xù)迭代優(yōu)化的目標檢測算法。段敬雅等[3]針對YOLOv2 檢出率和識別率較低的問題,引入支持向量機對檢出的目標進行分類,大幅提高了檢出率和識別率。盛明偉等[4]基于YOLOv3,引入Mixup 數(shù)據(jù)增強、注意力機制、完全交并比損失(Complete Intersection over Union Loss,CIoU Loss)、融合了殘差連接的特征金字塔、顯著性檢測等策略,以提高檢測的精確率和召回率。Chen等[5]在YOLOv3 的基礎(chǔ)上引入注意力機制,以提升模型在復雜背景下的特征提取能力;同時構(gòu)建特征增強模塊,并將它應用于特征融合部分,在增強相應特征層的感受野大小和特征提取網(wǎng)絡(luò)的關(guān)聯(lián)度的同時,增強了底層特征語義信息。Li等[6]在YOLOv3 的基礎(chǔ)上,引入注意力機制,并使用卷積操作替換池化操作,提高了小目標的檢測能力。孔劉玲等[7]在YOLOv4 的基礎(chǔ)上,改進K均值聚類算法重新設(shè)計先驗錨框,并使用數(shù)據(jù)增強方法擴充不平衡數(shù)據(jù)集的小樣本數(shù)量,以提高各類船舶目標檢測的準確性,最后引入軟非極大值抑制(Softer Non-Maximum Suppression,Softer-NMS)后處理,提升了目標檢測器對密集船舶的檢測能力和定位精度。Han等[8]在YOLOv4 的基礎(chǔ)上,首先對空間金字塔池化(Spatial Pyramid Pooling,SPP)模塊[9]引入空洞卷積以提升模型對小型船舶空間信息的獲取能力,然后使用注意力機制和殘差思想改進特征金字塔進行,提升特征提取能力,最后在檢測時通過融合卷積核提升推理速度。Zhou等[10]在YOLOv5[11]的基礎(chǔ)上,在骨干網(wǎng)絡(luò)中使用混合深度卷積替代普通卷積運算并引入?yún)f(xié)同注意力模型,同時利用焦點損失(Focal Loss)[12]和CIoU Loss 提升算法的檢測能力。

雖然上述算法在將通用目標檢測任務(wù)移植到船舶目標檢測的過程中針對船舶自身的特點已經(jīng)作了一定優(yōu)化,但是檢測能力仍舊存在不足。部分原因在于船舶目標普遍偏大,然而很多研究的目的在于提升對小目標的檢測能力。但是海岸上樓房、工廠、樹木等背景信息對海岸附近的大型船舶干擾嚴重,此時需要保留更加豐富的語義信息及更大的感受野才能更好地定位大型目標。同時上述算法也未考慮目標尺度分布不均衡的數(shù)據(jù)集,直接使用K均值聚類算法容易導致錨框分配不均衡。當前研究的檢測模型以大型模型為主,模型參數(shù)較多、對設(shè)備要求高,亟需一種對硬件性能要求低的輕量級模型,能夠更方便地部署在低配置計算設(shè)備上以高效完成船舶檢測任務(wù)。

針對當前船舶目標檢測存在的上述問題,本文構(gòu)建了一種基于改進YOLOv5 的輕量級船舶目標檢測算法——YOLOShip。對于當前船舶檢測模型通常較大、對設(shè)備要求較高的問題,YOLOShip 對YOLOv5 的最輕量級模型YOLOv5s進行改進。針對模型檢測能力不足的問題,YOLOShip 通過引入空洞卷積、輕量級的混合深度卷積、注意力機制等方法,保留更多細節(jié)信息、擴大感受野、強化更加重要的信息,進而達到提升模型召回率及定位精度的目的。針對數(shù)據(jù)集中目標尺度分布不均衡及尺度變化小的特點,對數(shù)據(jù)集進行均勻化處理,并對K均值聚類算法得到的錨框重新排序、刪減檢測頭,精簡了網(wǎng)絡(luò),并提升了檢測精度。最后使用更加靈活的多項式損失優(yōu)化二元交叉熵損失,以提升模型收斂速度與模型精度。考慮到船舶數(shù)據(jù)集較小,且現(xiàn)實環(huán)境中海岸周圍環(huán)境復雜,陸地建筑物等背景信息容易對船舶檢測造成干擾,采用遷移學習提升模型對船舶檢測的魯棒性。和YOLOv5s 相比,YOLOShip 可以在滿足檢測速度要求的同時,提升船舶檢測的精度,為后續(xù)船舶跟蹤、重識別等復雜任務(wù)提供了更好的基礎(chǔ),有助于智慧邊海防建設(shè)的進一步發(fā)展。

1 YOLOv5算法

YOLOv5 是YOLO 算法的第五個版本,按照網(wǎng)絡(luò)寬度和深度的區(qū)別,YOLOv5 又細分 為YOLOv5s、YOLOv5m 和YOLOv5l 等多個版本。YOLOv5s 是網(wǎng)絡(luò)寬度和深度最小的版本,其他版本則是在YOLOv5s 的基礎(chǔ)上,按照一定比例對網(wǎng)絡(luò)寬度和深度加寬加深的結(jié)果。YOLOv5s 在滿足準確率要求的同時,體積較小、算力要求低,因此可以部署在低配置硬件設(shè)備上。

YOLOv5 將輸入的數(shù)據(jù)增強后的圖像分隔為S×S個單元格,且每個單元格生成B個預測框,由被檢測目標中心所在的單元格及鄰近兩個單元格通過位置回歸確定預測框位置,同時計算該預測框有無目標的概率以及該目標屬于某一類的概率。針對不同大小的目標,YOLOv5 使用3 個檢測頭分別在3 個不同尺度特征圖上對圖像中的大、中、小目標進行預測,提升了對小目標的檢測能力。對于模型的輸出,YOLOv5 使用非極大值抑制(Non-Maximum Suppression,NMS)過濾3 個頭的檢測結(jié)果,得到最優(yōu)的目標檢測框。

YOLOv5 主要由CBS(Conv+BN+SiLU)模塊、C3(CSP Bottleneck with 3 convolutions)模塊、空間金字塔快速池化(Spatial Pyramid Pooling-Fast,SPPF)模塊構(gòu)成。首先將數(shù)據(jù)增強后的圖像輸入網(wǎng)絡(luò),使用CBS 和C3 模塊進行下采樣和特征提取,得到8、16、32 倍下采樣后的不同尺度的特征圖,并使用SPPF 模塊融合更多不同分辨率的特征,以獲取多尺度目標信息;其次使用CBS、C3 模塊及上采樣構(gòu)造特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network,F(xiàn)PN)[13]結(jié)構(gòu),將高層語義信息通過上采樣和低層位置信息進行融合,以增強多個尺度上的語義表達;然后使用CBS 及C3 模塊構(gòu)造路徑聚合網(wǎng)絡(luò)(Path Aggregation Network,PAN)[14],通過一個自底向上的FPN 將低層的位置信息傳到高層,增強多個尺度上的定位能力;最后,將通過PAN 融合后的3 個尺度的特征圖分別在3個相同的檢測頭進行位置回歸、有無目標的判斷及分類。

YOLOv5 的損失函數(shù)由3 部分組成:位置損失、置信度損失和分類損失。位置損失通過使用CIoU Loss,從預測框與標注框的重疊面積、中心點距離,長寬比等與位置有關(guān)的各方面因素進行綜合運算,收斂更快、效果更好。因為用于判斷一個位置是否有目標的置信度損失是一個二分類問題,YOLOv5 使用二元交叉熵損失(Binary Cross Entropy Loss,BCE Loss)完成置信度損失的計算。YOLOv5 將多分類問題視為一個多標簽二分類問題,對一個目標在多個標簽上同時預測屬于該類別的概率,并選擇概率最大的標簽作為該目標的類別。由于對于每一個標簽的訓練均屬于二分類問題,所以分類損失依舊使用BCE Loss。

2 YOLOShip算法

YOLOv5 在通用目標檢測方面已取得一定的研究成果,但在海上船舶檢測場景下,它的檢測精度還存在不足。YOLOShip 在YOLOv5 最輕量級模型YOLOv5s 的基礎(chǔ)上,首先將空洞卷積和通道注意力(Channel Attention,CA)引入骨干網(wǎng)絡(luò)中的SPPF 模塊,構(gòu)造使用空洞卷積和通道注意力的SPP(SPP with Dilated convolution and Channel attention,SPPDC)模塊,以提升對多尺度目標細節(jié)信息的提取能力;其次將協(xié)同注意力和混合深度卷積引入FPN+PAN 結(jié)構(gòu)中構(gòu)建Improved FPN+PAN 結(jié)構(gòu),進一步提升對大尺度目標的檢測能力;再次針對數(shù)據(jù)集中目標尺度分布不均勻及尺度變化小的特點,通過數(shù)據(jù)均衡化、減少錨框及檢測頭數(shù)量等方式,精簡網(wǎng)絡(luò),并在一定程度上提升模型檢測性能。最后使用更加靈活的多項式損失(Polynomial Loss,PolyLoss)[15]加速模型收斂并提升模型精度。YOLOShip 的網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示。

圖1 YOLOShip網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure of YOLOShip

2.1 SPPDC模塊

在邊海防管控中,船舶檢測可用于輔助涉海部門掌握船舶整體態(tài)勢,以及應對沿海走私、入侵等威脅核查。在該場景下,模型應盡可能檢測出所有的船舶,召回率指標非常重要。YOLOv5s 難以滿足該場景下對召回率的要求,部分原因在于SPPF 模塊中重復使用池化層丟失了較多的目標細節(jié)信息,導致個別目標被認為是背景,無法檢測出。受SPP 及空洞空間卷積池化金字塔池化(Atrous SPP,ASPP)[16]的啟發(fā),YOLOShip 將空洞卷積及通道注意力引入SPPF 模塊,提出了SPPDC 模塊,有效地提升了模型對多尺度細節(jié)信息的提取能力,提升了召回率。

SPPDC 模塊如圖2 所示。首先使用卷積核大小為1×1 的CBS 模塊壓縮通道數(shù),得到特征f1。其次考慮到池化操作容易丟失細節(jié)信息,直接使用相同大小的卷積操作代替池化操作則會導致模型急劇增大,因此可以在參數(shù)量不變的情況下調(diào)整空洞率,從而更改空洞卷積的卷積核大小并替代池化操作。將特征f1輸入卷積核大小為3×3、空洞率(Dilation)分別為2、4、6 的CBS 模塊(Dilated CBS),通過空洞卷積得到特征f2、f3、f4。特征f2、f3、f4均為通過不同空洞率的卷積核對特征f1進行重采樣的結(jié)果,它們在不同的通道上具有相似性,因此對特征f1使用通道注意力,得到代表各個通道重要性的權(quán)重。然后使用由通道注意力得到的權(quán)重對特征f1、f2、f3、f4的各通道進行約束并拼接,從而得到特征f5。由于拼接后通道數(shù)較大,最后再次對特征f5使用卷積核大小為1×1 的CBS 模塊壓縮通道數(shù),輸出特征f6。SPPDC 結(jié)構(gòu)中的通道注意力源 于CBAM(Convolutional Block Attention Module)[17]。首先分別使用平均池化和最大池化聚合特征圖的空間信息,然后將代表通道的空間信息輸入共享的多層感知機分別進行訓練,最后將訓練的結(jié)果相加并用Sigmoid 函數(shù)作約束,得到各通道的權(quán)重。SPPDC 模塊通過空洞卷積獲取更加豐富的多尺度語義信息,并且強化重要通道在模型中的重要性,進一步增強語義信息,有助于增強模型區(qū)分背景與前景的能力,提升召回率。

圖2 SPPDC網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Network structure of SPPDC

2.2 Improved FPN+PAN 結(jié)構(gòu)

YOLOv5 使用路徑聚合的方法,構(gòu)建FPN+PAN 的頸部網(wǎng)絡(luò)結(jié)構(gòu),以融合低層的定位信息與高層的語義信息,并對融合后的信息使用C3 模塊進行特征提取。但是在構(gòu)造FPN 結(jié)構(gòu)進行自頂向下的上采樣時,由于路徑聚合使用了很多骨干網(wǎng)絡(luò)里早期提取的特征,此后在感受野未充分擴大的情況下,又將特征通過路徑聚合傳入了PAN 結(jié)構(gòu)并用于預測目標。由于網(wǎng)絡(luò)前期的低層定位信息網(wǎng)絡(luò)深度較低,因此對船舶數(shù)據(jù)集中一些大型船舶存在感受野不足的問題,從而導致模型定位能力差,區(qū)分背景與前景的能力不足。YOLOShip在YOLOv5 的基礎(chǔ)上,引入輕量化的混合深度卷積與協(xié)同注意力,進一步改進FPN+PAN 結(jié)構(gòu),提出了Improved FPN+PAN 結(jié)構(gòu),通過進一步擴大感受野使模型可以更準確地定位和識別船舶目標。

對于C3 模塊提取網(wǎng)絡(luò)早期特征時存在的感受野不足問題,可以通過使用更大的卷積核或者搭建更深的網(wǎng)絡(luò)解決。YOLOShip 參考MixConv(Mixed depthwise Convolution)[18]的思想,同時考慮到大卷積核容易導致模型急劇增大,因此采用多層小卷積核代替MixConv 中的大卷積核,提出了MixConv Lite 運算。如圖3(a)、(b)所示,相較于MixConv,MixConv Lite 使用兩個3×3 的卷積核代替5×5 的卷積核,三個3×3 的卷積核代替7×7 的卷積核,在提升感受野的同時,避免了模型的急劇增大;然后使用MixConv Lite 運算替換CBS 模塊中的卷積運算構(gòu)造MLCBS 模塊;最后將MLCBS 模塊引入C3 模塊,構(gòu)造了C3Mix Lite 模塊。C3Mix Lite 模塊如圖3(c)所示,首先將特征f1分別輸入兩個卷積核大小為1×1 的CBS 模塊壓縮通道數(shù)得到特征f2與f3,防止拼接后的通道數(shù)過高導致模型變大;然后對特征f2使用卷積核大小為1×1 的CBS 模塊學習特征中的跨通道相關(guān)和空間相關(guān)并進行解耦[19],實現(xiàn)各通道之間的線性組合,增強非線性特性;之后使用MLCBS模塊進行不同感受野下的特征提取,并重復n次得到特征f4;最后將特征f3與f4拼接后使用卷積核大小為1×1 的CBS 模塊更改通道數(shù),得到該模塊的輸出特征f5。通過C3Mix Lite 模塊,在增強模型感受野的同時獲取了不同感受野下目標細節(jié)定位信息,進而提升模型定位能力及區(qū)分背景與前景的能力。

圖3 MixConv運算、MixConv Lite運算和C3Mix Lite模塊Fig.3 MixConv operation,MixConv Lite operation and C3Mix Lite module

為了使模型可以更精確地定位和識別船舶目標,YOLOShip 采用協(xié)同注意力機制[20]。首先在水平和豎直方向上進行全局池化操作,擁有全局感受野并且對精確的位置信息進行編碼;然后拼接兩個方向上的特征,生成協(xié)同注意力,該操作主要由卷積、批量歸一化及激活函數(shù)組成;之后分離兩個方向上的特征,并再次使用卷積進行訓練;最后使用Sigmoid 函數(shù)約束權(quán)重,并將兩個方向的權(quán)重相加,作為最終的權(quán)重,對原來的特征圖進行修改。通過協(xié)同注意力機制,將通道注意力分解為水平和豎直兩個方向上的一維特征編碼過程,將方向感知信息和空間位置信息嵌入到生成的特征圖中,不僅捕獲通道信息,還捕獲方向感知信息和位置敏感信息,使模型更準確地定位和識別感興趣的對象。

2.3 基準錨框優(yōu)化

基于錨框的目標檢測通常使用K均值聚類算法對數(shù)據(jù)集進行重新聚類,以獲取更適合當前數(shù)據(jù)集的錨框,但在特定場景下存在錨框分配不均衡的問題[21]。船舶數(shù)據(jù)集屬于特定場景下的數(shù)據(jù)集,具有尺度分布不均勻、尺度變化小的特點。由于尺度分布不均勻,直接使用K均值聚類算法得到的錨框會在集中在尺度分布密度大的部分,而尺度分布密度小的部分則幾乎沒有錨框,從而存在對尺度分布密度小的部分訓練相對不足的問題。由于尺度變化小,聚類得到的多個錨框大小接近,并且在訓練階段,分配目標到相應特征圖進行訓練的策略只與該層特征圖所擁有的錨框大小有關(guān),容易導致大目標也會在適合訓練小目標的特征圖上進行訓練。

針對尺度分布不均勻?qū)е碌腻^框分布不均勻問題,YOLOShip 在對數(shù)據(jù)集進行重新聚類之前進行了均勻化處理,從而保證各尺度附近均有適合的錨框。均勻化處理步驟如下:首先對由目標寬、高組成的坐標軸劃分為不同的小網(wǎng)格,然后將小網(wǎng)格內(nèi)部的坐標點統(tǒng)一由小網(wǎng)格左下角坐標表示,且只保留一個,得到一個各尺度目標分布均勻的數(shù)據(jù)集。在均勻化處理后的數(shù)據(jù)集上進行K均值聚類可以保證各個尺度的目標附近均有適合大小的錨框,從而保證所有尺度的目標都可以得到充分的訓練。

針對大目標會在適合訓練小目標的特征圖上進行訓練的問題,YOLOShip 通過減少錨框、檢測頭數(shù)量以及對錨框重新排序解決該問題。由于船舶多為中大型目標,小目標較少,且通過FPN+PAN 得到的特征在一定程度上也可以防止小目標信息被大目標覆蓋,因此可以只保留適合檢測中大型目標的兩個檢測頭,由它們負責小目標的檢測。由于分配目標到相應特征圖進行訓練的策略只與屬于該特征圖的錨框有關(guān),所以一個適當?shù)腻^框順序非常重要。YOLOShip 在對數(shù)據(jù)均勻化處理后,通過聚類算法得到4 個錨框,并按照式(1)對錨框排序,然后順序分配到兩個檢測頭。和通用目標檢測不同,船舶通常寬度遠大于高度,寬度受感受野的影響較大。所以對錨框排序時,錨框?qū)挾认噍^于錨框面積更加重要,YOLOShip 使用參數(shù)0.3 抑制錨框面積對排序結(jié)果的影響。

其中:wi、hi為第i個錨框的寬度和高度;N為錨框數(shù)量。

通過對數(shù)據(jù)進行均衡化處理、刪減錨框數(shù)量、對錨框重新排序以及刪減檢測頭等方面的改進和優(yōu)化,使每個目標均能獲取適當數(shù)量的錨框,并分配到合適的特征圖上進行訓練,在精簡網(wǎng)絡(luò)的同時提升了目標檢測的準確性。

2.4 損失函數(shù)

YOLOv5 的損失函數(shù)在置信度損失和分類損失部分使用BCE Loss 進行計算。但是由于一階段目標檢測器的正負樣本不平衡尤為突出,負樣本數(shù)量遠高于正樣本,從而使負樣本主導損失,最終導致模型訓練效果差。并且BCE Loss 傾向于從大量相似的簡單樣本學習,導致分布較稀疏的難分類樣本訓練效果較差。而且目標檢測模型的訓練時間通常較長,收斂更快的損失函數(shù)有助于提升訓練速度,更快地訓練出較優(yōu)模型。

YOLOShip 使用基于Focal Loss 的PolyLoss 計算置信度損失和分類損失。PolyLoss 是一個針對Focal Loss 和BCE Loss的統(tǒng)一的多項式框架,其中基于Focal Loss 的PolyLoss 如式(2)所示。對于負樣本數(shù)量高導致的負樣本主導損失的問題,使用α平衡正負樣本權(quán)重;對于BCE Loss 對難分類樣本訓練效果差的問題,使用γ增大難分類樣本的損失,使損失函數(shù)更關(guān)注難分類樣本;為了提升模型收斂速度,添加αtε(1 -Pt)1+γ,進一步增大損失,以大幅加快收斂。

其中:對于正樣本,αt的值為α,Pt的值為P(x)(P(x)為模型的預測結(jié)果);對于負樣本,αt的值為1 -α,Pt的值為1 -P(x)。通過PolyLoss,可以加速模型收斂,同時由于加強了對困難樣本的學習,可以檢測到更多的困難樣本并提升召回率。

3 實驗與結(jié)果分析

3.1 實驗環(huán)境

本文實驗環(huán)境為:Windows 10,Intel Core i9-9900 CPU @3.10 GHz,16 GB 內(nèi)存,NVIDIA GeForce RTX 2060,6 GB 顯存,編譯語言為Python 3.8,深度學習框架為PyTorch 1.10.2,IDE(Integrated Drive Electronics)為Visual Studio Code 1.69.2,基準模型為YOLOv5 的輕量化版本YOLOv5s。

3.2 數(shù)據(jù)集

本文選擇的數(shù)據(jù)集是Shao等[22]提出的SeaShips 數(shù)據(jù)集中開源的7 000 張圖片。該數(shù)據(jù)集源于海上船舶的可見光監(jiān)測圖像,由礦船、普通貨船、散貨船、集裝箱船、漁船、客船6類船舶組成。由于開源的7 000 張圖片中6 類船舶目標數(shù)量差距較大且序號相近的圖片多為同一船舶相鄰時刻的圖片,隨機打亂并劃分數(shù)據(jù)集容易導致過擬合,且導致數(shù)量較少的客船和集裝箱船在訓練集中數(shù)量更少、訓練效果差。本文首先將數(shù)據(jù)集按照目標類別分為6 個子集,然后對6 個子集排序后按8∶1∶1 進行順序劃分,分別放入訓練集、驗證集、測試集。同時考慮到存在一張圖片內(nèi)包含多個目標的情況,上述劃分容易使一張圖片同時存在于兩個數(shù)據(jù)集,因此需要進一步對訓練集、驗證集、測試集去重。處理后的訓練集、驗證集、測試集分別有5 487、751、762 張圖片。

3.3 評價指標

本文以精確率(Precision)、召回率(Recall)、平均精度均值(mean Average Precision,mAP)為評價指標,并以式(6)選擇最優(yōu)模型。

其中:TP(True Positive)表示滿足預測框與標注框的交并比(Intersection over Union,IoU)大于0.5 的檢測框數(shù)量;FP(False Positive)表示滿足IoU ≤0.5 的檢測框數(shù)量;FN(False Negative)表示未檢測到的標注框數(shù)量;AP代表通過插值計算的Precision-Recall 曲線面積;N代表共N個類。ImAP@0.5是IoU 閾值為0.5 時所有圖片的mAP;而ImAP@0.5:0.95是在不同IoU閾值下所有圖片的mAP(IoU 閾值從0.5 到0.95,步長為0.05)。

3.4 實驗結(jié)果與分析

本節(jié)主要通過對比實驗比較各種改進策略的優(yōu)劣及作用,結(jié)果如表1 所示。在訓練部分,考慮到SeaShips 數(shù)據(jù)集較小,使用在大型數(shù)據(jù)集上訓練好的模型進行遷移學習可以有效提升模型的泛化能力,故凍結(jié)骨干網(wǎng)絡(luò)的0~8 層進行訓練。訓練時,輸入圖片大小均為640×640,Batch Size 均為16,同時使用Adam 優(yōu)化器。默認訓練輪次為500 個Epoch,同時采用早停止策略,以式(6)驗證,連續(xù)50 次無改進時停止訓練,并以該指標選擇最優(yōu)模型。

BCE Loss 和PolyLoss 的對比結(jié)果如圖4 所示。可以看出,相較于使用BCE Loss 的YOLOv5s,由于PolyLoss 在原有損失的基礎(chǔ)上進一步增大了損失中起重要作用的部分,在訓練早期,相同訓練次數(shù)下,PolyLoss 的召回率更高,說明使用PolyLoss 可以提升收斂速度。

圖4 BCE Loss和PolyLoss的對比Fig.4 Comparison between BCE Loss and PolyLoss

從表1 可以看出,相較于實驗1,實驗2 加強了對難分類目標的訓練,召回率、mAP@0.5 和mAP@0.5∶0.95 均有一定程度提高。同時考慮到PolyLoss 收斂較快,可用于驗證各改進模塊的有效性,因此其他實驗均使用PolyLoss 進行訓練。

表1 最優(yōu)模型對比 單位:%Tab.1 Comparison of optimal models unit:%

和僅使用PolyLoss 的實驗2 相比,進一步使用SPPDC 模塊后,實驗3 的召回率提升了2.1 個百分點。主要原因在于SPPF 模塊重復使用池化層會丟失細節(jié)信息,容易將目標誤識別為背景。空洞卷積相較于池化運算可以保留更多的目標細節(jié)信息,同時通道注意力進一步強化了重要通道的影響,進而提升模型區(qū)分背景與目標的能力。實驗結(jié)果表明,SPPDC 模塊通過引入空洞卷積及通道注意力,在保留更多細節(jié)信息的同時強化語義信息,提升模型區(qū)分前景與背景的能力,從而提高了召回率。

相較于僅使用PolyLoss 的實驗2,進一步使用Improved FPN+PAN 結(jié)構(gòu)后,實驗4 的精確率、召回率、mAP@0.5 與mAP@0.5∶0.95 分別提升2.4、2.4、1.7 和3.7 個百分點。對于大型船舶,Improved FPN+PAN 引入C3Mix Lite,解決了感受野不足的問題,然后又通過協(xié)同注意力機制進一步增強網(wǎng)絡(luò)中的重要特征,全面提升了模型檢測能力。C3Mix Lite 模塊通過輕量化的混合深度卷積擴大感受野,可獲取含有更多細節(jié)信息的特征,如圖5 所示。協(xié)同注意力機制進一步優(yōu)化兩個方向上的特征,以強化網(wǎng)絡(luò)中更加重要的空間特征及通道特征。實驗結(jié)果表明,Improved FPN+PAN 結(jié)構(gòu)有助于檢測出更多的目標且對目標定位更加精確。

圖5 原始圖片及C3Mix Lite模塊輸出Fig.5 Original picture and C3Mix Lite module output

和實驗2 相比,進行基準錨框優(yōu)化并使用PolyLoss 后,實驗5 的召回率、mAP@0.5、mAP@0.5∶0.95 提升了2.0、1.4 和1.8 個百分點。原因在于YOLOv5的K均值聚類算法對于尺度分布不均勻的數(shù)據(jù)集聚類得到的K個錨框分布不均勻,從而導致尺度分布較稀疏部分的目標相較于尺度分布較稠密部分的目標訓練相對不充分。使用K均值聚類得到的錨框?qū)Ρ热鐖D6 所示,其中:×及實線框、+及虛線、▲及虛點線分布代表三個特征圖上的3 個錨框及錨框可以匹配的標注框。圖6(a)為數(shù)據(jù)均勻化前得到的9 個錨框,主要分布在尺度稠密區(qū)域,而在尺度稀疏區(qū)域則幾乎沒有錨框,且相較于尺度稠密區(qū)域,尺度稀疏區(qū)域匹配到的錨框少了2~4 個,訓練相對不充分。從圖6(b)可以看到,均勻化處理后得到的錨框在一定程度上緩解了尺度稀疏區(qū)域訓練相對不充分的缺點,大部分尺度稀疏區(qū)域相較于尺度稠密區(qū)域,匹配到的錨框少了1~2 個,同時得到的錨框和標注框更接近,有助于訓練。因此使用均勻化處理后的9 個錨框的實驗6 相較于實驗2 的各項指標均有一定提升。但是如實驗6 對應的圖6(b)所示,小特征圖對應的實線框范圍更大,更多的中大型船舶會在適合訓練小目標的小特征圖上訓練,產(chǎn)生大量差的預測結(jié)果,最終導致NMS 時間從實驗2 的8.9 ms 增長到24.8 ms。如圖6(c)所示,實驗5 針對實驗6 在小特征圖上訓練大目標的問題,只使用4 個錨框與2 個檢測頭,刪除了小特征圖,將NMS 時間降低到1.5 ms 的同時略微提升了檢測精度。

YOLOShip 和YOLOv5s 的對比結(jié)果如圖7 所示。YOLOShip 在各指標上全方位優(yōu)于YOLOv5,不僅收斂速度較快,且模型各指標普遍偏高。從表2 可以看出,相較于YOLOv5s,在驗證集上YOLOShip 的精確率、召回率、mAP@0.5、mAP@0.5∶0.95 分別提升了4.2、5.7、4.6 與8.5 個百分點,測試集上也有較大提高。主要原因是通過SPPDC 模塊保留了更多的多尺度的語義信息,然后在Improved FPN+PAN 中通過擴大感受野,定位信息更加準確,最后通過錨框與檢測頭數(shù)量的改進使特殊尺度的目標也能得到充分訓練,不僅可以檢測到更多的目標,而且對于檢測到的目標定位也更加精準。

表2 YOLOv5s和YOLOShip的對比結(jié)果 單位:%Tab.2 Comparison results between YOLOv5s and YOLOShip unit:%

圖7 YOLOv5s和YOLOShip的指標對比Fig.7 Comparison of indicators between YOLOv5s and YOLOShip

為了更加直觀地呈現(xiàn)上述算法檢測性能間的區(qū)別,選取部分檢測圖像進行展示,結(jié)果如圖8 所示,從圖像1、3、5 可以看到,更多的細節(jié)定位信息與更適合的錨框使YOLOShip 的定位能力更強,和標注框重合度更高;從圖像2、4、6 可以看到,在背景對船舶影響較大的海岸環(huán)境及夜間環(huán)境中,更大的感受野有助于模型更精確地區(qū)分背景及前景,相較于YOLOv5s,YOLOShip 能檢測出更多的船舶。實驗結(jié)果表明,對于海上船舶檢測,YOLOShip 有更好的檢測性能。

圖8 船舶檢測結(jié)果對比Fig.8 Comparison of ship detection results

如表3 所示,為了驗證YOLOShip 的檢測幀率是否滿足要求,在4.1 節(jié)的實驗環(huán)境下,使用1、8、16 的Batch Size 分別進行檢測,幀率可達52、156、161 frame/s,可以滿足檢測速度的要求。YOLOShip 的模型大小為17.4 MB,為了驗證模型在低配置的硬件環(huán)境上的運行效果,本文在I5-4200H+Geforce 940M 的筆記本上部署并進行測試,可以看出,YOLOShip 可以較好地完成船舶檢測。

表3 不同條件下YOLOShip的速率對比Tab.3 Speed comparison of YOLOShip under different conditions

4 結(jié)語

本文基于通用目標檢測模型YOLOv5,通過改進和優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)、錨框和損失函數(shù),提出了一種輕量級船舶目標檢測算法——YOLOShip。實驗結(jié)果表明,相較于YOLOv5,YOLOShip 在滿足檢測速度要求的情況下,通過保留更多細節(jié)語義信息、擴大感受野、均衡化錨框等策略提高了對船舶的定位能力以及區(qū)分背景及前景的能力,有效地提升了算法的準確性、魯棒性和泛化能力;通過使用更加靈活的損失函數(shù),進一步加強對各類樣本的學習能力,有效地提升了算法的收斂速度。

在實際應用中,面對惡劣天氣環(huán)境,可以通過自適應數(shù)據(jù)增強,進一步提升目標檢測準確率,為下一步開展船舶跟蹤、船舶重識別等復雜任務(wù)提供有效的目標檢測技術(shù)基礎(chǔ)。

猜你喜歡
船舶特征檢測
計算流體力學在船舶操縱運動仿真中的應用
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
《船舶》2022 年度征訂啟事
船舶(2021年4期)2021-09-07 17:32:22
船舶!請加速
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 国产在线精品人成导航| 国产91丝袜| 97视频免费在线观看| 国产白丝av| 男人天堂亚洲天堂| 亚洲天堂精品在线观看| 亚洲伊人久久精品影院| 丁香婷婷综合激情| 国产日本视频91| www.av男人.com| 国产成人超碰无码| 国产一区二区三区免费观看| 中字无码av在线电影| 91九色国产在线| 2022国产无码在线| 国产熟女一级毛片| 国产高颜值露脸在线观看| 黄色福利在线| 国产精品美女在线| 精品无码一区二区三区电影| 中文字幕欧美日韩| 全午夜免费一级毛片| 看国产毛片| 99re在线观看视频| yjizz视频最新网站在线| 国产亚洲精品91| 欧美一区二区自偷自拍视频| 乱色熟女综合一区二区| 中文成人在线视频| 国内精自线i品一区202| 亚洲最猛黑人xxxx黑人猛交| 成·人免费午夜无码视频在线观看| 97在线公开视频| 四虎成人精品在永久免费| 一区二区三区国产| 久久精品国产精品国产一区| 国产精品视频公开费视频| 亚洲欧美不卡中文字幕| 青青极品在线| 欧美视频在线观看第一页| 欧美国产综合视频| 国产天天射| 欧美午夜在线观看| 在线观看视频99| 亚洲自偷自拍另类小说| 国产成人精品视频一区二区电影 | 国产情侣一区| 亚洲日本中文综合在线| 欧美精品黑人粗大| 日韩 欧美 国产 精品 综合| 日本久久免费| 国产精品综合久久久| 制服丝袜一区二区三区在线| 中国成人在线视频| 久久综合伊人77777| 人妻丰满熟妇啪啪| 国产午夜精品鲁丝片| 精品视频在线观看你懂的一区| 国产理论精品| 97超级碰碰碰碰精品| 亚洲第七页| 国产网站一区二区三区| 亚洲Va中文字幕久久一区 | 黄色三级网站免费| 一本大道香蕉高清久久| 欧美亚洲欧美| 91午夜福利在线观看精品| 欧美午夜网站| 中文字幕佐山爱一区二区免费| 亚洲资源在线视频| 亚洲精品无码成人片在线观看| 免费人成黄页在线观看国产| 免费视频在线2021入口| 无码中字出轨中文人妻中文中| 亚洲第一黄色网址| 国产屁屁影院| 精品撒尿视频一区二区三区| 国产精品午夜福利麻豆| 中文天堂在线视频| 天天色综网| 欧美精品亚洲精品日韩专区va| 国产毛片高清一级国语|