999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于回歸深度卷積網絡的船舶圖像與視頻檢測

2019-12-30 01:36:40黃志堅張成王慰慈
上海海事大學學報 2019年4期
關鍵詞:船舶深度檢測

黃志堅 張成 王慰慈

摘要:

為解決船舶圖像與視頻檢測算法識別率低、實時性差的問題,提出基于回歸深度卷積網絡的船舶圖像與視頻檢測方法。結合YOLOv2特征提取層和YOLOv3的特征金字塔網絡(feature?pyramid?network,?FPN)?層思想設計新的網絡結構,驗證不同激活函數效果,采用聚類算法設計錨框大小。實驗表明,相比于YOLO系列網絡,本文的方法在船舶圖像與視頻檢測中效果更好,在測試集上平均精度均值為0.920?9,召回率為0.981?8,平均交并比為0.799?1,在視頻檢測中每秒鐘檢測的幀數為78~80。為港口船舶智能管理和無人船視覺處理提供一種準確度高和實時性好的船舶檢測方法。

關鍵詞:

船舶檢測;?回歸深度卷積網絡;?YOLO;?港口管理;?無人船

中圖分類號:U675.79文獻標志碼:A

收稿日期:?2018-11-07

修回日期:?2019-03-01

基金項目:?國家自然科學基金(61403250)

作者簡介:

黃志堅(1979—),男,江西九江人,高級工程師,博士,研究方向為控制算法,(E-mail)zjhuang@shmtu.edu.cn

Ship?image?and?video?detection?based?on?regression

deep?convolutional?network

HUANG?Zhijian1,?ZHANG?Cheng1,?WANG?Weici2

(1.Merchant?Marine?College,?Shanghai?Maritime?University,?Shanghai?201306,?China;

2.The?711st?Research?Institute,?China?Shipbuilding?Heavy?Industry?Group,?Shanghai?201108,?China)

Abstract:

In?order?to?solve?the?problems?of?low?recognition?rate?and?poor?real-time?performance?of?ship?image?and?video?detection?algorithm,?a?ship?image?and?video?detection?method?based?on?the?regression?deep?convolutional?network?is?proposed.?Combining?the?YOLOv2?feature?extraction?layer?and?the?YOLOv3?feature?pyramid?network?(FPN)?layer,?a?new?network?structure?is?designed,?the?effects?of?different?activation?functions?are?verified,?and?the?anchor?size?is?designed?by?the?clustering?algorithm.?Experiments?show?that,?compared?with?the?YOLO?series?network,?the?proposed?method?is?better?in?ship?image?and?video?detection.?The?mean?average?precision?on?the?test?set?is?0.920?9,?the?recall?rate?is?0.981?8,?the?mean?intersection?over?union?is?0.799?1,?and?the?number?of?frames?detected?per?second?is?78?to?80?in?the?video?detection.?It?provides?a?ship?detection?method?with?high?accuracy?and?good?real-time?performance?for?port?ship?intelligent?management?and?unmanned?ship?visual?processing.

Key?words:

ship?detection;?regression?deep?convolutional?network;?YOLO;?port?management;?unmanned?ship

0?引?言

隨著我國經濟飛速發展,以及對外貿易日益增長,航運事業的發展也開始向智能化邁進。借助于計算機視覺的船舶圖像與視頻檢測已開始在港口監管服務以及無人船中應用。準確快速的檢測方法,不僅對港口管理具有重要的意義,也能夠保障無人船的安全行駛。

傳統的船舶圖像與視頻檢測分類方法多是基于船舶結構形狀進行人工特征設計的方法:2014年蔣少峰等[1]提出基于結構特征的商用船舶分類算法;2016年YKSEL等[2]從三維船舶模型的輪廓圖像中提取了船舶特征。這些研究雖然取得了較好的效果,但是在環境背景復雜、船體差異小的情況下不能得到較好的效果,且對船舶的多分類情況識別率不理想。

相對于傳統的船舶圖像與視頻檢測分類方法,深度卷積神經網絡以其優越的性能在船舶檢測分類應用中的地位越來越重要:2016年RAINEY等[3]利用深度卷積神經網絡實現了對衛星船舶的分類;2017年戚超等[4]用8層卷積神經網絡與支持向量機結合實現了對船舶的精細分類;2018年王新立等[5]通過改進卷積神經網絡實現了船舶的目標檢測。這些利用深度卷積神經網絡的船舶檢測分類方法都取得了不錯的效果。

隨著工程應用中對船舶檢測分類的準確率和實時性的要求不斷提高,本文提出基于回歸深度卷積網絡的船舶圖像與視頻檢測方法,結合YOLO[6-8]系列網絡,通過端到端的訓練,最終在7類船舶圖片上實現了定位精度高、平均準確率高、檢測速度快的效果。

1?深度卷積神經網絡

卷積神經網絡最早是由加拿大多倫多大學的LeCun教授提出的,主要用于圖像的識別。經過十多年的發展,卷積神經網絡的深度和寬度不斷增加,圖像識別的準確率也不斷提高。常用的卷積神經網絡包括Lenet-5[9]、AlexNet[10]、VGG[11]、GoogLenet[12]、ResNet[13]和DenseNet[14]等。

卷積神經網絡的基本結構見圖1,主要由輸入層、卷積層、池化層、全連接層和輸出層組成。

1.1?輸入層

輸入層的功能是接收輸入圖像,并存儲為矩陣

形式。假定卷積神經網絡有L層,由x(l)代表第l層的特征,l=1,2,…,L。其中x(l)又由多個特征圖組

成,可表示為x(l)=x(l)1,

x(l)2,…,x(l)j,j表示第l層的特征圖數量,彩色圖像對應的特征表示為

x(1)=x(1)1,x(1)2,

x(1)3,其中x(1)1、x(1)2和

x(1)3分別表示R、G和B通道的數據。

1.2?卷積層

卷積層的作用是通過卷積操作提取特征。經過合適的設計,隨著卷積層的增加,網絡的特征表達能力增強。

第l層卷積層的特征圖x(l)j通過以下方式計算:

式中:k(l)i,j和b(l)j分別表示卷積核和卷積層的偏移量;

G(l)i,j表示該卷積層與前一層特征圖之間的連接矩陣,

G(l)i,j取1時x(l-1)i與x(l)j相關聯,取0時無關聯;符號代表卷積操作;函數f(·)表示激活函數。

1.3?池化層

池化層一般設在卷積層后面,池化操作保持了一定的空間不變性,第l層的池化層的特征圖x(l)j計算式為

x(l)j=px(l-1)j(2)

式中:p(·)表示池化操作。

1.4?全連接層

全連接層設置在特征提取層后面,將提取的深層特征映射為特征向量,全連接層之間的特征向量x(l)?計算式為

x(l)=fw(l)x(l-1)+b(l)(3)

式中:w(l)表示權重;b(l)表示偏移量;f(·)表示激活函數。

1.5?損失函數

卷積神經網絡通過前向傳播獲得預測值,通過損失函數計算預測值的誤差,在圖像分類中常用的損失函數交叉熵損失計算式為

C=-1nxyln?+(1-y)ln(1-)

(4)

式中:x表示樣本;y表示預測的輸出;表示實際輸出;n表示樣本總數量。

2?本文設計的網絡結構

常用的深度卷積神經網絡可以分為兩類:(1)基于區域提名的RCNN(region-based?convolutional?neural?network)[15]、Fast-RCNN[16]和Faster-RCNN[17]等;(2)基于回歸的ssd[18]、YOLO[6]、YOLOv2[7]和YOLOv3[8]等。基于回歸的深度卷積神經網絡將卷積神經網絡作為回歸器,將待檢測圖像看成一個候選區輸入卷積神經網絡,回歸目標在待檢測圖像中的位置信息,通過端到端的訓練,快速獲得最終的邊界框和分類結果。

本次研究結合目前流行的回歸深度卷積網絡YOLO系列,針對YOLOv2檢測效果不理想以及YOLOv3網絡龐大、訓練識別速度慢的缺點,利用YOLOv2的特征提取層和YOLOv3的特征金字塔(feature?pyramid?network,FPN)層思想設計新的網絡,驗證不同激活函數的效果,采用聚類算法設計錨值,在船舶圖像與視頻檢測上取得了較高的準確率和良好的實時性。研究得到的的網絡結構見圖2。該網絡主要由3部分組成:特征提取層、FPN層和預測層,具體介紹如下。

由表2可知:本文設計的網絡結構在3個評價指標上均超過了其他兩個網絡。

3.3?激活函數的有效性驗證

為測試激活函數的影響,結合本文設計的網絡結構,選取Relu、Elu和Leaky-Relu激活函數作為對比,在測試集上得到表3所示的結果。由于Leaky-Relu激活函數檢測效果更好,且比Elu激活函數的運算量更小,故選取Leaky-Relu作為激活函數。

3.4?網絡效果展示

為達到更好的網絡效果,在訓練網絡時,首先加載使用Imagenet[19]數據集預訓練得到的特征提取層權重參數,然后繼續訓練本文設計的網絡和YOLOv3、YOLOv2。通過在測試集上進行測試以及對視頻進行測試,最終得到的結果見表4。

可以看出,本文設計的網絡在使用預訓練權重時平均精度均值稍低于YOLOv3,但是其他指標均優于YOLOv3,尤其在視頻檢測速度上比YOLOv3的優勢更明顯。本文設計的網絡除視頻檢測速度略低外,其他各項指標均優于YOLOv2。本文設計的網絡檢測效果代表性結果見圖5。

用本文設計的網絡對一張有多艘漁船的圖片進行檢測,并與用YOLOv3和YOLOv2檢測得到的結果做對比。由圖6可知,本文設計的網絡取得了更好的效果。

4?結束語

基于計算機視覺中目標檢測技術的理論基礎,結合回歸深度卷積網絡YOLO系列,利用YOLOv2和YOLOv3各自的優勢,設計新的網絡結構,驗證不同激活函數對檢測效果的影響,聚類產生錨值大小,將得到優化的回歸深度卷積網絡用于對船舶圖像與視頻的檢測,為港口智能化管理和無人船的安全行駛提供了可靠性強、實時性好的視覺信息處理方法。盡管受限于數據集,只做了7種類別的檢測,但本文的方法具有一定的指導意義。

參考文獻:

[1]蔣少峰,?王超,?吳樊,?等.?基于結構特征分析的COSMO-SkyMed圖像商用船舶分類算法[J].?遙感技術與應用,?2014,?29(4):?607-615.?DOI:?10.11873/j.issn.1004-0323.2014.4.0607.

[2]YKSEL?G?K,?YALITUNA?B,?TARTAR??F,?et?al.?Ship?recognition?and?classification?using?silhouettes?extracted?from?optical?images[C]//Signal?Processing?and?Communication?Application?Conference.?IEEE,?2016:?1617-1620.?DOI:?10.1109/SIU.2016.7496065.

[3]RAINEY?K,?REEDER?J?D,?CORELLI?A?G.?Convolution?neural?networks?for?ship?type?recognition[C]//Automatic?Target?Recognition?XXVI.?International?Society?for?Optics?and?Photonics,?2016,?9844:?984409.

[4]戚超,?王曉峰.?基于卷積神經網絡的運輸船舶分類識別方法[J].?微型機與應用,?2017,?36(17):?52-55.?DOI:?10.19358/j.issn.1674-7720.2017.17.015.

[5]王新立,?江福才,?寧方鑫,?等.?基于改進卷積神經網絡的船舶目標檢測[J].?中國航海,?2018,?41(2):?41-45.?DOI:?CNKI:SUN:ZGHH.0.2018-02-009.

[6]REDMON?J,?DIVVALA?S,?GIRSHICK?R,?et?al.?You?only?look?once:?unified,?real-time?object?detection[C]//Proceedings?of?the?IEEE?conference?on?computer?vision?and?pattern?recognition.?IEEE,?2016:?779-788.?DOI:?10.1109/CVPR.2016.91.

[7]REDMON?J,?FARHADI?A.?YOLO9000:?better,?faster,?stronger[C]//Proceedings?of?the?IEEE?conference?on?computer?vision?and?pattern?recognition.?IEEE,?2017:?7263-7271.?DOI:?10.1109/CVPR.2017.690.

[8]REDMON?J,?FARHADI?A.?YOLOv3:?an?incremental?improvement[J].?arXiv:?1804.02767,?2018.

[9]LECUN?Y,?BOTTOU?L,?BENGIO?Y,?et?al.?Gradient-based?learning?applied?to?document?recognition[J].?Proceedings?of?the?IEEE,?1998,?86(11):?2278-2324.?DOI:?10.1109/5.726791.

[10]KRIZHEVSKY?A,?SUTSKEVER?I,?HINTON?G?E.?ImageNet?classification?with?deep?convolutional?neural?networks[J].?Communications?of?the?ACM,?2017,?60(6):?84-90.?DOI:?10.1145/3065386.

[11]SIMONYAN?K,?ZISSERMAN?A.?Very?deep?convolutional?networks?for?large-scale?image?recognition[J].?arXiv:?1409.1556,?2014.

[12]SZEGEDY?C,?LIU?Wei,?JIA?Yangqing,?et?al.?Going?deeper?with?convolutions[C]//Proceedings?of?the?IEEE?conference?on?computer?vision?and?pattern?recognition.?IEEE,?2015:?1-9.?DOI:?10.1109/CVPR.2015.7298594.

[13]HE?Kaiming,?ZHANG?Xiangyu,?REN?Shaoqing,?et?al.?Deep?residual?learning?for?image?recognition[C]//Proceedings?of?the?IEEE?Conference?on?Computer?Vision?and?Pattern?Recognition.?IEEE,?2016:?770-778.?DOI:?10.1109/CVPR.2016.90.

[14]HUANG?Gao,?LIU?Zhuang,?VAN?DER?MAATEN?L,?et?al.?Densely?connected?convolutional?networks[C]//Proceedings?of?the?IEEE?Conference?on?Computer?Vision?and?Pattern?Recognition.?IEEE,?2017:?4700-4708.?DOI:?10.1109/CVPR.2017.243.

[15]GIRSHICK?R,?DONAHUE?J,?DARRELL?T,?et?al.?Rich?feature?hierarchies?for?accurate?object?detection?and?semantic?segmentation[C]//Proceedings?of?the?IEEE?Conference?on?Computer?Vision?and?Pattern?Recognition.?IEEE,?2014:?580-587.?DOI:?10.1109/CVPR.2014.81.

[16]GIRSHICK?R.?Fast?R-CNN[C]//Proceedings?of?the?IEEE?International?Conference?on?Computer?Vision.?IEEE,?2015:?1440-1448.?DOI:?10.1109/ICCV.2015.169.

[17]REN?Shaoqing,?HE?Kaiming,?GIRSHICK?R,?et?al.?Faster?R-CNN:?towards?real-time?object?detection?with?region?proposal?networks[C]//Advances?in?Neural?Information?Processing?Systems.?IEEE,?2015:?91-99.?DOI:?10.1109/TPAMI.2016.2577031.

[18]LIU?Wei,?ANGUELOV?D,?ERHAN?D,?et?al.?SSD:?single?shot?multibox?detector[C]//European?Conference?on?Computer?Vision.?Springer,?Cham,?2016:?21-37.?DOI:?10.1007/978-3-319-46448-0_2.

[19]RUSSAKOVSKY?O,?DENG?Jia,?SU?Hao,?et?al.?Imagenet?large?scale?visual?recognition?challenge[J].?International?Journal?of?Computer?Vision,?2015,?115(3):?211-252.?DOI:?10.1007/s11263-015-0816-y.

(編輯?賈裙平)

猜你喜歡
船舶深度檢測
計算流體力學在船舶操縱運動仿真中的應用
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
《船舶》2022 年度征訂啟事
船舶(2021年4期)2021-09-07 17:32:22
深度理解一元一次方程
船舶!請加速
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: 国产成人8x视频一区二区| 久久一色本道亚洲| 99国产精品免费观看视频| 午夜精品久久久久久久2023| 91久久国产综合精品| 成人看片欧美一区二区| 97色伦色在线综合视频| 国产微拍精品| 成人免费午夜视频| 婷婷色丁香综合激情| 亚洲伊人久久精品影院| 尤物视频一区| 欧美人人干| 日韩一级毛一欧美一国产| 91午夜福利在线观看精品| 99re免费视频| 欧美国产在线看| 成人无码区免费视频网站蜜臀| 欧美国产精品不卡在线观看| 国产精品永久在线| 久久中文电影| 久夜色精品国产噜噜| 丁香婷婷久久| 欧美一道本| 免费看一级毛片波多结衣| 欧美97欧美综合色伦图| 久久国产乱子伦视频无卡顿| 在线看片中文字幕| 在线精品视频成人网| 青青青视频蜜桃一区二区| 日韩欧美高清视频| 在线另类稀缺国产呦| 无码专区在线观看| 国产三区二区| 2020国产精品视频| 色综合久久久久8天国| 亚洲人网站| 久久精品国产精品青草app| 在线无码九区| 亚洲色欲色欲www在线观看| 2019国产在线| 久爱午夜精品免费视频| 99热这里都是国产精品| 黄色网页在线观看| 色婷婷啪啪| 色综合天天操| 欧美a在线看| av手机版在线播放| 国产成年无码AⅤ片在线 | 99这里只有精品免费视频| 国产精品大尺度尺度视频| 欧美亚洲日韩中文| 免费毛片全部不收费的| 伊人久热这里只有精品视频99| 女人av社区男人的天堂| 99热国产这里只有精品9九| 亚洲成人黄色在线| 久久五月视频| 国产91全国探花系列在线播放| 欧美日韩亚洲国产主播第一区| 一本无码在线观看| 色婷婷在线播放| 午夜福利亚洲精品| 波多野结衣在线一区二区| 日本一区二区三区精品视频| 在线观看亚洲国产| 青青草原国产av福利网站| 天天视频在线91频| 国产AV无码专区亚洲精品网站| 国产女人在线| 高h视频在线| 国产成人高清亚洲一区久久| 国产精品毛片一区视频播| 国产一级二级在线观看| 农村乱人伦一区二区| 香蕉久人久人青草青草| 亚洲天堂.com| 一边摸一边做爽的视频17国产 | 第一区免费在线观看| 蝴蝶伊人久久中文娱乐网| 国产尤物视频网址导航| 免费高清a毛片|