999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經網絡的海漂垃圾自動識別方法研究

2021-12-30 15:24:54崔文婧張彩云武新娜
海洋技術學報 2021年5期
關鍵詞:分類

崔文婧,張彩云,武新娜

(1.廈門大學海洋與地球學院,福建 廈門 361102;2.廈門大學近海海洋環境科學國家重點實驗室,福建 廈門 361102;3.廈門大學水聲通信與海洋信息技術教育部重點實驗室,福建 廈門 361102)

近年來,隨著沿海工農業生產的迅猛發展及旅游業的興盛,海漂垃圾污染逐漸成為世界各海域普遍多發的海洋污染現象[1-4],每年進入海洋的塑料垃圾多達8 000 000 t,每平方千米海面上漂浮著1.3萬片塑料垃圾,其中近岸活動是產生垃圾的主要來源,占到了80%,另外20%來自海上活動[5]。海漂垃圾的出現對海域產生了重大影響,造成水質污染、視覺污染,還可能威脅航行安全,威脅著海洋生物的生命安全,甚至會通過食物鏈直接威脅人類自身。除此之外,海上垃圾也會影響近海漁業的發展[5]。因此,對海漂垃圾開展自動化監測具有重要的意義。

目前海漂垃圾常用的調查手段是利用船只、無人機或飛機對某一海域漂浮垃圾進行調查觀測,但是觀測間隔的時間長,監測結果不連續[6]。視頻監控作為海漂垃圾定點監測的一種重要手段,具有可長時間、連續獲取某一重點區域海漂垃圾動態變化過程的特點,正日益成為海洋污染監管重要的技術手段之一[7-8]。此外,隨著計算機運算能力的大幅提升以及海量的數據和先進算法技術的發展,深度學習模型在圖像分類領域取得許多重要的突破[9-10]。其中,卷積神經網絡(Convolutional Neural Networks ,CNN)是深度學習技術中最重要的網絡結構之一。CNN能夠從數據中自動學習并提取特征,其泛化能力顯著優于傳統方法。在圖像處理上,CNN不僅能夠有效地將大數據量的圖片降維成小數據量,而且能夠有效地保留圖片特征,符合圖片處理的原則。CNN技術的興起,大大地提高了語義分割算法的精度,在實現像素級別的圖像分類上明顯優于其他傳統的語義分割算法。因此CNN已在人臉識別、目標定位檢測、目標分割以及圖片分類檢索等領域有著廣泛的應用。如張惠凡等[11]利用青海湖野鳥監控的視頻關鍵幀圖像數據,采用VGG16(Visual Geometry Group16)卷積神經網絡預訓練模型來提取圖像中的野鳥特征。芮挺等[12]提出采用多層網絡構建深度卷積神經網絡實現對行人檢測的方法,結果表明該方法對于行人檢測的識別率要明顯優于傳統方法。陳耀丹等[13]研究并實現了一種基于卷積神經網絡的人臉識別方法,識別率可以達到99%以上。

因此,本文以廈門灣為研究海域,使用安裝在嵩嶼碼頭的視頻監控設備所獲取的圖片,開展基于卷積神經網絡的海漂垃圾自動識別技術研究,研究結果有望為深度學習這一新技術在海洋垃圾自動監測中的應用提供借鑒與技術參考。

1 數據與方法

1.1 研究區域概況

廈門灣地處臺灣海峽西岸中部,閩南金三角中心,九龍江的下游,其海域面積為300多平方千米。隨著廈門灣周邊地區的城市化進程,并且廈門擁有豐富的濱海自然和人文旅游資源,每年慕名而來的游客數不勝數。經濟和旅游業的日益增長給廈門灣海洋環境造成了巨大壓力。

據統計,進入廈門海域的海漂垃圾有80%~90%來自九龍江流域[14],主要包括水草、水浮蓮、樹枝、木頭、竹竿、飲料瓶和塑料袋[15]。海漂垃圾在九龍江徑流帶動下及潮汐影響下四處擴散,嚴重影響廈門島周邊海域及海岸的景觀,對廈門的旅游業造成打擊,同時也給廈門海洋生態環境帶來一定的生態風險[14]。

嵩嶼碼頭毗鄰九龍江入海口處,是九龍江流域的垃圾進入廈門灣周邊海域的必經之路。在嵩嶼碼頭設置監控視頻,持續開展該海域海漂垃圾的監測,有助于實時掌握流入廈門灣海漂垃圾的動態變化過程,并及時預警,為廈門灣海漂垃圾的監測和管理提供一定的參考依據。

1.2 數據源

本文所用的數據是嵩嶼碼頭T1鐵塔上安裝的攝像監控設備所拍攝到的影像數據。視頻監控設備為大華智能高清球機,分辨率為400萬像素,焦距6~180 mm。拍攝范圍主要為嵩嶼碼頭到對岸漳州一帶的海域。

視頻監控圖片數據可通過4G網絡自動傳回到廈門大學海洋監測與信息服務平臺的FTP服務器上。本文主要使用的數據是2018年7—12月5:00—19:00的圖片。

1.3 卷積神經網絡

卷積神經網絡(圖1)是一種多層的神經網絡,由輸入層、卷積層、池化層、全連接層、Softmax分類層和輸出層組成。其中,輸入層為訓練數據,即原始數據;卷積層是通過一個過濾器(卷積核)來過濾圖像的各個小區域,從而提取圖像的特征;池化層的主要作用是把數據降維,以有效避免過擬合;線性整流函數(Rectified Linear Unit,ReLU)表示卷積層所使用的激活函數。卷積層和池化層一般是交替出現,形成若干個卷積組,通過卷積組逐層進行特征的提取,最后采用若干個全連接層實現分類。

圖1 卷積神經網絡分類示意圖

通常CNN網絡通過卷積層之后的若干個全連接層,將卷積層產生的特征圖映射成一個固定長度的特征向量。全卷積網絡(Fully Convolutional Networks,FCN)(圖2)可對圖像進行像素級的分類,從而解決了語義級別的圖像分割問題。與經典的CNN在卷積層之后使用全連接層得到固定長度的特征向量進行分類(全連接層+Softmax輸出)不同,FCN可以接受任意尺寸的輸入圖像,采用反卷積層對最后一個卷積層的特征圖進行上采樣,使它恢復到輸入圖像相同的尺寸,從而可以對每個像素都產生了一個預測,同時保留了原始輸入圖像中的空間信息,然后在上采樣的特征圖上進行逐像素分類。最后逐個像素計算Softmax分類的損失,相當于每一個像素對應一個訓練樣本。圖2所示意的全卷積網絡的前半部分為卷積過程,后半部分為反卷積的過程。

圖2 全卷積神經網絡模型[16]

本文選用VGG16網絡結構的卷積神經網絡來構建海漂垃圾的自動判別模型。VGG是由牛津大學Visual Geometry Group提出的卷積神經網絡模型。圖3表示基于VGG16網絡的全卷積神經網絡模型架構。VGG16網絡結構共包含13個卷積層、3個全連接層和5個池化層[16]。VGG16網絡通過反復使用3×3的小型卷積核和2×2的最大池化層,不斷加深網絡結構來提升其性能(圖3)。因VGG16使用多個較小卷積核(3×3)的卷積層來代替卷積核較大(如5×5或7×7)的卷積層,這樣就可以使得模型的參數更少,非線性更強,從而增加網絡的擬合表達能力,提高分類的精度。

圖3 VGG16網絡架構[17]

本文使用已經訓練好的VGG16網絡作為基本框架,為它添加上采樣層,并根據分類種類和各個類別所占權重,添加上適應于本文圖像的輸出層并與Softmax層連接,然后通過反卷積網絡操作,將結果對應到與輸入圖像相同的尺寸上,從而實現像素級別的語義分割(圖2)。

2 海漂垃圾自動判別算法的建立

2.1 訓練數據集的構建

本文所使用的訓練數據集是從嵩嶼碼頭2018年7—12月的視頻中抽幀得到的。這些數據集所含的目標物不是固定不變的,而是具有多方位、多種形態特征。同時在一張圖像中,最好能包含多個目標物體,可以是一個類別,也可以是多個類別。經過嚴格篩選,最后獲取具有代表性的訓練圖片485張。從圖4可以看出嵩嶼碼頭海漂垃圾主要以木屑類垃圾為主(圖4(a)),同時在視野范圍內亦有不少橘黃色的條帶狀漂浮物(圖4(b))。這些漂浮物可能是由船舶排污產生的泡沫與懸浮泥沙混合物形成的。因此,本文將其也歸為海漂垃圾。在所選擇的485張圖片中,只含橘黃色條帶狀物質的圖片有342張,只含木屑類的圖片有143張。圖片大小均為2 592×1 520像素。

圖4 嵩嶼碼頭周邊海域海漂垃圾示意圖

訓練圖片在用語義分割網絡訓練之前需要先對樣本進行標注。本文使用MATLABR2018b中自帶的圖像標注工具Imagelabeler對圖像上每一個像素進行人工標注。根據視頻監控圖片的特征,主要將圖片中的目標物分為天空、建筑物、船、水、其他、木屑類垃圾和橘黃色條帶狀物質共7類(圖5)。各類標注所對應的數值分別記為[1,2,3,4,5,6,7]。將原圖和對應于原圖的每一個像素都標簽好的圖片分別導入MATLABR2018b中的ImageDatastore和PixellabelDatastore,完成訓練數據集的構建。此外,因原始圖像過大,為了減少卷積時的計算量,將原始圖片(像素大小為2 592×1 520)進行重采樣得到像素為648×380的圖片,然后再進行訓練。

圖5 訓練樣本標注示意圖

2.2 初始化語義分割網絡并訓練

語義分割就是讓計算機自動分割并識別出圖像中每一個像素點的內容。初始化指的是參數設置,是深度學習訓練的一個重要內容。為語義分割網絡訓練選擇合適的參數非常重要,有助于網絡在短時間內得到充分的訓練并獲得好的分類結果。本文的網絡訓練經過反復實驗后,其中模型優化算法選用隨機梯度下降算法;決定隨機梯度下降算法收斂速度的參數即沖量設定為0.9;學習率決定了參數移動到最優值的速度快慢,這里將學習率設定為0.01;為防止過擬合,權重衰減設定為0.000 5;迭代次數主要由訓練樣本集的數目決定,訓練集樣本越多,需要迭代的次數就越多。其余參數大多采用模型的默認值。同時,在訓練時會先計算出訓練集中每張圖像每一類別像素點個數占該圖像總像素點的比例,然后統計分析不同類別像素點比例的中位數,將其除以每一類別總像素點從而得到類權重,該參數主要用于語義分割網絡最后一層分類層的構建。

為了測試出影響分類精度的因素,找到取得最佳分類結果的訓練方案,將訓練數據集分成四種訓練方案:

方案一:只含有橘黃色條帶狀物質的原圖和帶標簽的圖片,共342張;

方案二:只含有木屑類垃圾的原圖和帶標簽的圖片,共143張;

方案三:部分含有橘黃色條帶狀物質部分含有木屑類的原圖和帶標簽的圖片,共485張;

方案四:訓練方案一至方案三中海水的占比比較大(平均為81.82%,表1),而木屑類海漂垃圾像素點所占比例比較小(≤0.2%,表1),且小于橘黃色條帶狀物質所占比例(<1%,表1),因此為平衡不同類別的比例,從無人機拍攝圖片上選取一些含有木屑類垃圾的像素點,裁剪下來放在視頻影像抓取的圖片上(圖6),與只含有橘黃色條帶狀物質的圖片進行樣本合成,以提高木屑類垃圾在訓練圖片上的比例(表1),這些合成的圖片共105張。從表1可以看出,木屑類海漂垃圾和橘黃色條帶狀物質在方案四中所占比例有明顯增加,分別達到了2.53%和1.13%。

圖6 航拍圖片木屑垃圾合成到視頻圖片上

表1 四種訓練方案中不同分類類別占總像素點的比例

將以上4種不同方案的訓練集中選擇90%的圖片用于訓練,10%的圖片用于測試,輸入VGG16卷積神經網絡架構里進行訓練,同時檢測圖像分類效果。

不過,對于VGG16網絡結構而言,本文收集的訓練樣本數據集仍相對較小。為了避免出現過擬合從而得到較高的分類精度,本文將已有的訓練圖片通過旋轉或平移等方式生成新的訓練圖片,以進一步拓展訓練數據集。

2.3 海漂垃圾自動判別流程及評價指標

圖7表示基于卷積神經網絡的海漂垃圾提取流程。在標注訓練樣本集和構建VGG16網絡結構后,通過卷積神經網絡的訓練獲得視頻監控圖片上各主要目標物的分類結果,并將各類別分類結果與原始圖片進行對比分析,評估分類精度。

圖7 基于卷積神經網絡的海漂垃圾提取流程

本文采用卷積神經網絡中常用的識別精度(Accuracy)[18]來評價分類結果。

對于每一類的分類結果,其精度是指被正確分類的像素點與該類總像素點的比例,即

式中,TP是指正確分類的像素點;FN表示分類錯誤的像素點;TP+FN為該類的總像素點。

整體分類精度(Global Accuracy)是正確分類的像素(無論類別)與總像素數的比值。使用整體精度這一指標可以快速且在計算成本低的情況下得到正確分類像素的百分比。

3 實驗結果及評估

3.1 分類結果分析

根據圖7海漂垃圾的提取流程對四種方案分別進行實驗,結果如圖8所示,其中第一行、第二行分別表示方案一和方案二的語義分割結果,第三行和第四行表示方案三的語義分割結果。從圖8可以看出,方案一(圖8(a)和圖8(b))的橘黃色條帶狀物質較為準確地被判別出來;方案二(圖8(c)和圖8(d))有一些水的像素點被誤判為垃圾像素點;方案三(圖8(e)至圖8(h))中既有一部分水的像素點被誤判為木屑類垃圾,也有一部分水的像素點被誤判為橘黃色條帶狀物質。

從圖8還可以看出,當把部分含木屑類垃圾與部分含有橘黃色條帶狀物質的數據集一起投入訓練,會出現部分水像素點誤判為橘黃色條帶狀物質或者木屑類垃圾的情況。影響這兩類垃圾分類效果的主要原因可能是相對于總的待分類像素點而言,橘黃色條帶狀物質像素點占比較少,而木屑類海漂垃圾像素點的占比更少(表1),且并不是每一張測試圖片上均含有這兩類垃圾,因此這兩類垃圾的特征未能得到充分的訓練。

圖8 訓練方案一至方案三的圖像原圖(左列)和分類結果(右列)

圖9表示方案四示例圖片的語義分割結果,方案四是把無人機拍攝到的木屑類垃圾圖片合成到含有橘黃色條帶狀物質的圖片中,木屑類海漂垃圾的占比明顯提高(表1),從結果圖中可以明顯地看到木屑類海漂垃圾和橘黃色條帶狀物質海漂垃圾都較為準確的判別出來了。

圖9 訓練方案四的圖像原圖(左列)和分類結果(右列)

3.2 分類精度評估

不同實驗方案主要類別的分類精度評估詳見表2。其中,所有正確分類的像素個數與所有類別總像素個數的比值為整體分類精度;每一類別正確分類的像素個數與這一類別總像素個數的比值為這一類別的分類精度。

從表2可以看出,方案一到方案四整體分類精度均在95%以上,除個別方案中海漂垃圾的分類精度較低外,其他類別的分類精度均在90%以上。總的來說,當海漂垃圾像素點占總像素點的比例越高時,其分類精度也越高(表1和表2)。比如,對于橘黃色條帶物質來說,當方案一單獨訓練只含有橘黃色條帶狀物質的圖片時,分類精度可以達到90%以上,而當方案三加入含有木屑類垃圾的圖片一起訓練,稀釋了橘黃色條帶狀物質的像素點,結果表明橘黃色條帶狀物質的分割精度也相應地降低(表2)。對于木屑類海漂垃圾來說,因方案二和方案三木屑類海漂垃圾占總像素點的比例較低,單獨訓練時分類精度只有74.79%,在方案三其占比有所降低(表1),此時分類精度降低到57.18%;而當在方案四人為提高木屑類海漂垃圾占總像素點的比例時(表1),其分類精度有了明顯的提高,達到了92.65%。

表2 4種訓練方案中不同分類類別的分類精度

此外,從表2還可以看出,海水、船等易于海漂垃圾混淆的類別的分類精度都比較高(>96%),這可能意味著利用卷積神經網絡這一深度學習方法,能有效減少干擾物像素點與海漂垃圾這一目標物像素點間的混淆,從而可以保證目標物的提取精度。

基于方案四合成圖片訓練集生成的語義分割網絡,選取2019年4月22日視頻監控圖片進行圖像分類,結果如圖10所示。從圖10可以看出第一列和第三列原圖中的各類別都能被準確地分辨出來,木屑類海漂垃圾和橘黃色條帶狀物質二者的區分也很清楚。而且對于一些肉眼難以分辨的分界線比較模糊的目標物也能較好地分辨出來,說明該判別模型在海漂垃圾的識別應用上是比較成功的。

圖10 2019年4月22日監控數據的圖像原圖和分類結果

4 結 論

本文以廈門嵩嶼碼頭視頻監控獲取的海上圖片數據集構建了基于VGG16語義分割的卷積神經網絡海漂垃圾判別模型。文中設計了四種訓練方案來提取圖片中的橘黃色條帶狀物質和木屑類海漂垃圾。結果表明卷積神經網絡模型對海漂垃圾的提取精度高,當圖片中海漂垃圾占比只有2%~3%時,其分類提取精度仍可達90%以上;而且訓練樣本中提取目標如海漂垃圾的有效像素比例越高時,最后分類的精度也越高;同時,該方法能有效減少干擾物像素點與垃圾像素點的混淆,具有很強的實用性。下一步我們將利用更多的訓練樣本來優化模型,最終實現海漂垃圾的自動化提取,并形成海漂垃圾管理信息系統,實時掌握流入廈門灣海漂垃圾的動態變化過程,為管理部門加強海洋垃圾污染防治與科學管理提供技術支撐。

猜你喜歡
分類
2021年本刊分類總目錄
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
星星的分類
我給資源分分類
垃圾分類,你準備好了嗎
學生天地(2019年32期)2019-08-25 08:55:22
分類討論求坐標
數據分析中的分類討論
按需分類
教你一招:數的分類
主站蜘蛛池模板: 亚洲伊人久久精品影院| 欧美中文字幕在线二区| 国产情精品嫩草影院88av| 国产女同自拍视频| 亚洲av成人无码网站在线观看| 亚洲av无码专区久久蜜芽| 国产精品尤物铁牛tv | 中文字幕在线日本| 国产三级韩国三级理| 毛片网站在线看| 久久久久中文字幕精品视频| 免费国产小视频在线观看| 日韩精品无码一级毛片免费| 98超碰在线观看| 成人午夜网址| 在线欧美一区| 欧美v在线| 国产18在线播放| 99999久久久久久亚洲| 久久久久久久97| 国产激情无码一区二区APP| 亚洲无码视频喷水| 青青草综合网| 欧美天堂久久| 91精品aⅴ无码中文字字幕蜜桃 | 2018日日摸夜夜添狠狠躁| 久久福利网| 欧美中文一区| 欧美不卡视频在线| 精品国产成人av免费| 亚洲天堂免费| 久热这里只有精品6| 91美女在线| 亚洲色图综合在线| 国产男人的天堂| 日韩AV无码一区| 噜噜噜久久| 亚洲欧美在线综合一区二区三区| 亚洲精品午夜无码电影网| 青青国产在线| 亚洲伦理一区二区| 亚洲不卡影院| 亚洲欧美成人在线视频| 在线无码九区| 午夜国产理论| 日韩福利在线观看| 亚洲第一黄片大全| 精品国产99久久| 精品国产三级在线观看| 88国产经典欧美一区二区三区| 欧美日韩国产精品综合| 超清无码一区二区三区| 丰满人妻中出白浆| 国产真实二区一区在线亚洲| 色婷婷在线影院| 国产成人亚洲欧美激情| 欧美国产日韩一区二区三区精品影视| 成人欧美在线观看| 久久精品最新免费国产成人| 国产麻豆精品久久一二三| 日本一区中文字幕最新在线| 国产理论一区| 四虎影视库国产精品一区| 亚洲综合一区国产精品| 99国产在线视频| 日韩123欧美字幕| 亚洲国产系列| 亚洲成aⅴ人在线观看| 国产在线拍偷自揄拍精品| 人妻丰满熟妇αv无码| 欧美日韩一区二区三区在线视频| 精品国产美女福到在线不卡f| 国产高潮视频在线观看| 午夜电影在线观看国产1区| 国产在线视频欧美亚综合| 亚洲成人免费在线| 美女无遮挡拍拍拍免费视频| 97免费在线观看视频| 午夜激情福利视频| 国产va免费精品观看| 一级全黄毛片| 国产精品无码一区二区桃花视频|