999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進U-Net模型的近海水產養殖池塘信息提取

2023-10-30 04:32:40陳宇楊陳博偉邱玉寶
現代計算機 2023年16期
關鍵詞:特征結構實驗

陳宇楊,張 麗,陳博偉,邱玉寶

(1.桂林電子科技大學信息與通信學院,桂林 541004;2.中國科學院空天信息創新研究院,中國科學院數字地球重點實驗室,北京 100094;3.中國-東盟地球大數據區域創新中心,南寧 530022;4.可持續發展大數據國際研究中心,北京 100094)

0 引言

據聯合國糧食及農業組織(FAO)統計數據顯示,全球水產養殖業為超過33 億人提供了人均動物蛋白攝入量的20%。2018 年,全球捕撈漁業產量達到創記錄的9640 萬噸,比前三年的平均值增加5.4%[1]。因此,水產養殖作為人類所需蛋白質的重要來源之一,在世界糧食安全中發揮著關鍵作用。從20 世紀中葉開始,中國沿海水產養殖區迅速擴張,導致周圍土地利用競爭激烈,在產生巨大經濟效益的同時也對沿岸生態環境造成了一定的破壞,如近岸濕地的萎縮或消失、自然棲息地的破壞、生物多樣性的喪失以及海岸帶地區生態修復能力衰退[2-4]。因此,準確、快速地了解近岸地區養殖池塘的空間分布,對水產養殖的空間布局優化、自然資源的科學管理以及生態環境的保護至關重要。

衛星遙感技術的快速發展,為實現近岸養殖池塘準確、高效的提取提供了可靠的數據支持。它能夠克服傳統野外調查的不足,是監測和研究海岸帶生態環境的重要手段[5-6]。目前,基于遙感影像提取水產養殖區的方法主要有基于像素、面向對象的圖像分析、機器學習算法以及深度學習算法。其中,基于傳統的基于像素、面向對象的圖像分析,在某一特定區域中表現出了良好的識別能力,如馬艷娟等[7]構建水體指數和波段運算函數用于近海水產養殖區的提取;呂巷艷等[8]采用歸一化差異水體指數結合閾值的方法提取金沙縣養殖水體信息;裴亮等[9]將歸一化差異池塘指數與面向對象方法相結合,對天津海岸養殖區進行提取。但在面對復雜水域,出現“同譜異物”現象時,僅依靠光譜特征差異性容易導致錯分,且其存在無法克服的“椒鹽”噪聲[10]。而面向對象的分類方法,雖然可以有效抑制“椒鹽”噪聲,但它的分割參數選取往往取決于研究人員的經驗知識且需要反復實驗[11]。

機器學習算法雖然已被研究人員廣泛應用于遙感圖像識別與分類領域并取得不錯的成效,但其存在特征選擇上需要研究人員具備專業知識、算法結構較淺難以提高分類精度、自動化程度難以滿足需求等問題[12]。近年來,深度學習技術在計算機視覺領域取得了巨大成功,相關遙感學者也開始將其應用于遙感圖像語義分割領域,為實現近海水產養殖區識別開辟了另一條途徑。如Cheng 等[13]通過擴大感受野來增強網絡模型學習高層特征的能力,提高了籠式養殖區和筏式養殖區的提取精度;Fu 等[14]采用層次級聯結構并引入注意力機制來優化特征空間,對不同種類的海水養殖區進行區分;茍杰松等[15]基于Deeplabv3+構建水產養殖水體語義分割模型;Sui 等[16]采用 ASPP 結構,能夠有效捕捉到海上筏式養殖區的多尺度信息,提高浮筏養殖區的提取精度。此類方法能夠克服傳統方法出現的“同譜異物”現象,改善了水產養殖區提取的邊緣模糊問題。

基于深度學習方法提取水產養殖區具有準確、高效等特點。然而,上述的研究中大多是對海上的浮筏養殖區進行提取,相對于養殖池塘的自然地理環境背景更為單一,淺層的卷積神經網絡模型在復雜背景情況下提取養殖池塘容易產生冗余信息,網絡模型的泛化能力和魯棒性表現不足。為提升遙感語義分割模型對養殖池塘的識別率,本文提出了一種基于U-Net改進的近岸養殖池塘自動提取模型,并與FCN[17]、E-Net[18]和 U-Net[19]等經典語義分割模型進行比較,驗證改進U-Net模型的有效性,以期為該領域相關研究的進一步發展提供參考價值。

1 研究區和數據源

本文的研究區為廣西北部灣的官寨海和安鋪港兩個典型的規模化集聚型養殖區。如圖1所示,地理坐標范圍為 109°49'~109°56'E,21°25'~21°30'N。研究區內養殖池塘主要位于海涂等低洼地區,一般是封閉的水體,形狀近似矩形。研究區域內河流、水田、建設用地等多種不同的地物類型廣泛分布,對養殖池塘提取任務造成一定挑戰。

圖1 研究區

數據源采用歐空局提供的Sentinel-2 多光譜掃描成像(multispectral scan imaging)遙感數據。Sentinel-2任務包含了2A、2B兩顆同時運作的相同衛星,重訪周期為5 天,掃描幅寬為290 km,空間分辨率為10 m。首先在Google Earth Engine平臺上完成影像的數據預處理工作,得到覆蓋研究區域2020年6月的Sentinel-2 MSI(Level-2A)影像數據,包含紅、綠、藍、近紅外4 個波段,像素大小為7696×7059。然后利用ArcGIS 軟件對經過預處理的影像進行養殖池塘的標注,將其Id字段值設置為255。為防止計算機內存溢出,采用隨機裁剪方法對影像進行裁剪,最終得到2100張像素大小為256×256的圖像,按照8∶2比例制作為訓練集和驗證集。

2 研究方法

由于遙感圖像的復雜環境背景干擾,目前的一些算法難以對養殖池塘進行準確的分割,因此本文對U-Net模型進行改進,得到更加適用于養殖塘分割的新算法。

2.1 改進UU--NNeett模型

U-Net 是一種基于FCN 的改進型模型。如圖2 所示,它是一個對稱的網絡結構,包含了左側編碼器、右側解碼器以及中間的跳躍連接。其中,編碼部分用于圖像的特征提取,解碼部分則逐步將編碼得到的特征圖恢復到原始圖像大小。因此,整個網絡的性能直接受編碼端的特征提取能力和解碼端的圖像恢復能力的影響。在本研究中,U-Net 模型是一個重要的結構和關鍵技術,它能夠有效地進行圖像語義分割任務,提高圖像處理的準確性和效率。

圖2 U-Net模型

本文提出的改進U-Net 模型主要是在U-Net模型基礎上進行改進,將提出的DC 結構代替U-Net 的傳統卷積層,使模型具有更強的特征提取能力。改進U-Net 模型包括編碼部分、解碼部分以及跳躍連接,采用的操作包括卷積操作(DC 結構)、上采樣(Up-Sampling)、最大池化(Max-Pooling)、跳躍連接(skip connection),其結構如圖3所示。

圖3 改進U-Net模型

原始U-Net 網絡的編碼部分:編碼部分可劃分為5級,每級都是由2個3×3卷積、1 個ReLU 激活函數、1 個最大池化層組成。而改進U-Net 模型中,編碼部分也分為5 級,每級均由DC 結構組成。DC 結構主要是由Inception 模塊、空洞殘差結構以及跳躍連接構成,它使得模型能夠更好地對圖像特征進行多尺度提取,保證網絡模型對特征的穩定表達。并且,在每一個卷積層后面用ReLU 層加快模型的收斂速度以及使用BN 層緩解網絡的梯度消失問題。最后,在DC結構的后面通過最大池化操作進行降采樣。

原始U-Net網絡的解碼部分:解碼部分也可劃分為5級,前4級都是由上采樣、3×3卷積組成,第5級為輸出層。在改進U-Net模型中,解碼部分全部使用DC結構代替原來的卷積層,同時,與原來的U-Net網絡一樣,仍然使用1×1卷積將最后一層的輸出特征向量映射為一個類標簽。

2.2 DDCC結構

為了更準確地識別遙感影像中大小不同的養殖池塘,本文提出了一種多尺度特征提取結構(DC 結構)。該結構由Inception[20]模塊、空洞殘差模塊和跳躍連接組成,其結構如圖4 所示。DC 結構能夠有效提取養殖池塘的特征信息,加強特征表達能力,提升遙感影像中養殖池塘部分的識別精度和效率。

圖4 DC結構

如圖4 所示,首先,輸入特征經過Inception模塊的四個分支,每個分支分別進行1×1 卷積、3×3 卷積、5×5 卷積、7×7 卷積,捕捉到不同尺度的圖像特征,然后通過Concatenate 拼接操作進行特征融合并輸入到空洞率為3的空洞殘差模塊中,進一步對融合后的信息進行提取,最后通過一個長跳躍連接將輸入和輸出進行融合。DC 結構能夠提取不同尺度的特征信息,增強了模型對特征的復用和表達的準確性,降低模型訓練過擬合風險,有效地提升了識別精度。

3 實驗與分析

3.1 實驗設置

該實驗使用的仿真平臺為PyCharm,使用keras 及其 TensorFlow 端口,運用 Python 語言編程。計算機配置為Intel(R)CoreTM i7-10700F CPU@2.90 GHz,64.0 GB 內存,NVIDIA GeForce GTX 3060,采用 64 位操作系統Windows10,Python3.6。為了客觀地分析本文中養殖池塘提取模型的性能,實驗中模型統一使用了Adam 優化器、初始學習率為0.0001、批量大小設置為8、迭代周期為80次。

3.2 評價指標

為綜合評估改進U-Net 模型的有效性,實驗使用了四種精度評估指標,包括精確率(Precision)、召回率(Recall)、交并比(Intersectionover-Union,IoU)和 F1 分數(F1-Score)。其中,精確率表示模型預測為正例的樣本中,實際為正例的樣本所占的比例;Recall表示實際為正例的樣本中,模型正確預測為正例的樣本所占的比例;IoU 表示模型預測的邊界框與真實邊界框的重疊程度;F1-score 是精確率和召回率的調和平均數,用于綜合評估模型的性能。以上評價指標的計算公式如式(1)~(4)所示。

其中,真正例(TP)表示模型預測結果和實際情況都為正例;假正例(FP)表示實際情況為反例,但是預測結果為正例;假反例(FN)表示實際情況為正例,但是預測結果為反例;真反例(TN)表示實際情況和預測結果都為反例。

3.3 消融實驗

為了評估本文提出的改進后的U-Net模型的優越性,并驗證該模型中每個模塊的有效性,本文進行了消融實驗。該實驗都在同一臺機器上進行,使用相同的數據集進行訓練和驗證,并采用相同的參數設置,以確保消融實驗的結果可靠。其中,①U-Net:是沒有任何改進的原始U-Net模型;②U-Net_1:在U-Net基礎上加入空洞殘差模塊;③U-Net_2:在U-Net 基礎上加入Inception 模塊;④U-Net_3:本文所提出的改進U-Net模型,它加入了本文所提出的DC結構。消融實驗結果和精度對比如圖5和表1所示。

表1 消融實驗精度對比

圖5 消融實驗結果

在消融實驗中,U-Net_1 模型采用了空洞殘差模塊,相比原始的U-Net 模型,它在精確率、召回率、交并比以及F1 分數上分別提高了3.4、3.43、3.78和2.31個百分點。這是因為空洞殘差模塊可以增加模型的感受野,從而捕捉更大范圍內的特征信息。U-Net_2 模型采用了Inception模塊,它比U-Net模型的精確率、召回率和交并比以及F1 分數上分別提高了3.06、3.38、5.69和3.65 個百分點,這是因為Inception 模塊能夠增加模型的寬度,有效提取到養殖池塘的多尺度特征信息。因此,采用空洞殘差模塊的U-Net_1 模型和采用 Inception 模塊的 U-Net_2 模型獲得更高的精度。

與U-Net_1 模型和U-Net_2 模型相比,具有DC 結構的U-Net_3 模型在精確率、召回率以及交并比上得到了進一步的提升,說明了DC 結構結合Inception 模塊的多分支結構以及空洞殘差模塊,既能增加網絡模型的寬度,又能增大卷積提取的感受野,同時兩者的結合減少了空洞卷積在卷積過程中帶來的稀疏性。所以,DC 結構能夠提取到更多有效的不同尺度的特征信息,從而更好地辨別養殖池塘的輪廓。

3.4 不同方法的實驗比較

上述的消融實驗結果表明,改進U-Net模型在養殖池塘信息的提取上優于原始U-Net 模型。為了進一步驗證改進U-Net模型的分割性能,將改進U-Net 模型與 FCN、E-Net、U-Net 模型進行實驗對比。其不同模型的分割結果和精度對比分別如圖6和表2所示。

表2 不同模型的提取結果精度對比

圖6 不同模型的養殖池塘提取結果

從圖6 的分割結果中可以看出,采用FCN模型的分割結果明顯差于其他幾種模型,分割結果噪聲較多,并不能清晰地識別出養殖池塘,這是因為FCN 模型在特征提取過程中采用了連續下采樣操作,通過不斷降低特征圖的分辨率來擴大感受野。然而,這種下采樣操作會導致分辨率的下降,從而造成一定的信息損失。同時FCN 模型在上采樣造成的鋸齒狀邊緣也會影響分割結果的質量。因此,在分割結果中可能會出現一些細節缺失。E-Net 模型在大型堤防上的分割性能有所提升,是因為其采用了多尺度特征提取的方法,通過引入不同大小的卷積核和不同步長的卷積操作,對輸入圖像進行多尺度的特征提取,從而提高了模型對圖像的感知能力和分割效果,但是仍然存在部分細小堤防與養殖池塘直接相連的問題。相比之下,U-Net模型能夠有效消除堤防的影響,提取的養殖池塘邊緣更加清晰,這得益于U-Net模型在上采樣部分與跳躍連接相結合,逐層融合高層特征和低層特征,填充了一些局部細節,但在復雜場景下,與養殖池塘光譜特征相似的海水、湖泊、水庫、河流等仍被錯誤歸類,這是因為養殖池塘的形狀和大小不一,而且存在大量的細節信息。U-Net 模型在處理這些復雜目標時會出現過度擬合或欠擬合的問題,導致分割精度下降。而本文所提出的改進U-Net模型結合了DC結構,降低模型訓練中的過擬合風險,充分考慮了養殖池塘的多尺度信息,能夠更好地捕捉圖像中的細節特征,增強了圖像有用信息的表達。從表2 也能明顯地看到,改進U-Net 模型的精確率、召回率、交并比和F1 分數分別為91.73%、90.47%、91.12%和89.91%,要明顯優于FCN、E-Net、U-Net 三種模型。綜上,本文的方法能夠解決其他三種模型在提取養殖池塘過程中存在的問題,實現養殖池塘快速、準確的提取。

4 結語

本文基于U-Net模型改進提出了一個近海水產養殖池塘自動提取模型,并用本文提出的新DC 結構替代了U-Net 模型的卷積層,它能夠增強模型對圖像特征的表達能力,降低冗余信息的干擾。實驗結果表明,改進U-Net模型在精確率、召回率、交并比和F1 分數上都優于FCN、E-Net、U-Net 這三個模型,其中,精確率、召回率、交并比都達到90%以上,并且改進U-Net模型提取的養殖池塘邊緣更為清晰。因此,本文的方法能夠有效提高養殖池塘提取精度,為遙感圖像自動分割提供了參考意義。

今后,我們將在以下兩個重要方向繼續開展研究:①將探索該模型在光譜信息極弱的遙感圖像上對養殖池塘的提取效果;②利用不同來源、不同分辨率的遙感數據集,研究模型對不同數據集的有效性。

猜你喜歡
特征結構實驗
記一次有趣的實驗
《形而上學》△卷的結構和位置
哲學評論(2021年2期)2021-08-22 01:53:34
如何表達“特征”
論結構
中華詩詞(2019年7期)2019-11-25 01:43:04
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
論《日出》的結構
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 1024国产在线| 亚洲黄色网站视频| a欧美在线| 一级不卡毛片| 国产精品污视频| 精品一区国产精品| 日本国产一区在线观看| 欧美精品在线免费| 婷婷五月在线| 欧美日本激情| 国产成人精品一区二区| 欧美精品在线免费| 国内精品视频| 又粗又大又爽又紧免费视频| 欧美a在线看| 久久香蕉国产线看观看精品蕉| 日韩精品专区免费无码aⅴ| 日本黄色不卡视频| 久久毛片网| 日韩欧美亚洲国产成人综合| 欧美成人免费一区在线播放| 中文字幕亚洲综久久2021| 亚洲国产AV无码综合原创| 亚洲天堂在线免费| 亚洲91在线精品| 国产精品亚洲片在线va| 久热re国产手机在线观看| 欧美在线观看不卡| 波多野结衣无码AV在线| 久久久久久尹人网香蕉| 国产91精品最新在线播放| 在线国产毛片| 国产精品私拍在线爆乳| 国产乱子伦一区二区=| 日韩天堂在线观看| 91午夜福利在线观看| 毛片久久网站小视频| 国产成人精品一区二区秒拍1o| 精品综合久久久久久97超人| 亚洲中文字幕日产无码2021| 91人妻日韩人妻无码专区精品| 亚洲伊人电影| 国产亚洲精久久久久久无码AV| 免费国产黄线在线观看| 久久精品国产免费观看频道| 91人人妻人人做人人爽男同 | 亚洲中文在线看视频一区| 亚洲电影天堂在线国语对白| 久久国产精品波多野结衣| 国产精品hd在线播放| A级全黄试看30分钟小视频| 99伊人精品| 免费啪啪网址| 国产美女在线观看| 国产乱肥老妇精品视频| 午夜免费小视频| 久久人妻系列无码一区| 成人无码一区二区三区视频在线观看| 久久国产精品嫖妓| 中美日韩在线网免费毛片视频| 在线看片中文字幕| 国产免费羞羞视频| 91在线日韩在线播放| 精品国产乱码久久久久久一区二区| 国产欧美日韩va另类在线播放| 亚洲aaa视频| 综合成人国产| 国产欧美视频在线| 91年精品国产福利线观看久久| 97成人在线观看| 国产日本视频91| 无码中字出轨中文人妻中文中| 伊人久久福利中文字幕| 波多野结衣第一页| 亚洲成人www| 18禁黄无遮挡免费动漫网站 | 丁香亚洲综合五月天婷婷| 天天躁夜夜躁狠狠躁图片| 免费A级毛片无码免费视频| 久久这里只有精品23| 久久99精品久久久久纯品| 久久精品无码一区二区国产区|