999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度學(xué)習(xí)在多時(shí)相大棚提取應(yīng)用研究

2020-12-26 02:57:24宋廷強(qiáng)張信耶李繼旭范海生孫媛媛劉童心
關(guān)鍵詞:特征信息方法

宋廷強(qiáng),張信耶,李繼旭,范海生,孫媛媛,宗 達(dá),劉童心

1.青島科技大學(xué) 信息科學(xué)技術(shù)學(xué)院,山東 青島266000

2.廣州歐比特人工智能研究院,廣東 珠海519080

1 引言

蔬菜大棚作為重要的農(nóng)業(yè)設(shè)施,可以延長蔬菜供應(yīng)周期,提高農(nóng)業(yè)產(chǎn)量。早期通過人工的方法獲取種植分布以及種植面積,這種方法效率低下,可靠性較低。現(xiàn)代地球觀測設(shè)備如衛(wèi)星、無人機(jī)每天都會(huì)產(chǎn)生大量的遙感數(shù)據(jù)。如何準(zhǔn)確、自動(dòng)化進(jìn)行遙感解譯(如大棚分布信息),進(jìn)而輔助政府決策具有重要的研究意義。

遙感影像解譯的準(zhǔn)確性依賴于圖像分類技術(shù)[1-2]。在過去研究中,針對(duì)單時(shí)間觀測影像,使用最大似然法(maximum likelihood)、神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)(SVM)以及面向?qū)ο蟮确诸愃惴ㄍ瓿沙鞘小⒌缆诽崛〉热蝿?wù)[3-8]。然而,植被、蔬菜大棚等地物受時(shí)間變化影響,光譜和紋理會(huì)發(fā)生改變。為解決時(shí)相問題,研究學(xué)者做了大量研究,其中Whitcraft 和Valero 等人根據(jù)物候?qū)W知識(shí),構(gòu)建時(shí)序系統(tǒng)用于時(shí)間特征的提取[9-10]。Guo借助NDVI(植被指數(shù))構(gòu)建時(shí)間序列進(jìn)行糧食產(chǎn)量預(yù)估[11-12]。雖然這些方法取得不錯(cuò)的結(jié)果,受限于傳統(tǒng)模式識(shí)別方法特征設(shè)計(jì)繁瑣、泛化能力不足[13],如何充分利用時(shí)間、空間以及光譜信息提高遙感分類精度仍然面臨挑戰(zhàn)。

近年來,深度學(xué)習(xí)快速發(fā)展,F(xiàn)CN[14]、CRF-FCN[15]、U-net[16]以及Segnet[17]等語義分割網(wǎng)絡(luò)在無人駕駛[18]、地理信息系統(tǒng)、醫(yī)學(xué)圖像分析[19]、遙感影像地物識(shí)別[20-24]等領(lǐng)域得到了廣泛應(yīng)用。特別的,針對(duì)小數(shù)據(jù)集,楊建宇等人選用Segnet 網(wǎng)絡(luò)在遙感數(shù)據(jù)集上獲得不錯(cuò)的效果[25]。基于U-net網(wǎng)絡(luò)分割方法同樣在遙感圖像上有著不錯(cuò)的表現(xiàn)[26-27]。2017 年Chen 等人提出Deeplabv3+網(wǎng)絡(luò)[28],該模型嘗試編解碼結(jié)構(gòu),在PASCAL VOC 2012取得最高準(zhǔn)確率,針對(duì)遙感影像分類同樣具有很高的準(zhǔn)確率[29-31]。針對(duì)時(shí)序問題,具有代表性的RNN、LSTM網(wǎng)絡(luò)成功應(yīng)用在語言翻譯、天氣預(yù)測等領(lǐng)域[32-33]。但是到目前為止,使用多時(shí)相深度學(xué)習(xí)模型用于遙感地物提取的研究并不成熟,雖然Ru?wurm 等人嘗試使用LSTM實(shí)現(xiàn)多時(shí)相的遙感分類,在公共數(shù)據(jù)集上取得了不錯(cuò)的效果[34]。但是,遙感影像包含信息豐富,多時(shí)相、空間、光譜等信息并沒有充分利用,并且公共數(shù)據(jù)集并不能很好地反映實(shí)際應(yīng)用情況。考慮到地物類型、復(fù)雜環(huán)境、時(shí)間等影響因素,本文提出了一種多時(shí)相語義分割網(wǎng)絡(luò)用于蔬菜大棚提取,除了考慮時(shí)間特性,還融合空間信息和光譜信息以提高分類精度。該模型在經(jīng)過變換后的多時(shí)相GF-2 衛(wèi)星影像數(shù)據(jù)集上訓(xùn)練,與傳統(tǒng)方法以及流行的深度學(xué)習(xí)分割模型相比,本模型識(shí)別精度較高。

圖1 GF-2圖像融合

2 相關(guān)工作

2.1 數(shù)據(jù)源

數(shù)據(jù)源選擇空間分辨率為0.8 m的GF-2衛(wèi)星影像,GF-2 影像主要由全色圖像和多光譜影像組成,預(yù)處理包括輻射校正、大氣校正、正射校正以及融合。其中,輻射校正和大氣校正將灰度值轉(zhuǎn)換為光譜反射率。正射校正用于糾正偏差引起的幾何和環(huán)境影響。以上使用ENVI5.3(The Environment for Visualizing Images)軟件完成。融合過程采用Pan sharpening算法,通過Python編程實(shí)現(xiàn),融合后為4通道的高分辨率圖像(如圖1所示)。

2.2 數(shù)據(jù)集

根據(jù)野外調(diào)查獲取的經(jīng)緯度信息截取感興趣區(qū)域,數(shù)據(jù)包含高密市的7組共21張影像(每組包含3張多時(shí)相影像,分別為1月份、4月份和11月份拍攝)。每張影像2 000×2 000 像素,背景像素標(biāo)記為0,蔬菜大棚像素標(biāo)記為1。

數(shù)據(jù)擴(kuò)充提供深度學(xué)習(xí)所需的不變性和魯棒性。對(duì)影像進(jìn)行翻轉(zhuǎn)、顏色增強(qiáng)、添加噪聲等操作。每張影像裁剪成512×512大小,由于高空間分辨率影像對(duì)噪聲敏感,下采樣到256×256 尺寸模糊噪聲,標(biāo)簽也進(jìn)行相應(yīng)的變換。擴(kuò)充后的影像和標(biāo)簽根據(jù)序號(hào)和拍攝時(shí)間保存到相應(yīng)文件夾中。最終訓(xùn)練數(shù)據(jù)包含12 039 張影像(256×256),按7∶3的比例劃分為訓(xùn)練集和測試集。

3 方法

3.1 LSTM

流行的前饋網(wǎng)絡(luò)主要由卷積層或者全連接層組成,輸入數(shù)據(jù)為xt,經(jīng)過前向傳播,仿射變換得到h(z),其中h(z)=h(θTxi+b),對(duì)于時(shí)序數(shù)據(jù),這樣的結(jié)構(gòu)對(duì)于上下文信息的特征表達(dá)能力差。許多研究者證明了RNN在處理多時(shí)序數(shù)據(jù)上的有效性[35-36],但是隨著網(wǎng)絡(luò)的不斷加深,梯度爆炸和梯度消失問題使得網(wǎng)絡(luò)記憶的信息越來越少,Hochreiter和Schmidhube等人提出的RNN的變體LSTM網(wǎng)絡(luò)[37-38],通過‘門’控制記憶的時(shí)間,使得整個(gè)網(wǎng)絡(luò)可以長時(shí)間記憶信息,其整體結(jié)構(gòu)如圖2所示。

圖2 LSTM網(wǎng)絡(luò)結(jié)構(gòu)

圖2 顯示LSTM 單元網(wǎng)絡(luò)結(jié)構(gòu),每個(gè)LSTM 單元由輸入門、遺忘門、輸出門組成。首先,yt-1和xt經(jīng)過一個(gè)Sigmoid函數(shù)與內(nèi)部狀態(tài)信息Ct-1相乘,當(dāng)值為0時(shí),表示完全舍棄,當(dāng)值為1 時(shí),表示完全保留。該網(wǎng)絡(luò)內(nèi)部數(shù)學(xué)關(guān)系表示為:

其中,yt-1表示上一個(gè)單元的輸出,θf表示學(xué)習(xí)的參數(shù)。然后yt-1和xt分別經(jīng)過tanh 和sigmoid 來決定信息是否需要更新,與內(nèi)部狀態(tài)信息Ct-1呈加性關(guān)系,其數(shù)學(xué)表達(dá)式為:

Ct表示更新后的內(nèi)部狀態(tài)信息。最后,更新后的內(nèi)部狀態(tài)信息與yt-1和xt共同計(jì)算出LSTM 單元的輸出,表示為:

yt和狀態(tài)信息Ct作為輸入傳入到下一個(gè)LSTM單元中以此不斷更新所提取的信息,通過反向傳播來更新參數(shù)。

3.2 基于Patch-LSTM的時(shí)序網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)通過卷積加和運(yùn)算可以有效地融合圖像的光譜信息(遙感影像由多個(gè)光譜疊加而成)。3.1節(jié)介紹的LSTM可以通過記憶的方式保留時(shí)序信息,但是在壓縮圖像生成時(shí)序向量過程中空間信息被破壞。因此,為解決LSTM無法充分利用圖像的空間信息的局限性,本文設(shè)計(jì)了一種基于補(bǔ)丁的Patch-LSTM 結(jié)構(gòu)(如圖3所示)。

圖3 Patch-LSTM網(wǎng)絡(luò)結(jié)構(gòu)

網(wǎng)絡(luò)的輸入是時(shí)序圖像,分別對(duì)應(yīng)不同拍攝時(shí)間。針對(duì)每一組時(shí)序圖像,截取Patch區(qū)域(不同時(shí)序相同區(qū)域),生成時(shí)序向量x1、x2、x3。考慮計(jì)算量,每個(gè)Patch區(qū)域的尺寸設(shè)為5×5 大小,因此生成時(shí)序向量長度為(25,1)。LSTM 采用多對(duì)1 的結(jié)構(gòu),即多個(gè)輸入1 個(gè)輸出,時(shí)序向量x1,x2,x3分別輸入到LSTM 單元,輸出向量經(jīng)過Reshape生成區(qū)域特征圖。每一塊區(qū)域特征圖信息包含對(duì)應(yīng)時(shí)序圖像Patch 區(qū)域的疊加信息,重復(fù)操作直到獲得完整的輸出特征圖。為直觀展示時(shí)相特征,特征圖進(jìn)行了可視化(如圖4所示),第一列是不同時(shí)期的時(shí)序圖像,后面是對(duì)應(yīng)不同階段的特征圖可視化結(jié)果(特征圖可視化結(jié)果通過時(shí)序向量Reshape保存輸出),可以看出不同時(shí)期蔬菜大棚的特征差異明顯。通過Patch-LSTM 時(shí)序網(wǎng)絡(luò)可以將不同時(shí)相特征進(jìn)行融合,充分保留各個(gè)時(shí)相的特征,提升特征表達(dá)能力。

圖4 特征圖可視化

3.3 基于Patch-LSTM的時(shí)序的語義分割網(wǎng)絡(luò)

基于3.2節(jié)介紹Patch-LSTM,本文的語義分割模型(MSSN)如圖5所示。

圖5 MSSN語義分割網(wǎng)絡(luò)

整體結(jié)構(gòu)分為Patch-LSTM、CNN 和ASSP 組成的編碼器以及反卷積和skip-layer組成的解碼器。

和全連接層一樣,Patch-LSTM 可以看做特征的線性表達(dá),因此信息的表達(dá)能力不如CNN。編碼階段,在Patch-LSTM 模塊后接CNN 模塊以提高網(wǎng)絡(luò)的特征表達(dá)能力。研究證明CNN 的池化層會(huì)導(dǎo)致分辨率的下降,不利于特征的保留而且CNN對(duì)微小平移和變形的穩(wěn)定性與池化層無關(guān)[39-40]。因此,本文嘗試使用stride=2的卷積替代池化層,實(shí)現(xiàn)特征圖尺寸的減小。

多尺度指的是圖像的局部特征在不同尺度上的描述。通過單一尺寸特征圖預(yù)測,網(wǎng)絡(luò)對(duì)于目標(biāo)的大小較為敏感。ASPP 模塊受到空間金字塔啟發(fā),它將不同大小的區(qū)域重新采樣到任意大小,以解決網(wǎng)絡(luò)對(duì)目標(biāo)大小的敏感性[41]。結(jié)構(gòu)上,ASSP 由四個(gè)不同膨脹率的空洞卷積級(jí)聯(lián)而成,后接全局平均池化層(GAP)融合尺度信息。Yu 等人證明,空洞卷積有效增加神經(jīng)元的感受野[42]。感受野的計(jì)算公式如下:

其中,rk為第k層的感受野大小,si代表步長。假定卷積核為3×3,經(jīng)過空洞率分別為[1,2,4]的三個(gè)空洞卷積操作之后,共獲得15×15感受野,而經(jīng)過3個(gè)常規(guī)卷積操作只有7×7感受野。因此,使用空洞卷積具有更大的感受野,意味著神經(jīng)元包含更多的特征信息。

在解碼階段,低分辨率的語義信息可以投影到高分辨率像素上,實(shí)現(xiàn)密集分類。通常編碼階段下采樣過程會(huì)導(dǎo)致信息的丟失,跳連結(jié)構(gòu)可有效融合編解碼特征。具體的,ASSP 生成的特征圖經(jīng)過反卷積層(上采樣)之后與編碼器(相同尺寸)的特征圖進(jìn)行拼接(concatenc),融合后的特征圖通道數(shù)增加并且同時(shí)包含解碼的特征以及編碼丟失的特征,使得特征圖還原更加準(zhǔn)確。另外,多次實(shí)驗(yàn)發(fā)現(xiàn)參數(shù)學(xué)習(xí)的反卷積層相比簡單的雙線性插值計(jì)算更適合高精度的特征圖還原。因此,上采樣采用反卷積層。

3.4 網(wǎng)絡(luò)訓(xùn)練

Softmax分類器可將數(shù)值轉(zhuǎn)化概率向量[43]。對(duì)圖像而言,每個(gè)像素通過前向傳播計(jì)算對(duì)應(yīng)數(shù)值Softmax 分類器分別對(duì)每個(gè)像素計(jì)算類別概率,生成和類別數(shù)量相同的概率特征圖。最后選取最大概率輸出即為真實(shí)預(yù)測類別。Softmax函數(shù)定義如下:

其中,zi表示網(wǎng)絡(luò)的輸出。公式(5)表明Softmax 函數(shù)輸出多個(gè)類別概率(0~1 之間)并且概率的總和為1,這意味著類別之間有更好的對(duì)抗學(xué)習(xí)能力。損失函數(shù)反映網(wǎng)絡(luò)的誤差,像素級(jí)的交叉熵?fù)p失函數(shù)(categorical_crossentropy)廣泛應(yīng)用在分割網(wǎng)絡(luò)中[44-45]。交叉熵?fù)p失函數(shù)定義為:

其中,ypre(x(i),θ)是網(wǎng)絡(luò)的輸出,是真實(shí)標(biāo)簽。梯度下降算法通過反向傳播計(jì)算梯度,從而優(yōu)化損失函數(shù)[46-47]。選擇目前應(yīng)用最廣泛的自適應(yīng)的Adam優(yōu)化算法進(jìn)行權(quán)重更新[48]。進(jìn)一步探討交叉熵?fù)p失函數(shù)利于反向傳播過程,對(duì)公式(6)求導(dǎo)得到公式(7):

從公式(7)中可以看出,當(dāng)輸出與真實(shí)標(biāo)簽有較大差異時(shí),梯度更新較快,反之則較慢。另外,梯度計(jì)算非常簡單,反向傳播更加迅速。其他參數(shù)設(shè)置如表1所示。

表1 網(wǎng)絡(luò)參數(shù)設(shè)置

4 實(shí)驗(yàn)討論

該模型在ubuntu16.04 系統(tǒng)上進(jìn)行了訓(xùn)練,使用NVIDIA GeForce Titan X圖形設(shè)備,圖形內(nèi)存為12 GB。該網(wǎng)絡(luò)由開源框架Keras和Tensorflow實(shí)現(xiàn)。為了證明所設(shè)計(jì)網(wǎng)絡(luò)的有效性,本文建立了兩組實(shí)驗(yàn),一組是和傳統(tǒng)遙感分類方法的比較,另一組是和基于深度學(xué)習(xí)的語義分割模型方法的比較。

目前傳統(tǒng)分類算法SVM 廣泛應(yīng)用于遙感分類,該算法通過核函數(shù)將數(shù)據(jù)映射到高維空間從而進(jìn)行分類。另外,多尺度分割結(jié)合閾值分割算法是目前通用的面向?qū)ο蠓椒ǎ紫炔捎枚喑叨确指钏惴ǐ@得連通區(qū)域,再選擇像素點(diǎn)、紋理、形狀等信息進(jìn)行閾值分割。以上兩種方法在Envi 和易康軟件上實(shí)現(xiàn)。表2 給出了本文方法(MSSN)、SVM 以及面向?qū)ο蠓椒ǖ木仍u(píng)估對(duì)比。

表2 傳統(tǒng)遙感分類方法比較

表2列出了不同方法的精度評(píng)價(jià)。結(jié)果表明,本文方法(MSSN)在Precision、F1 以及Kappa 都獲得最高的數(shù)值。F1 為95%,比面向?qū)ο蠓椒ㄌ岣吡?%,比SVM提高了13%。

U-net 和Deeplabv3+是目前流行的語義分割模型,在各種衛(wèi)星圖像數(shù)據(jù)集上都取得了良好的成績。深度學(xué)習(xí)與傳統(tǒng)的遙感分割方法有著不同的工作原理。因此,為了從多角度驗(yàn)證所提方法的有效性,將本文方法與U-net(vgg16)和Deeplabv3+(Xception)深度語義分割模型進(jìn)行比較。為保證測試數(shù)據(jù)和訓(xùn)練數(shù)據(jù)不同,測試數(shù)據(jù)中選取了1 張尺寸為5 000×5 000 的2017 年GF-2影像,裁剪到256尺寸用于網(wǎng)絡(luò)預(yù)測。隨機(jī)選取三張用于測試,預(yù)測結(jié)果如圖6所示。

圖6 深度學(xué)習(xí)分割網(wǎng)絡(luò)結(jié)果

從圖6 可以看出本文方法在信息的完整度和邊緣提取效果上都優(yōu)于U-net 和Deeplabv3+原版,針對(duì)分割任務(wù),除了Precision和F1指數(shù)之外,還加入前景交并比(IoU)評(píng)價(jià)模型以及預(yù)測時(shí)間(256×256)。由表3所示,本文的Precision、F1和IoU最高,分別為0.952 5、0.925 6和0.938 6。與U-net 網(wǎng)絡(luò)相比,U-net 網(wǎng)絡(luò)預(yù)測用時(shí)更快,但本文方法Precision提高了3%,IoU提高了4%。與原始Deeplabv3+網(wǎng)絡(luò)相比,預(yù)測速度相同,由于本文模型充分利用了空間信息、時(shí)序信息以及光譜信息,所以Precision、F1和IoU都得到很大的提升。

表3 深度學(xué)習(xí)模型的對(duì)比評(píng)價(jià)

5 結(jié)束語

本文提出了一種改進(jìn)的多時(shí)相語義分割網(wǎng)絡(luò)(MSSN)用于蔬菜大棚提取。針對(duì)季節(jié)性對(duì)蔬菜大棚的影響以及空間信息丟失問題,本文設(shè)計(jì)了Patch-LSTM模型,針對(duì)單一尺度問題,網(wǎng)絡(luò)采用ASSP 可以實(shí)現(xiàn)不同尺度的特征提取。由于模型充分利用了圖像的空間信息、時(shí)序信息以及光譜信息,在與傳統(tǒng)遙感分割方法以及流行的深度學(xué)習(xí)方法比較中,該模型在大棚提取任務(wù)中具有出色的表現(xiàn)。該模型并不針對(duì)大棚這一類地物,可以作為地物提取的基準(zhǔn)模型。但是面對(duì)更大的范圍,例如全國范圍的遙感影像的大棚提取,構(gòu)建樣本數(shù)據(jù)庫顯得尤為重要。到目前為止很少有公開的遙感數(shù)據(jù)集,遙感數(shù)據(jù)集的制作需要實(shí)地探測和人工標(biāo)注,需要耗費(fèi)大量時(shí)間和人力。數(shù)據(jù)回灌技術(shù)即標(biāo)注一部分?jǐn)?shù)據(jù),通過小型網(wǎng)絡(luò)訓(xùn)練獲得輔助標(biāo)簽,也是一種未來可以嘗試的方法。另外,面對(duì)巨大的數(shù)據(jù)量,網(wǎng)絡(luò)的耗時(shí)也是未來考慮的問題。

猜你喜歡
特征信息方法
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
展會(huì)信息
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 亚洲精品天堂自在久久77| 午夜限制老子影院888| 国产精品第一区| 无遮挡国产高潮视频免费观看| 亚洲欧美日韩天堂| 亚洲国产精品久久久久秋霞影院| 日韩免费毛片视频| 日韩精品无码一级毛片免费| 国产成人无码久久久久毛片| 99一级毛片| 免费99精品国产自在现线| 亚洲无码精品在线播放| 国产网站免费看| 亚洲天堂啪啪| 国产激爽爽爽大片在线观看| 欧美性爱精品一区二区三区| 中文字幕在线看| 四虎永久在线精品影院| 中文国产成人久久精品小说| 免费一级毛片在线播放傲雪网| 色偷偷综合网| 精品国产毛片| 狠狠亚洲五月天| 久久久久亚洲AV成人人电影软件 | 国产成人三级| 国产爽歪歪免费视频在线观看| 天天躁夜夜躁狠狠躁图片| 亚洲日本一本dvd高清| 91精品国产91久无码网站| 国产在线观看91精品| 制服丝袜无码每日更新| 亚洲天堂视频在线免费观看| 午夜国产不卡在线观看视频| 人妻中文久热无码丝袜| 狠狠色狠狠综合久久| 日本久久网站| 欧美一区二区福利视频| 婷婷久久综合九色综合88| 国产免费观看av大片的网站| 青草午夜精品视频在线观看| 亚洲国产精品久久久久秋霞影院| 久久成人18免费| 亚洲欧洲天堂色AV| 不卡网亚洲无码| 久久96热在精品国产高清| 国产一级毛片高清完整视频版| 99re在线观看视频| 国产成人艳妇AA视频在线| 国语少妇高潮| 精品免费在线视频| h视频在线观看网站| 少妇极品熟妇人妻专区视频| 国产三级成人| 91极品美女高潮叫床在线观看| 国产欧美日韩精品综合在线| a毛片在线播放| 国产无套粉嫩白浆| 天天爽免费视频| 免费高清a毛片| 国产人人射| 国产在线一区二区视频| 国产成人亚洲综合A∨在线播放| 国产成年无码AⅤ片在线| 五月婷婷激情四射| 首页亚洲国产丝袜长腿综合| 欧美在线一二区| 欧美亚洲日韩不卡在线在线观看| 97在线碰| 精品第一国产综合精品Aⅴ| 亚洲色偷偷偷鲁综合| 91精品国产一区| 婷婷色在线视频| 美女被操黄色视频网站| 欧美黄网站免费观看| 在线观看免费黄色网址| 久久精品嫩草研究院| 亚洲va在线∨a天堂va欧美va| 一级毛片在线播放免费| 亚洲天堂视频在线观看免费| 国产一区二区三区精品久久呦| 亚洲精品无码AⅤ片青青在线观看| 午夜免费小视频|