999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于IM-SSD+ACO算法的整株大豆表型信息提取

2021-02-14 01:56:00陳海濤趙秋多王業成
農業機械學報 2021年12期
關鍵詞:大豆檢測模型

寧 姍 陳海濤 趙秋多,2 王業成

(1.東北農業大學工程學院, 哈爾濱 150030;2.黑龍江科技大學工程訓練與基礎實驗中心, 哈爾濱 150022)

0 引言

種質資源是大豆品質和產量的基礎,大豆考種是大豆作物表型組學研究中種質資源鑒定與篩選的重要方法之一。作物表型組學研究能夠獲得高質量、高精度和可重復性的植物表型數據[1-2]。然而,傳統大豆考種工作主要依靠人工,在考種過程中需要消耗大量的人力物力。同時,人工操作還存在人為主觀誤差、效率低、時間周期長等問題。人工考種的方式已經制約了植物生物學研究的發展,隨著機器視覺技術的飛速發展,采用高效率、低誤差、低成本的自動化表型信息檢測平臺獲取植物表型信息已成為農業領域研究熱點且具有巨大潛力[3]。植物表型采集平臺按照搭載方式可分為臺式、傳送帶式、車載式、自走式、門架式、懸索式以及無人機式植物表型平臺;按照使用環境分為室內植物表型平臺和田間植物表型平臺。大豆考種是對成熟后的大豆植株和籽粒性狀調查的田間試驗環節,目的是了解不同品種或不同處理因素對植株性狀及籽粒的影響,從而分析掌握不同品種、不同處理因素的作用。其中,室內考種通常包括植株考種和籽粒考種兩部分[4]。本文研究的是室內植株考種,其調查項目包括株高、有效分枝數、主莖、株型及全株莢數。

近年來,基于深度學習的目標檢測在農業領域得到了廣泛的應用,如大豆豆莢識別[5]、雜草的田間識別[6]、番茄關鍵器官識別[7-8]、獼猴桃圖像識別[9-10]、蛋類識別[11]等。深度卷積神經網絡[12-16](Deep convolution neural network, DCNN)是深度學習中較為常用的網絡模型,在目標檢測方面的應用非常廣泛并顯現出巨大的優越性,它主要包括兩大類:一類是基于區域生成的檢測方法,即根據生成可能包含目標的候選區域采用卷積神經網絡(Convolution neural network,CNN)對每個候選區域進行分類,如RCNN[17]、Fast R-CNN[18]、Faster R-CNN[19];另一類是基于回歸的檢測方法,采用CNN對整個圖像進行處理,在實現目標定位的同時預測目標類別,如YOLO[20]、YOLO v2[21]、SSD[22]。

LIU等[22]對Faster R-CNN、YOLO、SSD300、SSD512進行了比較,YOLO的實時性較好,但準確率相對SSD低。REDMON等[20]將YOLO v2與SSD進行比較,它們有較相似的整體框架,但在低分辨率圖像上SSD精度略高,SSD對GPU資源占用率較低。SSD通過anchor boxes機制,在不同尺度感受野的特征層上提取特征,回歸計算得到目標的空間信息以及分類結果,進而提升準確率。然而,如果將SSD直接應用于大豆植株的豆莢與莖稈的定位與識別,其檢測精度受到豆莢與豆莢、豆莢與莖稈之間相互遮擋影響較大,在檢測重疊、遮擋等特殊情況時易出現漏檢、誤檢等情況。針對傳統SSD的缺陷,本文提出一種增加殘差結構的IM-SSD模型,在網絡的中低層部分引入殘差結構,將低層的細節傳到高層進行融合,調整基礎網絡結構,提高識別準確率。

在植物莖稈定位與識別研究中,深度學習算法常常需要與其它算法相結合來準確提取莖稈[23],本文采用IM-SSD模型對大豆植株莖稈分段識別和定位,再結合蚊群優化(Ant colony optimization, ACO)算法提取大豆植株的完整莖稈,根據豆莢與莖稈的定位獲取全株莢數、株高、主莖、有效分枝數與株型。

1 材料與方法

1.1 數據采集

試驗大豆樣本為收獲期的大豆植株,包括東農52、東農251、東農252和東農253共4個品種,均來自于東北農業大學向陽農場試驗基地,分別在2017年9月底和2018年10月初分兩次采集。試驗樣本圖像采集采用大豆植株圖像表型檢測平臺,如圖1所示,該檢測平臺采用佳能5D Mark Ⅱ型相機搭配佳能EF 24~105 mm 1∶4 L IS USM型變焦鏡頭,垂直固定于距放置植株的采集平臺2 000 mm處,照明系統采用高角度照明方式,為DPX-400型工作室閃光燈,指數為GN66,色溫為5 500 K,輸出量為0.375,柔光箱長、寬、高為1 200、800、450 mm。拍攝圖像的分辨率為5 616像素×3 744像素,焦點為55 mm,光圈值f/11,曝光時間0.005 s,ISO為100,曝光補償為0。在植株表型檢測中,葉片不作為檢測目標,為避免葉片可能產生的誤識別及遮擋等問題,樣本采集前,將大豆植株上未脫落的葉片清理干凈。同時為減少復雜背景的干擾,植株采集平臺以藍色無紡布為背景,采集時將大豆植株平放并將植株子葉結與采集平臺的子葉結基準線對齊。最后,批量剪切圖像尺寸為5 400像素×2 700像素,圖像背景處理采用RGB彩色模型并根據每個像素的R、G、B分量的亮度來判定是否為背景,如果B分量的亮度大于其它兩個分量,則視該像素為背景,如圖2所示,圖像保存為.jpg格式。

1.2 數據集標注

為實現對IM-SSD模型的訓練,本文使用圖像標注工具Windows v1.6.0對植株上的豆莢和莖稈分別進行定位及標記,豆莢為“pod”類,莖稈為“stem”類。由于豆莢與豆莢、豆莢與莖稈的相互遮擋,對豆莢和莖稈的識別和定位影響較大,而豆莢尖部的相互遮擋概率相對較小,為了減少相互遮擋的影響,在真實框標注中僅標注豆莢尖部即遠離莖稈的1/3至1/2部分,具體標注范圍視被遮擋情況而定。莖稈標注采用分段標注,僅標注未被遮擋的部分,因為未被遮擋的莖稈易于識別與定位,大豆植株標注如圖3所示。

1.3 數據集處理

圖像樣本總量為3 695幅,按7∶2∶1分成訓練集、測試集和驗證集,訓練集樣本2 600幅、測試集樣本735幅、驗證集樣本360幅。訓練集和測試集分別用于訓練和評估模型。在模型訓練過程中,利用驗證集對超參數進行優化。為保證樣本集的均勻分布及評價的可靠性,所有樣本集均為隨機抽取。

為降低顏色變化、拍攝角度、生長狀態等對識別的影響,提高檢測精度[24-25],實現模型的魯棒性,通過以下幾種方式對訓練數據進行擴增。采用RGB顏色3通道對訓練集圖像進行隨機調整,以提高圖像顏色的多樣性。對訓練集圖像進行水平、垂直和對角翻轉、隨機旋轉和平移操作。將所有變換后的訓練集樣本進行整理,如果變換后樣本圖像的標注框超出邊界,該標注框將被丟棄,如果變換后圖像丟棄標注后沒有標注信息,則刪除圖像。

1.4 IM-SSD卷積神經網絡模型

SSD網絡是在VGG16[26]網絡的基礎上進行修改,在VGG16網絡結構上增加了5個特征提取層,同時分別在6個不同尺度的卷積層輸出特征圖,目的是對不同尺度的目標進行檢測。傳統SSD網絡主要包括SSD300和SSD512,其輸入圖像分別被壓縮為300像素×300像素、512像素×512像素,這種壓縮比對于植株圖像的壓縮變形大,為降低圖像變形帶來的影響,IM-SSD的輸入圖像被壓縮為300像素×600像素。另外,傳統SSD在檢測重疊、遮擋等情況下的豆莢時易出現漏檢、誤檢。針對傳統SSD的缺點,IM-SSD在網絡的中低層部分引入殘差結構,將低層的細節傳到高層進行融合,調整基礎網絡,提高識別率。

IM-SSD結構在SSD深度卷積神經網絡結構的基礎上增加了2個卷積層:Add1層,由Maxpool2和Conv3_2按位相加并歸一化(Batch normalization,BN)[27];Add2層,由Maxpool3和Conv4_2按位相加并歸一化,其結構如圖4所示,紅色的層為卷積核3×3的卷積層,綠色的層為卷積核1×1的卷積層,藍色的層為最大池化層,步長為2。增加殘差結構的卷積層能夠提高網絡對小目標的檢測能力,從而提升被遮擋或重疊豆莢的識別率。

IM-SSD采用特征金字塔檢測目標,分別對Conv4_3層、Conv7層、Conv8_2層、Conv9_2層、Conv10_2層和Conv11_2層生成比例不同的默認框,每一類共生成17 236個檢測框,使用非極大值抑制(Non-maximum suppression, NMS)[28]過濾重復的預測框。在多個特征圖上同時進行識別和定位回歸,損失值L由置信損失值(Lconf)和定位損失值(Lloc)的加權組成[22],計算式為

(1)

(2)

(3)

(4)

式中N——匹配的默認框數

x——類別的真實值

c——類別置信度的預測值

l——預測框位置

g——真實框位置

α——加權因子

cx——預測框中心x坐標

cy——預測框中心y坐標

w——預測框寬度

h——預測框高度

f(·)——平滑函數

Neg——負樣本集

Pos——正樣本集

(5)

(6)

(7)

σ——光滑度控制系數

1.5 基于ACO算法的大豆莖稈提取

IM-SSD對植株莖稈的定位是不連續的,不能完全反映真實的莖稈形態。本文提出了一種基于ACO算法的完整莖稈提取方法,該方法利用IM-SSD已定位莖稈的數據,以及莖稈的連續性特點,運用ACO算法獲取最短路徑將分段莖稈連接起來最終獲得完整的莖稈。ACO算法對路徑搜索空間有一定要求,如果搜索空間大、復雜度高,螞蟻易陷入非可行點或規劃路徑迂回等問題。通過IM-SSD的莖稈定位,根據已定位莖稈的坐標數據對二值圖像進行剪切,為減小柵格地圖的規模,將剪切圖像分為3部分,如圖5所示。3部分圖像運用等間隔像素采樣的方法將圖像壓縮成z×z柵格并形成柵格地圖,如圖6所示。此外,每個部分都根據已定位莖稈的位置設置多個起點和終點,為降低算法的復雜度,將信息素存儲在柵格中。

在ACO的柵格模型中采用二進制,其中“1”表示非植株柵格,“0”表示植株柵格。每個柵格按照從上至下、從左到右的順序進行編號。

柵格地圖與植株二值圖像的二維坐標(x′,y′)轉換式為

(8)

式中r——柵格包含的像素行數,列數和行數相等

n——柵格數目

R——當前行數

mod(·)——取余函數

ceil(·)——取整函數

ACO是一種進化智能啟發式搜索算法,用于尋找螞蟻從居住地到食物源的最短路徑[29-30]。螞蟻k從柵格i移動到下一個柵格j是基于距離和未被訪問柵格的信息素濃度。

迭代中,當每只螞蟻到達終點或出現死鎖時,搜索將停止。完成搜索后,保存所有到達終點螞蟻的搜索路徑長度。信息素濃度計算式為

(9)

其中

(10)

(11)

式中τij(st+1)——下一時刻從柵格i到下一個柵格j的信息量

m——螞蟻數量

ρ——信息揮發系數

st——當前時刻

Q——常量

Lk——螞蟻搜索的路徑長度

dOiOi+1——螞蟻一次移動的長度

Rk={O1,O2,…,On+1}是組成路徑的一組柵格,O1=S,On+1=E。從初始點到終點有多條可選路徑,路徑規劃可以得到一條最優或次優的可行路徑,最短路徑Lopt的數學模型為

Lopt=min(Lk)

(12)

最短路徑與大豆莖稈坐標轉換公式為

Ropt=min(Rk)

(13)

F(Ropt)=(k1ONi,k2ONj)

(14)

式中ONi——橫坐標值

k1、k2——橫坐標轉換系數

ONj——縱坐標值

Ropt——最優路徑

F——路徑轉換函數

2 試驗與結果分析

2.1 試驗環境與參數

本研究深度學習運行硬件環境為Intel(R)Core TM i7-9700K CPU,3.6 GHz,16 GB內存,3 TB硬盤,256 GB固態硬盤,NVIDIA GTX1080GPU顯卡,操作環境為Ubuntu 16.04系統、Anaconda 4.2.0、Tensorflow 1.4.0和Keras 2.0.8。

由于采集的訓練樣本數量有限,不足以訓練全新的網絡,同時也為了減少訓練時間,采用遷移學習[31-32]方法,使用Pascal-VOC“07+12”[33]20類數據集的網絡權重剪裁后對訓練集進行訓練。用隨機梯度下降算法對網絡分類層進行微調。加權因子α為0.8時,可降低局部損失因子對全局損失函數的影響。批處理量設置為32,動量衰減設置為0.9,初始學習率為0.01,每20次迭代驗證一次。根據平均損失的變化率,每次將學習率降低為原來的1/10,直至網絡不再收斂。

2.2 模型評價指標

采用3個全局指標和1個局部指標來評估網絡模型的穩定性和分類性能,分別為精確率(Precision,P)、假陰性率(False,F)、召回率(Recall,R)和交并比(Intersection over union,IoU)。其中,使用精確率和假陰性率來獲得測試集中的性能指標,召回率代表預測框與所有真實框匹配的比例,IoU評價每個目標檢測結果的指標。

在確定默認框的情況下,正樣本為IoU大于0.4的默認框。精確率是預測樣本為陽性樣本占所有陽性樣本的比例。假陽性是指被誤判為陰性的樣本。假陰性率是指被誤判的陽性樣本占所有陽性樣本的比例。

2.3 基于IM-SSD的豆莢和莖稈識別與定位

根據2.1節的模型參數,通過隨機抽取訓練樣本和驗證樣本的方式對IM-SSD模型進行訓練和性能評估,以判斷模型的可靠性和穩定性,經過4 200次迭代后收斂,其試驗結果如圖7所示。

大豆植株樣本I通過IM-SSD模型識別豆莢和莖稈的預測框分別為52、21個,如圖7a所示。其中,在豆莢檢測中有4個未被檢出,在莖稈檢測中多檢出2個、少檢出1個莖稈。大豆植株樣本Ⅱ的豆莢和莖稈預測框分別為75、31個,如圖7b所示。其中,在豆莢檢測中有7個未被檢出,在莖稈的檢測中多檢出3個、少檢出4個莖稈。從試驗結果可以看出,在豆莢的識別中,未重疊豆莢的識別率最高,相鄰豆莢次之,重疊豆莢識別率較差,被遮擋豆莢識別率最差。當豆莢由于拍攝或擺放角度產生變形時,容易被漏檢。因此,在全株豆莢數檢測時,增加全株豆莢數補償因子,全株豆莢數計算公式為

Ps=Pf+Pb

(15)

其中

Pb=0.08Pf

(16)

式中Pf——IM-SSD模型已檢測到的豆莢數目

Pb——補償因子

Ps——全株豆莢數

計算得到樣本Ⅰ的全株豆莢數檢測值為56個,樣本Ⅱ的全株豆莢數檢測值為81個。而在莖稈的識別過程中,中間部分多檢或少檢對莖稈的完整提取影響較小。IM-SSD模型對豆莢和莖稈的檢測精確率分別為89.68%和81.99%,平均檢測精確率為85.84%,豆莢的識別精確率高于莖稈。另外,通過增加豆莢數補償因子使全株豆莢數的統計精確率達到92.76%。

2.4 基于ACO的大豆植株莖稈提取

在莖稈完整提取試驗中,為了驗證ACO算法提取大豆莖稈的有效性,以其中一個驗證集樣本為例,將其分為3部分,3部分壓縮尺寸均以35×35的柵格作為蟻群規劃地圖。參數設置為:種群規模n=50,最大迭代T=200,α′=1,β′=7,ρ=0.3,Q=1。

在蟻群地圖中,將已定位柵格的最左側中“0”柵格作為起始柵格S,將最右側與起始柵格相對應的“0”柵格作為結束柵格E,分別對植株的每個分枝進行基于蟻群算法的路徑規劃,并根據路徑規劃結果獲得完整的植株莖稈定位,圖8為最優路徑規劃結果,圖9為最優路徑的收斂曲線。最終獲得的完整大豆植株莖稈的預測結果如圖10所示。

基于ACO算法的大豆植株莖稈提取同樣適用于具有較復雜分枝結構的大豆植株,如圖11所示。有效分枝數是指成熟期植株上有兩個以上莖節并有一個以上成熟豆莢的第1級分枝數。試驗中通過擬合的分枝個數確定植株的有效分枝數。在多分枝大豆植株中,與其它分枝相比主莖較粗,將平均莖粗最大的莖作為主莖,用不同顏色標出不同的分枝,其中藍色虛線標出主莖,圖10共2個有效分枝、圖11共4個有效分枝。株型的判斷是通過成熟期下部分枝與主莖的收斂程度確定,如圖12所示,下部分枝的生長方向與主莖的自然夾角為α1、α2、α3,當所有夾角的平均值小于30°則為收斂型,大于30°小于60°為半開張型,大于60°為開張型,其中圖10為收斂型,圖11為半開張型植株。株高是成熟期從子葉節到植株生長點的高度,如圖12所示,株高的計算是通過最頂端莖稈像素點到子葉結基準線的垂直距離乘以0.05,其株高的單位為mm,其中圖10的株高為992 mm,圖11的株高為875 mm。

2.5 不同網絡模型的對比試驗

利用大豆植株訓練集對3種網絡模型(SSD300、SSD512、IM-SSD)的性能進行評價,所有默認框的IoU大于0.4即為正樣本。經過4 200次迭代,損失曲線如圖13所示。在相同的網絡參數下,SSD300模型的網絡訓練初始損失誤差小,收斂速度快。而SSD512模型的初始損失誤差最大,收斂速度較快,但IM-SSD模型在3種模型中經過2 000次迭代后損失值最小。

將3種模型與植株真實值進行對比,其樣本均來自于驗證集,其中3種模型分別對豆莢和莖稈通過分段定位進行預測。由于人工檢測可能存在主觀誤差,為獲得植株的真實值,采用多次人工選莢和人工框選取莖稈的方法,即對所有驗證集樣本進行5次重復檢測,真實值為5次觀測選莢的數量結果中出現概率最多的數值,莖稈框選真實位置為5次框選中IoU最大的一次框選,結果如表1所示。從試驗結果可以看出,人工對豆莢和莖稈的檢測與定位的精確率最高,但人力和時間耗費較大,而文中模型通過樣本訓練后可自動對豆莢及莖稈定位,無需人工操作。另外,與SSD300網絡和SSD512網絡相比,IM-SSD平均檢測精確率分別提高了7.79、3.83個百分點,在3種模型中IM-SSD模型對大豆植株豆莢與莖稈的檢測更穩定、有效。

表1 3種模型與人工檢測結果的比較Tab.1 Comparison of three models and manual detection results %

2.6 基于ACO算法的莖稈表型特征數據分析

由IM-SSD模型得到的植株莖稈定位是不連續的非完整莖稈。本文提出了基于ACO算法并運用IM-SSD獲得莖桿定位來提取完整莖稈的方法能夠準確定位莖稈,并彌補IM-SSD的不足。同時,根據完整莖稈定位,提取出大豆植株的株高、有效分枝數和株型。將人工5次重復測量株高及有效分枝數、株型中出現次數最多的值作為真實值。人工檢測的單次株高、有效分枝數和株型的精確率分別為98.65%、99.12%、93.21%,運用完整莖稈定位提取的精確率分別為95.56%、96.12%、90.28%,其精確率均略低于人工測量。株型判斷的準確率較低的原因是受拍攝角度的影響,單一角度很難準確獲取復雜結構的植株分支夾角。人工檢測雖然有較高的精確率但消耗大量的人力物力且勞動強度高、時間周期長、對數量級也有一定要求,而本文檢測模型通過樣本訓練后可自動對豆莢及莖稈定位,無需人工操作,減少了主觀誤差、降低了勞動強度、縮短了檢測周期,適于數據量較大的樣本檢測,更具有客觀性,精確率均在90%以上,基本滿足植株表型平臺自動化的要求。

3 結論

(1)提出了一種基于IM-SSD模型的大豆植株豆莢與莖稈表型信息檢測方法。試驗結果表明,該模型具有較高的檢測精度,對遮擋和重疊干擾有較強的魯棒性。

(2)在整株大豆植株樣本訓練集上,對已標注訓練樣本進行隨機處理,實現圖像擴增,提高網絡的特征提取能力。在真實框標注時,只標注一部分特征區域,有效降低了相互遮擋產生的誤判率。

(3)提出了基于SSD結構的殘差網絡,將低層特征圖融合到高層特征圖,增強對小目標檢測能力,提高網絡的識別率。與SSD300網絡和SSD512網絡相比,IM-SSD平均檢測精確率分別提高了7.79、3.83個百分點。同時,增加全株豆莢數補償,使全株豆莢數統計的精確率提高到92.76%。IM-SSD模型與傳統SSD相比,檢測精度得到了提高,同時也為其他植株檢測的研究提供了思路。

(4)采用ACO算法彌補IM-SSD分段提取莖稈的不足,從而獲取大豆植株的株高、有效分枝數和株型。

猜你喜歡
大豆檢測模型
一半模型
注意防治大豆點蜂緣蝽
今日農業(2022年16期)2022-11-09 23:18:44
巴西大豆播種順利
今日農業(2021年20期)2021-11-26 01:23:56
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
大豆的營養成分及其保健作用
今日農業(2021年14期)2021-10-14 08:35:34
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 2021国产v亚洲v天堂无码| 久久人午夜亚洲精品无码区| 国产成人精品一区二区不卡| 高潮爽到爆的喷水女主播视频| 久久久久久久97| 天天色综合4| 中文字幕亚洲另类天堂| 午夜福利免费视频| 国产激情无码一区二区三区免费| 中文字幕调教一区二区视频| 9cao视频精品| 亚洲香蕉久久| 免费播放毛片| 亚洲高清无码精品| 亚洲区欧美区| 亚洲国产成人久久精品软件| 久久久久久高潮白浆| 国产精品美人久久久久久AV| 日本在线亚洲| 深爱婷婷激情网| 91欧洲国产日韩在线人成| 亚洲自拍另类| 国产性精品| 91亚洲精品国产自在现线| 国产真实乱人视频| 亚洲色欲色欲www网| 亚洲精品大秀视频| 久久久国产精品无码专区| 青青操视频免费观看| 亚洲美女高潮久久久久久久| 成人综合网址| 波多野结衣二区| 青青草国产在线视频| 国产18页| 多人乱p欧美在线观看| 在线99视频| 丰满的少妇人妻无码区| 亚洲欧美日韩视频一区| 欧美性精品| 国产一区二区精品高清在线观看| 一本一道波多野结衣一区二区| 欧美日韩国产在线观看一区二区三区 | 日韩午夜福利在线观看| 最新痴汉在线无码AV| 欧美另类精品一区二区三区| 在线毛片免费| 一级黄色欧美| 久久久久亚洲精品无码网站| 青青热久麻豆精品视频在线观看| 无码电影在线观看| 永久在线播放| 精品撒尿视频一区二区三区| 亚洲成人一区在线| 久久久噜噜噜| 国产精品三级专区| 免费国产不卡午夜福在线观看| 91亚洲精选| 欧美高清国产| 欧美a级在线| 三级视频中文字幕| 亚洲无码高清免费视频亚洲| 久久精品无码中文字幕| 亚洲精品动漫在线观看| 日本在线视频免费| 免费人成在线观看成人片| 国产精欧美一区二区三区| 国产欧美日韩专区发布| 又猛又黄又爽无遮挡的视频网站 | 欧美成人日韩| 2048国产精品原创综合在线| 国产精品自在线天天看片| 天堂久久久久久中文字幕| 中文字幕在线播放不卡| 9久久伊人精品综合| 欧美亚洲综合免费精品高清在线观看| 国产精品久久精品| 国产精品短篇二区| 在线亚洲小视频| 中文无码日韩精品| 五月婷婷导航| 国产在线观看91精品亚瑟| 欧美国产综合视频|