999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進卷積神經網絡的藻類分類與識別方法

2021-09-04 08:13:40葉司琪龍曉尹偉石
關鍵詞:分類特征模型

葉司琪,龍曉,尹偉石

(長春理工大學 理學院,長春 130022)

國內水域面積占地27萬平方公里,占領土面積的3%左右。近年來,由于湖泊、水庫與近海緩流地區水體的富營養化導致水中藻類生長迅速,出現“赤潮”[1]、“水華”[2]等自然災害,對國家的水質影響巨大且造成了巨大的經濟損失。因此在藻類泛濫之前對其提前預測、預防成為主要問題。現如今在藻類識別研究中,傳統的藻類檢測流程一般有置式顯微鏡法和熒光檢測法[3];顯微檢測是對產生污染環境的水域進行樣本采集、沉淀和蒸餾等過程,將樣品放在顯微鏡下人眼觀察,人為鑒定是否達到污染的程度;熒光檢測法是將樣本經熒光處理得到熒光圖像,再利用圖像調色板閾值分割達到藻類計數[4]的目的;但兩者方法都存在局限性,顯微檢測過程大多依靠人工,會產生效率低、容易產生視覺疲勞且不易保存等問題對研究人員要求較高;對于熒光檢測在壓片時會出現分層現象,不同層面熒光點不同;因此兩種方法識別出來的準確率也隨誤差因素的影響而變化。

現今深度學習、目標檢測計數和圖像識別的發展,國內外在對于藻類圖像的識別與分類研究方面發展迅速。A.Verikas等人[5]基于相位一致性和隨機優化確定識別圓形藻,但該方法只適用于極小圓形浮游植物;Andrea C.Monaldi等人[6]基于數字全息顯微鏡和圖像處理來評估微藻生物量;李偉偉[7]提出通過SIFT算法針對藻類圖像提取,PCA降維,用KNN進行識別檢索;謝杰鎮等人[8]提出基于流式圖像的赤潮藻類監測方法,基于灰度不變共生矩陣的紋理特征,采用向量機進行訓練識別;張松等人[9]將詞包模型方法用于藻類分類識別,利用K-means聚類得到圖像的特征詞包模型,用于SVM分類器訓練,但沒有經過特征篩選和編碼,會影響聚類效果。

如今深度學習促進了模式識別、機器學習的發展,由卷積神經網絡發展而來的目標檢測框架[10],以及深度學習的誤差反向傳播算法[11],基于識別的目標定位計數提供了基礎。此研究運用卷積神經網絡的學習反饋機制及利用目標檢測模型對藻類進行檢測識別,由于藻類圖像部分密集、疊層、體積較小等特點,影響識別效果。此次研究是在卷積神經網絡與目標檢測模型的基礎上進行改進,對卷積層中的激活函數、學習速率改進,對網絡結構參數進行微調,使用最大池化算法,得到準確率較高的藻類分類識別模型,減少人力輸出。

1 CNN模型原理

卷積神經網絡(CNN)是一種具有高性能的深度學習模型。卷積神經網絡相對于全連接網絡使用的參數量較少預測精度和回歸擬合度均高于傳統模型。CNN模型的性能遠高于具有與CNN模型相同的網絡訓練方法的BP神經網絡,卷積神經網絡可以通過用梯度下降法損失函數最小,對參數逐層進行反向調節,不停的迭代訓練提高精度。

1.1 卷積層

卷積層的作用就是提取特征的,通過各個窗口得到特征,并且使用參數量減少。在圖像處理中,一個卷積核卷積一次圖像得到一次特征,再由若干個卷積核卷積,卷積核提取特征是權值共享的,通過提取輸入的不同特征進行壓縮提純,每一次卷積提取出的特征為特征映射,通過一個激活函數,得到輸出特征映射,每一層可以使用多個不同的特征映射,卷積公式由公式(1)表示:

其中,Mj表示輸入映射的總和;代表第l-1層第j個特征圖的輸入;f(?)為激活函數;l為層數;k為卷積核;?代表卷積操作;為偏置;為第l層第j個特征圖。特征圖公式(2):

計算偏置的梯度值,公式(3)為:

利用 ΔWl=-η?E/?Wl更新參數。

1.2 池化層

池化層是對卷積層輸出的特征圖進一步特征抽樣,如果沒有池化層直接去放入Softmax分類,其中會出現維度過高,發生過擬合的現象,為了防止過擬合,提高精確度,通常池化使用最大池化和平均池化,池化的最大作用是將卷積過后的特征圖的大小壓縮進行降維,且具有位移不變性,池化過程可用公式(4)表示:

1.3 全連接層

全連接層本質上也是卷積層,一般位于模型的最后幾層,將神經元全連接起來。全連接層最后是經過分類的,由于卷積神經網絡輸出的特征圖是三維張量,做分類的話是要將之前特征圖壓平,最后再由一個傳統的全連接層連接起來,數學表達式為:

其中,上式中神經元的輸入是x;神經元的輸出是hW,b(x);連接權重是WT;偏置是b。

1.4 Softmax輸出層

Softmax輸出層是為了分類回歸,將全連接層的特征圖輸入到Softmax輸出層后,每一個神經元節點的激勵函數輸出一個概率,所有的節點的概率之和等于1。將待分類的圖片放入Soft?max分類器中,輸出的最大概率值所對應的標簽為最后的分類結果。如公式(6)表示概率歸一化:

其中,σi(x)表示第i個節點的激勵函數輸出的概率;m為類別數;代表參量。

2 改進卷積神經網絡的藻類分類

運用改進卷積神經網絡,對藻類圖像進行識別,通過數字化處理對藻類樣本圖進行特征提取,再結合卷積神經網絡(CNN)模型分析水體中的藻類解決人工識別的主觀性與勞動強度大等問題。

為了提高模型的魯棒性與穩定性,利用改進卷積神經網絡與RCNN來實現高效、便捷的藻類分類識別的目的。實現減少人工輸出,對藻類實時監測,預防藻類污染,增加水域面積,減少由藻類污染帶來的巨大經濟損失。

2.1 改進算法描述

該算法根據預設訓練與預設網絡模型對藻類樣本圖片進行訓練,得到藻類分類訓練模型,來確定待分類藻類圖片所對應的藻類類別,得到藻類分類模型。通過采用卷積神經網絡的方式來進行海藻圖像的處理,其中模型由卷積層和池化層交叉組合構成,與最后由全連接層連接。將其輸出發送至Softmax層,對其進行調整,看反向傳播調整網絡權值,判斷是否達到訓練次數或者小于訓練誤差,反復調整最小誤差得到藻類的分類模型,網絡使用激活函數Relu且對卷積得到的圖像進行局部歸一化,調整網絡學習率,對網絡結構參數進行微調,提高訓練準確度。訓練完成后將測試樣本輸入到分類模型中得到分類結果,提高藻類分辨性與魯棒性,如圖1所示。

圖1 藻類分類模型

2.2 構建改進卷積神經網絡模型

卷積層使用卷積核進行特征提取和特征映射,將預處理完成的圖像輸入到第一個卷積層,由64個3x3的卷積核(3通道)且步長均為1,擴充邊界得到卷積后的圖像與原圖尺寸一致;第二層為池化層,采用最大池化,選擇幅步為2,3x3的最大池化,進行lru操作對局部模塊歸一化;第二個卷積層,由16個3x3的卷積核(16通道),得到的卷積圖像與原圖尺寸一致;第二個最大池化層進行降維,池化步長為2,3x3的最大池化;傳入全連接層進行重新擬合,全連接層由128個神經元連接,將上一層池化層的輸出重新組合成一行;調用激活函數ReLU,其作用是增加了神經網絡各層之間的非線性關系,由于采用sigmoid等函數,計算量大,在反向傳播時,很容易就出現梯度消失的情況,而采用Relu激活函數,整個過程的計算量節省很多,Relu函數會使一部分神經元的輸出為0,增加網絡的稀疏性,并且減少參數的相互依存關系,緩解過擬合問題的發生,再上一層參數為0.8輸入dropout層,緩解過擬合問題;最后將前面的卷積池化全連接層打包分裝至Softmax層,做線性回歸,對其進行調整、計算,得到所述的藻類分類模型。

3 實驗與分析

實驗所用的藻類來自吉林省長春市南湖公園,實驗通過采集藻類樣本,利用光學電子顯微鏡拍照,得到包含藻類樣本照片,在同一光源、同一放大倍數下對水體藻類進行觀察與拍攝海藻圖片,得到1 100張海藻圖像,如圖2所示。

圖2 拍攝海藻圖像

3.1 藻類圖像的采集與預處理

對原始海藻圖片預處理,將它分為幾種不同種類的海藻圖片集,由于藻的種類較多,大部分藻數量較少,試驗選取數量最多的兩種藻(橋灣藻和針型藻)作為研究對象,如圖3、圖4所示。

圖3 橋灣藻樣本圖像

圖4 針型藻樣本圖像

對藻類圖片進行篩選,每個海藻圖片集對應一種藻類,每個海藻圖片集中的每個海藻圖片中均包括該類海藻,每一個樣本集包含2 000~ 3 000張單種藻類圖像;為了防止出現過擬合現象,通過對圖像隨機旋轉、縮放、反轉及變化角度對樣本集進行擴充到11 130張,選取總樣本集的80%作為訓練集(8 904張),剩下的作為測試集。

將樣本集的圖像與利用圖像標注軟件進行人工標注,如圖5所示,用于卷積神經網絡對每個樣本集圖像進行訓練與測試。

圖5 人工label Img標注藻類示例圖

3.2 評價指標

本文以準確率(Accuracy)衡量模型的準確性,準確率公式為:

其中,n為藻類識別正確的數量;N為總樣本數。

用損失函數(Loss)確定藻類訓練集和測試集的魯棒性。如果損失函數越小則說明魯棒性越好。損失函數如下:

其中,N代表樣本數;pi是第i個樣本預測的概率;yi為第i個樣本的標簽,正類為1,負類為0。

3.3 訓練與測試

實驗利用RCNN、目標檢測模型與改進卷積神經網絡作為特征提取網絡,為實現整個網絡的端到端訓練。設置參數為batch=20,總共迭代3 000次,每隔50步輸出一次損失值以及精確度,每隔100次保存一次訓練好的模型。

實驗將8 904張藻類圖像用于訓練,由于藻類體積較小,部分藻類密集,藻類壓片分層等因素影響識別效果,利用卷積神經網絡模型進行訓練。

保持卷積核大小為3*3,用Relu為激活函數情況下,經過迭代1 000次,首先通過對學習率的修改,針對不同學習率下的CNN模型學習率與準確率之間的關系圖如圖7所示。

圖6 學習率與準確率的關系圖

可知,學習率并不是越小越好,不存在唯一性,應該根據實際情況選擇合適的學習率。

同樣在迭代1 000次情況下將其中在學習率為0.000 1和0.001 0下的識別所得平均損失結果

的對比,如表1、表2所示。

表1 在學習率為0.000 1的CNN模型下

表2 在學習率為0.001 0的CNN模型下

由表1可知在迭代1 000次過后,學習率為0.000 1的CNN模型下準確率大約在89.9%,學習率為0.001 0的CNN模型下準確率在95.02%。

并對測試集進行識別結果的測試,由表2可知學習率在0.001 0下,藻類圖像識別最優。

所以在測試集的識別中選取學習率為0.001 0,迭代3 000次過后,其識別結果如表3所示。

表3 測試集的識別結果(學習率為0.001 0)

由表3可知,loss值越小,效果越好。

4 結論

本文基于傳統藻類檢測的工作繁瑣影響識別精確度的問題,在藻類識別中改進卷積神經網絡和目標檢測模型對藻類圖像的大小形態進行特征提取。實驗結果表明,在對于藻類識別的平均準確率達到95.02%,有效避免了過擬合的現象,克服了藻類圖像密集、疊層、體積小等因素,減少人力輸出,提高工作效率。此外,輸入圖像和網絡的拓撲結構能很好的吻合;特征提取和模式分類同時進行;卷積神經網路權值共享可以減少網絡的訓練參數,使神經網絡結構變得更簡單,適應性更強。在訓練模型中將分類和識別結合,簡化了模型結構。與此同時,研究也存在不足,在訓練過程中往往需要對一些參數進行人為的調整,所以適合范圍有一定的限制。卷積層提取圖像特征時對藻類邊緣信息提取有待提高,數據在網絡傳遞過程中存在部分信息損失與消耗,降低識別準確度。

猜你喜歡
分類特征模型
一半模型
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
主站蜘蛛池模板: 国产极品粉嫩小泬免费看| 一区二区自拍| 人妻熟妇日韩AV在线播放| 好紧好深好大乳无码中文字幕| 看你懂的巨臀中文字幕一区二区 | 无码啪啪精品天堂浪潮av| 免费激情网址| 成人精品在线观看| 无码一区二区波多野结衣播放搜索| 久久熟女AV| 狠狠色综合久久狠狠色综合| 幺女国产一级毛片| 麻豆国产精品| 日韩毛片免费| 国产精品一区在线麻豆| 中文字幕在线不卡视频| 久久久国产精品无码专区| 国产综合另类小说色区色噜噜| 97久久超碰极品视觉盛宴| 国产97色在线| 国产va欧美va在线观看| 99r在线精品视频在线播放| 欧美一级夜夜爽| 色综合久久无码网| www.91中文字幕| 114级毛片免费观看| 无码日韩视频| 欧美日韩亚洲综合在线观看| 人人91人人澡人人妻人人爽| 亚洲中文字幕在线精品一区| 国产精品浪潮Av| 久久这里只精品国产99热8| 国产精品香蕉在线观看不卡| 成人免费视频一区二区三区| 国产精品太粉嫩高中在线观看| 一级毛片免费播放视频| 国产第二十一页| 亚洲一级毛片在线播放| 国产成人综合在线观看| 毛片免费在线视频| 又污又黄又无遮挡网站| 国产人妖视频一区在线观看| 久久久久免费看成人影片| 国产免费a级片| 黑色丝袜高跟国产在线91| 91黄视频在线观看| 亚洲美女操| 无码人妻免费| 麻豆精品久久久久久久99蜜桃| 农村乱人伦一区二区| 在线播放91| 40岁成熟女人牲交片免费| 久久五月天国产自| 欧美日韩亚洲国产| 色综合热无码热国产| 亚洲天堂区| 亚洲人在线| 在线毛片免费| 中文字幕第4页| 青草精品视频| www精品久久| 国产情精品嫩草影院88av| 亚洲国产精品无码AV| 亚洲精品成人片在线播放| 成人韩免费网站| 欧美精品亚洲精品日韩专区va| 五月婷婷亚洲综合| 少妇精品在线| 日韩中文无码av超清| 在线精品欧美日韩| 亚洲爱婷婷色69堂| 婷婷色中文| 一区二区影院| 亚洲成人77777| 亚洲欧美另类久久久精品播放的| 97综合久久| 精品国产亚洲人成在线| 日本亚洲最大的色成网站www| 强奷白丝美女在线观看 | 午夜精品一区二区蜜桃| 狠狠色婷婷丁香综合久久韩国| 国产日本欧美在线观看|