999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CNN 雙路特征融合模型的秀麗隱桿線蟲壽命階段分類研究*

2023-08-31 08:39:54尹彥豪
計算機與數字工程 2023年5期
關鍵詞:分類特征模型

尹彥豪 劉 俊 楊 燁

(1.武漢科技大學計算機科學與技術學院 武漢 430065)

(2.智能信息處理與實時工業系統湖北省重點實驗室 武漢 430065)

(3.華中科技大學生命科學與技術學院 武漢 430074)

1 引言

秀麗隱桿線蟲是生物學研究中最重要的無脊椎模式生物之一,有著生命周期較短、生理結構簡單、與人類基因高度同源、蟲體透明便于觀察等特點,從19世紀70年代初開始,就作為功能強大的模式生物被廣泛應用[1]。它的研究跨越了多個學科領域,包括基因大規模功能與表征研究[2],全身細胞的完整譜系追蹤[3]以及動物神經系統連接組的結構體構建[4]等。秀麗隱桿線蟲也為研究導致個體健康與壽命差異的變異性誘因提供了一個理想的模型:其在兩周的壽命周期中體現出來的相對變異性與人類從出生到80 歲時幾乎一樣多,因此對線蟲不同壽命階段差異性的研究對人類健康和衰老具有重要意義[5]。近年來隨著機器學習和人工智能等前沿技術在生物學研究方面的應用,已有很多學者將深度學習等方法引用于線蟲壽命測定中。本文選用蛋白穩態失衡現象作為線蟲壽命階段分類的指示器[6],使用螢火蟲熒光素酶蛋白輔助觀測。由于拍攝數據集時線蟲處于存活狀態且獲取熒光蛋白亮斑需要相對較長的曝光時間,本文數據集圖像存在模糊,有效特征區域較小等問題。為了在此前提下得到更好的分類效果,本文提出基于卷積神經網絡的雙路特征融合模型,對線蟲圖像進行特征學習。該方法將深度學習提取的特征和基于先驗知識提取的熒光蛋白聚集度特征相連接,共同作用于分類結果。實驗結果表明,該方法能夠有效提高線蟲壽命階段分類準確率。

2 相關工作

關于秀麗隱桿線蟲的壽命評估問題,目前有兩個主要的研究方向,一類是利用生理特征進行評估,另一類是利用生物感受器進行評估。生理特征評估是指根據可直接觀察到的線蟲的生理特征表現,例如咽部吞咽速率、圖像熵測定、外觀測定、運動能力測定以及自熒光測定等。利用生理特征評估的優勢在于有著較高的準確率以及適用于多種線蟲突變株,但由于研究局限于線蟲本體,缺乏技術遷移的可能性,對人體研究意義較為有限。相比利用生理特征,生物感受器主要由壽命相關基因或microRNA 啟動子攜帶熒光蛋白構成,基因背后相關信號通路機制清晰,存在著技術遷移的可能性,對人類衰老階段評估有潛在指導意義[7]。但在實際研究中發現,目前的生物感受器存在以下兩方面問題。一方面,生物感受器整體性能相對較低,這可能是由于單一基因本身對于壽命影響力有限導致的。另一方面,部分內源性基因,在野生型中具有一定評估效力,但在特定突變蟲株(如daf-16)中往往評估能力較差,這主要是由于評估使用的基因往往受限于特定信號通路,而衰老現象由多條信號通路共同調控[8]。鑒于以上兩種方式存在的缺陷,本文選用蛋白穩態失衡作為壽命相關指示器。這是因為絕大部分生物活動均依賴于蛋白功能,秀麗隱桿線蟲中多條壽命相關信號通路均表現出對蛋白穩態的調控,隨著線蟲的衰老,蛋白的聚集會逐漸增多,同時在人類衰老的過程中,蛋白穩態失衡也多種老年病相關,例如阿茲海默癥、帕金森病等[6,9]。為了便于對線蟲體內蛋白聚集的觀察,本文在多種亞穩態蛋白中選取了未報道病理過程相關的螢火蟲熒光素酶蛋白(firefly luciferase)[10],攜帶多拷貝螢火蟲熒光素酶基因線蟲不會出現早衰以及癱瘓的表型。因此,選用亞穩態蛋白作為觀察目標既能具有較高的準確性,又對人類健康和壽命研究具有較好的遷移性的評估方式。

隨著深度學習方法的發展與應用,目前已有研究人員將深度學習強大的特征提取能力運用于秀麗隱桿線蟲的壽命測定相關研究上。如Martineau[11]等從線蟲活動視頻中提取到的數百種形態、姿勢和行為特征,并使用支持向量機(SVM)對其于線蟲壽命直接的關系進行分析。Lin[12]等通過將線蟲曲直信息作為全集特征引入基于卷積神經網絡的線蟲壽命天數邏輯回歸分析模型,其精度高達0.8478,已獲得較好的評估結果。Sahand[13]等選用生物感受器作為研究對象,為采用Mask R-CNN 算法識別線蟲PVD 神經元衰老后出現的神經變性亞細胞突起,并以此對線蟲當前壽命階段進行判定,將線蟲的生物狀態分為年輕、老化、冷休克三個狀態,最終得到0.85 的分類準確率。但是Martineau 和Lin 均采用線蟲生理特征進行評估,其研究僅局限于線蟲本身,缺乏可遷移性。Sahand僅將線蟲生物狀態分為3 類研究,分類階段較為簡單。針對以上方法的局限性,本文提出基于深度神經網絡的雙路特征融合模型不僅可以通過神經網絡提取線蟲的局部特征,還能通過計算熒光蛋白聚集度信息彌補其在全局特征上的損失,最終輸出線蟲壽命周期6 階段分類結果。

3 本文方法

本文采用攜帶外源性熒光素酶融合蛋白的活體線蟲圖像進行實驗。在拍攝時為了獲取清晰的熒光蛋白亮斑,需要較長的曝光時間,且無法控制蟲體的姿態和位置,使得同一類別下的圖像差異過大(如圖1 所示),同時由于拍攝獲取的圖像分辨率為6000×4000,需要將圖像壓縮后才能進入神經網絡框架訓練學習,該過程會使大量較小的熒光蛋白亮斑特征丟失。導致在圖像的中的全局特征參存在丟失的現象。

圖1 同一壽命階段不同個體圖像對比

本文對于秀麗隱桿線蟲壽命階段分類問題的研究,提出采用卷積神經網絡雙路特征融合模型,通過引入一個新的附加屬性—聚集度信息作為全局特征,以提高實驗模型的分類準確率。本文模型的總體框架如圖2 所示,分為兩個主要的模塊:CNN 特征提取模塊M1 和聚集度特征提取模塊M2。子模塊M1部分共有4個串行的卷積模塊,每個卷積模塊分為4 個層,每一層均由一個2D 卷積層組成,同時將該層的輸出與之前每一層的輸出連接,作為下一層的輸入使用,最后一層經過全局均值池化后,得到特征向量F1。在子模塊M2 中,首先用快速傅里葉變換增強圖像中的亮斑特征,再使用LoG 算子獲取線蟲蟲體上熒光蛋白亮斑的坐標信息。通過坐標信息可以計算得到線蟲熒光亮斑的聚集度信息Pi。將算得的前n 個聚集度信息(P1,P2,…,Pn) 作為特征向量F2 。將特征向量F1 與特征向量F2 連接,再連接兩層全連接層,最后經過Softmax分類器輸出線蟲壽命階段分類的評估結果。

圖2 CNN雙路特征融合模型總體框架

3.1 CNN特征提取子模塊

秀麗隱桿線蟲圖像中有效特征區域較小,且不同壽命階段的線蟲圖像具有較高的相似性,與自然圖像分類任務相比,線蟲圖像分類任務更注重細粒度層面的特征信息。因此,本文在子模塊M1 中引入由Gao[14]等提出的密集連接網絡DenseNet 的網絡模型。該網絡模型在殘差結構部分的思想借鑒于He[15]等提出的ResNet 網絡模型:通過使用殘差映射替代恒等映射的方式,可以有效地學習到每個殘差塊輸入與輸出的差異部分,在模型收斂到一定程度時,輸入的信息可以跳過部分模型,對深層模型進行有效的訓練,進而降低了在過深的模型中存在網絡退化的梯度消失的問題。DenseNet 借鑒殘差映射的思路,將每一層的輸出密集連接后作為下一層的輸入使用,同時在相同的目標精度下,其參數和計算量僅為ResNet的一半。

基于卷積神經網絡的特征提取子模塊M1 是整個線蟲壽命階段分類模型的基礎。該模塊由4個卷積模塊組成,分別標記為b1、b2、b3、b4,如圖3所示。由于模塊b1 中的特征圖過大,在模型訓練時對訓練速度存在一定的影響。其次,模塊b1 中得到的淺層語義信息相比b2 存在一定的差距,對模型訓練效果影響較小,因此在子模塊M1 的設計中,b1 由3 個卷積層構成,b2、b3、b4 則均采用密集塊(Dense Block)結構。每個卷積模塊間均采用過度塊連接(Transition Block),包括批歸一化處理(Batch Normalizaion)[16],激活函數ReLU和一個1×1大小的卷積核進行卷積。該模塊可以在一定程度上起到加快網絡收斂,緩解網絡過擬合,防止梯度消失和梯度爆炸,減少網絡參數量的作用。將該模塊的最終輸出特征圖經過全局均值池化后得到特征向量F1。使得向量F1 更能表達線蟲不同壽命階段的細粒度特征。

圖3 M1子模塊的特征提取過程

3.2 聚集度特征提取子模塊

通過M1 模塊已經得到線蟲圖像的特征向量F1,并且其中包含豐富的語義信息,但是ROI 輪廓信息等宏觀層面的信息則較為粗略。而且圖像在進入M1 模塊前需要經過均值池化,這一過程中很多較小的熒光蛋白亮斑會存在丟失現象。因此加入通過傳統圖像特征提取算法獲取到的聚集度信息來彌補這一部分的信息丟失,使最終提取到的語義信息更具有魯棒性。本文提出的聚集度特征提取子模塊M2 分為三個步驟,首先,使用快速傅里葉變換(FFT)對圖像進行特征增強。其次,使用高斯-拉普拉(LOG)算子獲取所有熒光蛋白亮斑的坐標信息。最后,使用得到的熒光蛋白亮斑坐標信息計算得到聚集度信息Pi,并再用其求出特征向量F2,與M1模塊最終輸出的特征向量F1相連接,共同提升模型的分類準確率。

在本文中,線蟲蟲體輪廓邊緣區域和熒光蛋白亮斑區域屬于高頻信號區域,而大量由于曝光時間過長而模糊的噪聲區域屬于低頻區域,因此可以使用傅里葉變換對該特征進行加強,并對噪聲區域進行降噪處理??焖俑道锶~變換是離散傅里葉變換(DFT)及其逆變換的快速計算方法。長寬為M,N的圖像可以被看作是f(x,y)的二維離散信號,其離散傅里葉變換公式為

利用分治的思想對離散傅里葉變換序列進行拆分,使其可以在O(nlogn)時間內完成離散傅里葉變換[17]。

斑點檢測通常是為了檢測出圖像中像素值與周邊不同的區域,常用的斑點檢測算法有基于微分方法的微分檢測算法和基于局部極值的分水嶺算法。由于本文中所需要分割的熒光蛋白亮斑形狀均較為規整,因此選擇微分檢測算法中LoG算子作為該模塊的核心算法,LoG算子的核函數為

其中,σ為二維高斯函數的標準差,通過改變σ的值,可以對不同尺度的斑點進行檢測。本文中需要檢測的都是蛋白亮斑,即像素值較高的聚集點集。在9×9 的空間范圍內,如果某一點的拉普拉斯響應值均大于其他26 個點的響應值,則認為該點是所需求的的熒光蛋白亮斑,將記為當前亮斑半徑,當前亮斑坐標記作Ai(xi,yi,ri)。為避免亮 斑 被 重 復 計 算,對 于 亮 斑Aj(xj,yj,rj) 、Ak(xk,yk,rk),如果存在

則將亮斑Ak(xk,yk,rk)刪除。線蟲熒光蛋白亮斑檢測過程如圖4 所示,為方便展示,圖像對亮斑部分放大,并對圖4(c)部分做反色處理。

為了彌補M1 子模塊中圖像壓縮時丟失的熒光蛋白密度信息,本文基于先驗知識提出線蟲熒光亮斑聚集度信息Pi,為線蟲熒光亮斑點間距值中最小的i個值的均值。并將算得的前n個聚集度信息(P1,P2,…,Pn)作為特征向量F2,其中,如果i大于線蟲體內的熒光蛋白數,則Pi取極大值5000。當線蟲壽命處于前1/3 時,其表現的熒光蛋白亮斑數通常不超過10 個,而當線蟲壽命處于最后1/3 時,其表現的熒光蛋白亮斑數通常在60 以上,個別個體甚至能表達出上百個熒光蛋白亮斑。因此,在六分類實驗下,n 值過小會導致模型在對后兩類進行分類時參考性較低,而n 值過大會導致模型對前兩類進行分類時不具有區分度。經實驗得出,當n值取12時,模型具有最好的分類效果。

3.3 損失函數

在使用卷積神經網絡訓練模型時,選取一個合適的損失函數能夠提高模型的準確率和魯棒性。本文所提出的雙路特征融合模型是基于密集連接網絡設計的多分類網絡模型,因此使用多類交叉熵(Categorical Cross Entropy)作為損失函數。第i個樣本的真實標簽為yji,預測值標簽為yji,則對該樣本的多類交叉熵損失函數可定義為式中m 為該批次輸入網絡的圖像樣本數,c 為分類類別數。多類交叉熵表示實際輸出概率與期望輸出概率分布的差距,其值越小表示模型訓練的學習效果越好。

4 實驗數據分析

4.1 實驗數據與實驗參數

本文數據集圖像是由華中科技大學生命學院中法聯合實驗室通過熒光顯微鏡下拍攝攜帶外源性熒光素酶融合蛋白的活體線蟲圖像。拍攝的圖像來自26 批次,共412 條線蟲,分別取自線蟲的頭部,尾部,軀干三個部位,均勻分布在線蟲的各個壽命階段。共取得4593 張圖像樣本,并且將其中80%的圖像作為訓練集,20%的圖像作為測試集。

本文的實驗環境采用的硬件配置為i7-8700K處理器,GPU 型號為NVIDIA GeForce GTX 1080,顯存為8GB。操作系統Ubuntu Server 16.04 64-bit;編程語言python 3.6。訓練模型中的迭代次數設置為5000,batchsize 大小為16,學習率設為0.001,衰減率設為0.01,沖量設為0.1,使用SGD 算法進行優化。為了驗證所提出方法的有效性,本文采用準確率A,精確率P,召回率R,和F1 分數作為評價指標,具體計算公式為

其中,TP(True Positive)為真陽性,表示預測為正,實際也為正的樣本;FP(False Positive)為假陽性,表示預測為正,實際也為負的樣本;FN(False Negative)為假陰性,表示預測為負,實際也為正的樣本;TN(True Negative)為真陰性,表示預測為負,實際也為正的樣負。

4.2 消融實驗

為了分析不同網絡分支對模型的影響,將本文提出的M1 子模塊和M2 子模塊拆分,并對其輸出的特征向量F1 和F2 后分別添加4 個全連接層和Softmax 分類器,使其具有獨立的分類能力。分別完成對模型的訓練及測試,測試結果如表1 所示,可以看出各子模塊均具有一定獨立的分類能力。圖5、6分別為僅使用M1子模塊和使用本文完整模型的混淆矩陣。通過對比圖5 與圖6,可以看出本文提出的M2 模塊的聚集度信息能顯著提升模型分類準確度。

表1 各模塊消融實驗

圖5 M1子模塊分類效果混淆矩陣

圖6 本文方法分類效果混淆矩陣

4.3 對比實驗

為了驗證本文模型的分類效果,將本文使用的線蟲數據分別輸入至VGG16、ResNet50、InceptionV3、MobileNet 模型和本文方法,完成對模型的訓練及測試,測試結果如表2 所示。可以看出,本文提出的方法較其他模型均有提升。同時,將本文提出的M2 模塊與其他分類網絡相結合,其分類精度均能有一定的提升,說明本文提出的M2 模塊具有一定的泛用性。

5 結語

本文為實現秀麗隱桿線蟲壽命階段分類,提出了基于卷積神經網絡的雙路特征融合模型對線蟲的壽命階段進行評估。該模型可分為基于密集連接網絡的子模塊CNN 特征提取模塊M1 和使用傳統圖像處理算法計算熒光蛋白亮斑聚集度信息的聚集度特征提取模塊M2。實驗結果表明,與其他分類網絡相比,本文模型能有效提高分類精度和F1 評分,已基本滿足生物學研究方面對線蟲壽命階段的預測需求。在接下來的研究中,將進一步對分類網絡模型和熒光蛋白特征提取模型進行優化,同時使用更多的數據集對網絡進行訓練,進一步提高線蟲壽命階段預測的準確率。

猜你喜歡
分類特征模型
一半模型
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
主站蜘蛛池模板: 久久青草精品一区二区三区| 国产一在线| 亚洲天堂.com| 综合人妻久久一区二区精品 | 全部毛片免费看| 国产aⅴ无码专区亚洲av综合网 | 女同国产精品一区二区| 亚洲人成网站在线播放2019| 99久久亚洲综合精品TS| 黄色网页在线观看| 亚洲一区二区三区香蕉| 制服丝袜在线视频香蕉| 美女被操黄色视频网站| 亚洲男人的天堂久久精品| 亚洲精品国产自在现线最新| 国产区福利小视频在线观看尤物| 国产精品一区二区久久精品无码| av天堂最新版在线| 亚洲香蕉在线| 嫩草影院在线观看精品视频| JIZZ亚洲国产| 久久动漫精品| 亚洲看片网| 国产一区在线观看无码| 亚洲日韩图片专区第1页| 成人免费网站久久久| 丰满人妻久久中文字幕| 国产福利一区在线| 青草视频免费在线观看| 日本精品中文字幕在线不卡| 亚洲色婷婷一区二区| 激情在线网| 国产成年女人特黄特色大片免费| 久久香蕉国产线看精品| 久草视频精品| 亚洲欧美日韩成人在线| 精品久久777| 亚洲午夜国产片在线观看| 国产精品流白浆在线观看| 真人高潮娇喘嗯啊在线观看| 国产福利不卡视频| 无码视频国产精品一区二区 | 亚洲九九视频| 日韩乱码免费一区二区三区| 国产精品无码久久久久久| 国产精品深爱在线| 国产精品亚洲片在线va| 国产一区二区三区日韩精品| 91精品视频网站| 波多野结衣二区| 98超碰在线观看| 亚洲国产中文精品va在线播放| 精品福利一区二区免费视频| 99在线观看精品视频| 色哟哟精品无码网站在线播放视频| 国产一级无码不卡视频| 日韩视频精品在线| 国产精品久久久久久影院| 无码日韩人妻精品久久蜜桃| 国产在线视频导航| 亚洲swag精品自拍一区| 日韩午夜伦| 在线观看无码av五月花| 亚洲欧美一区二区三区蜜芽| 精品国产欧美精品v| 国产肉感大码AV无码| 国产三级视频网站| h网址在线观看| 成人综合在线观看| 一级做a爰片久久免费| 欧美精品成人一区二区在线观看| 国产91特黄特色A级毛片| 蜜桃视频一区二区| 国产91小视频在线观看| 国产精品亚洲一区二区三区在线观看 | 手机成人午夜在线视频| 看av免费毛片手机播放| 露脸国产精品自产在线播| 国产成人精品一区二区不卡| 一本一道波多野结衣av黑人在线| 青草视频免费在线观看| 国产精品无码在线看|