999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv7的微生物細胞識別算法

2025-01-06 00:00:00呂彥朋趙穎彤蘇曉明劉占英
現代電子技術 2025年1期
關鍵詞:特征檢測模型

摘" 要: 針對傳統及人工方法識別多種類、大量微生物細胞存在耗時長、準確率低等問題,文中提出一種改進YOLOv7的微生物細胞識別算法YOLOv7?PN。通過引入改進的路徑聚合網絡(PANet)提取和融合不同尺度的特征,以捕捉細胞圖像中的多尺度信息,從而提高細胞的檢測精度和魯棒性;在骨干網絡添加注意力模塊(NAM),能夠自適應地學習每個通道的權重,提高細胞的特征表示能力;將傳統的IoU邊界框損失函數替換為DIoU_Loss,以考慮邊界框之間的距離和重疊程度,能夠更準確地衡量檢測框的精度,從而提高細胞的定位準確性。實驗結果表明,使用BCCD數據集進行評估時,文中算法在微生物細胞識別任務中取得了顯著的提升,與基準算法YOLOv7相比,YOLOv7?PN的Precision值提高了1.46%、[F1]值提高了2.61%、Accuracy值提高了0.86%。實驗結果驗證了該算法的有效性和性能優勢,為微生物學研究和醫學診斷等領域的微生物細胞分析提供了有力支持。

關鍵詞: 微生物細胞; YOLOv7; YOLOv7?PN; PANet; NAM; DIoU_Loss

中圖分類號: TN911.7?34; TP391" " " " " " " " " 文獻標識碼: A" " " " " " " " " " "文章編號: 1004?373X(2025)01?0047?08

Microbial cell recognition algorithm based on improved YOLOv7

Lü Yanpeng1, 2, ZHAO Yingtong1, 2, SU Xiaoming1, 3, LIU Zhanying1, 2

(1. Inner Mongolia Autonomous Region Fermentation Industry Energy Saving and Emission Reduction Engineering and Technology Research Center,"Hohhot 010051, China;

2. Inner Mongolia Autonomous Region Engineering Research Center for Green Manufacturing of Bio?fermentation, Hohhot 010051, China;

3. College of Data Science and Application, Inner Mongolia University of Technology, Hohhot 010051, China)

Abstract: It is time?consuming when the traditional and manual methods are used to identify multiple species and large quantity of microbial cells, and the identification accuracy is low. In view of this, a microbial cell recognition algorithm named YOLOv7?PN based on the improved YOLOv7 is proposed. The improved path aggregation network (PANet) is introduced to enable the extraction and fusion of features at different scales in order to facilitate the capture of multi?scale information in cell images, which enhances its detection accuracy and robustness of cells. The incorporation of NAM into the backbone network enables the adaptive learning of weights for each channel, which enhances the feature representation of cells. Furthermore, the replacement of the traditional IoU bounding box loss function with DIoU_Loss allows for the consideration of the distance and overlap between bounding boxes, thereby facilitating more accurate precision measurement, which, in turn, enhances the accuracy of cell localization. The experimental results demonstrate that the algorithm presented in this paper exhibits a notable enhancement in the capacity to recognize microbial cells when evaluated with the BCCD dataset. In comparison to the benchmark algorithm YOLOv7, the YOLOv7?PN demonstrates an improvement. Its precision is increased by 1.46%, its [F1] by 2.61% and its accuracy rate by 0.86%. The experimental results demonstrate the efficacy and superiority of the algorithm. Therefore, the algorithm can provide compelling evidence for its utility in the microbial cell analysis in microbiology research and medical diagnosis, as well as in other fields.

Keywords: microbial cell; YOLOv7; YOLOv7?PN; PANet; NAM; DIoU_Loss

0" 引" 言

微生物細胞的準確識別和分類對于生物學研究、醫學診斷和環境監測等領域具有重要意義[1]。傳統的鏡檢工作廣泛應用于科研、生物科技、醫療機構領域。鏡檢工作檢測人員通過肉眼對顯微鏡下的目標直接進行觀察,對視野中的微生物根據自身經驗進行判斷、分類和計數。這種檢驗方法效率低,檢測過程參雜主觀因素,檢測準確度隨著工作時間的增加出現下降,需要對樣本進行多次重復的檢驗,耗費大量人力物力。在生產過程中,由于檢測樣本多,效率難以進一步提高,影響后續生產進度。傳統鏡檢方法已經難以適用于生物形態學方面的檢測[2]。

近年來,深度學習作為一種強大的機器學習技術在圖像識別領域取得了顯著的進展,并在醫學影像分析等領域展現出巨大的潛力[3]。同時,深度學習在細胞識別領域呈現出蓬勃的發展態勢,很多學者都提出了創新方法。文獻[4]提出了基于遷移學習的模型,用于準確預測T細胞受體(T Cell Receptor, TCR)與抗原的結合特異性,利用TCR和抗原的序列信息進行訓練,并在實驗中證實了該方法的有效性和準確性。文獻[5]提出了一種基于深度學習的免疫細胞分化方法,通過構建深度神經網絡模型,利用免疫細胞的高維數據,如表面標記物和基因表達,實現對免疫細胞的準確分類和分化狀態的預測。文獻[6]提出了一種基于物聯網健康設備驅動的深度學習系統,利用遷移學習技術進行宮頸細胞的檢測和分類,通過收集和分析宮頸細胞圖像數據,結合深度學習模型和物聯網技術,實現了對宮頸細胞的自動化檢測和分類。文獻[7]提出了一種基于深度學習的全切片圖像分析方法,用于宮頸癌篩查,通過訓練深度學習模型,實現了對宮頸癌細胞的自動檢測和分類,提供了一種高效、準確的篩查方法。文獻[8]提出了一種基于深度學習和典型相關分析的白細胞圖像分類方法,他們利用卷積神經網絡、循環神經網絡及典型相關分析技術實現了對白細胞圖像的自動分類。文獻[9]提出了一種基于YOLOv5的鹿食植物細胞識別方法,利用深度學習模型和目標檢測算法實現了對鹿食植物細胞的快速、準確識別,為植物研究和生態保護提供了有益的圖像分析工具。文獻[10]提出了一種基于Transformer的宮頸異常細胞自動識別方法,通過改進的Transformer編碼器結構和自適應動態IoU(Intersection over Union)閾值,能夠準確地識別宮頸異常細胞,提高診斷的準確性和效率。文獻[11]提出了一種和人工提取特征相結合的新的宮頸細胞分類方法,能夠提高宮頸細胞分類的準確性和性能,為宮頸癌的早期診斷和預防提供了有效的解決方案。文獻[12]通過遷移學習的方法改進了基于YOLOv5s的植物葉片細胞識別率,通過應用預訓練模型參數、調整網絡結構和微調參數,顯著提高了植物葉片細胞的識別準確性。

文獻[13]提出了一種基于區域卷積神經網絡的白細胞檢測和分類方法,利用區域卷積神經網絡對白細胞進行檢測和分類,通過對圖像的不同區域進行局部特征提取和分類,提高了白細胞檢測和分類的準確性。文獻[14]使用殘差網絡(Residual Network, ResNet)的變種進行圖像分類的深度學習,用于結直腸癌的檢測,通過應用ResNet的不同變體進行圖像分類,以提高結直腸癌的檢測準確性。文獻[15]提出了一種改進的YOLOv5算法,用于血細胞的檢測和計數,通過改進的EIoU(Enhanced Intersection over Union)技術,并應用于YOLOv5算法中,實現了對血細胞的準確檢測和計數。文獻[16]提出了一種基于改進的YOLOv5模型的熒光圖像細胞智能檢測方法,通過對YOLOv5模型進行改進,針對熒光圖像細胞的特點進行優化,實現了對熒光圖像中細胞的智能檢測。文獻[17]提出了一種新方法,利用上下文的模式預測TCR和表位之間的識別關系。通過將序列信息和深度學習技術結合起來,能夠準確預測TCR和表位之間的識別關系,為免疫學研究和個體化免疫治療提供了重要的見解。文獻[18]通過應用深度學習技術,開發了一種能夠準確識別和檢測腫瘤細胞的算法。文獻[19]提出了一種基于色彩空間模型的乳腺癌細胞識別方法,探索了使用色彩空間模型特征來區分乳腺癌細胞和正常細胞,并通過圖像處理和分類算法實現了乳腺癌細胞的自動識別。文獻[20]通過利用患者診斷標簽來訓練檢測不同類型急性白血病的弱監督模型,在弱監督下對血片進行自動可靠的分析,成功實現了對急性早幼粒細胞白血病的自動檢測。

上述眾多創新算法的涌現,在一定程度上提升了對血細胞的檢測,為深度學習在細胞識別領域的應用開辟了廣闊前景,顯示出巨大的潛力。但仍然存在以下不足之處。

1) 特征表示能力有限。由于微生物細胞的形態、紋理等特征復雜多變,僅僅依賴傳統的卷積操作無法充分提取和利用這些關鍵信息,導致在識別微生物細胞時可能出現誤判或漏檢的情況。

2) 多尺度特征融合不足。微生物細胞在圖像中可能呈現不同的大小和尺度,難以有效捕捉不同大小微生物細胞的信息,影響檢測精度和魯棒性。

3) 小目標檢測效果不佳。由于細胞的密集分布或拍攝角度等原因,小目標細胞往往占比較小,模型在處理小目標檢測時效果不佳,容易出現漏檢和定位不準確的情況。

針對上述問題,本文提出一種基于YOLOv7框架的高效血細胞檢測算法。首先,通過引入NAM(Normalization?based Attention Module)機制,使得模型能夠自適應地學習每個通道的權重,強調對細胞識別至關重要的特征,并抑制無關或噪聲信息,增強模型對微生物細胞的識別準確性;其次,通過引入改進的路徑聚合網絡(Path Aggregation Network, PANet),提取和融合不同尺度的特征,以捕捉細胞圖像中的多尺度信息,從而提高細胞的檢測精度和魯棒性;最后,采用DIoU_Loss(Distance?IoU Loss)損失函數代替原有的損失交叉熵函數,充分考慮邊界框之間的距離和重疊程度,能夠更準確地衡量檢測框的精度,從而提高細胞的定位準確性。改進后的YOLOv7模型結合大規模的微生物細胞圖像數據集,提高了微生物細胞識別的準確性和魯棒性。

本文方法旨在為微生物細胞的自動識別和分類提供一個有效的解決方案,為微生物學、醫學等領域的研究和應用提供有力支持。

1" 改進的YOLOv7?PN結構設計

改進的基于YOLOv7的微生物細胞檢測算法YOLOv7?PN結合了PANet、NAM機制和DIoU_Loss來提升檢測性能。

PANet用于實現多尺度特征融合,提高模型對微生物細胞的多尺度表示能力。通過在網絡中添加跨層連接或金字塔結構,將高層語義信息與低層細節信息進行融合,以更好地捕捉微生物細胞的細節和上下文信息。

NAM用于增強模型對微生物細胞的關注能力,通過學習通道間的關系來自適應地調整特征圖中每個通道的重要性,可以幫助模型更好地集中注意力在微生物細胞相關的特征上,提高檢測的準確性。

DIoU_Loss是一種用于目標檢測的損失函數,它在計算目標框之間的IoU時考慮了物體之間的距離。相比傳統的IoU_Loss,DIoU_Loss考慮了目標框之間的緊湊性和位置關系,可以更準確地度量目標檢測的質量[21]。引入DIoU_Loss可以優化模型的訓練過程,提高微生物細胞檢測的精度和穩定性。

綜上所述,YOLOv7?PN微生物細胞檢測算法通過引入PANet實現了多尺度特征融合,利用NAM機制增強關注能力,并采用DIoU_Loss優化檢測的質量。這些技術的引入可以提高微生物細胞檢測的性能,提高準確性和穩定性。YOLOv7?PN算法總框架圖如圖1所示。

1.1" PANet

PANet是一種用于目標檢測的多尺度特征融合網絡結構,設計目的是解決目標檢測任務中多尺度目標的檢測問題。

PANet在特征金字塔網絡(Feature Pyramid Network, FPN)[22]的基礎上引入了兩個關鍵組件:自頂向下路徑和橫向連接。自頂向下路徑從網絡的高層逐漸向下傳播,通過上采樣操作將高層特征圖的分辨率逐漸恢復到原始輸入圖像的分辨率;橫向連接則將自頂向下路徑中的特征圖與FPN中對應尺度的特征圖進行融合,實現了多尺度特征的聚合。PANet的主干網絡模型結構圖如圖2所示。

首先,FPN網絡生成一組金字塔特征圖,其中每個特征圖對應一種尺度的特征表示,PANet從最高分辨率的特征圖開始,通過自頂向下路徑將特征圖的分辨率逐漸降低,并在每個層級上執行上采樣操作;然后,PANet通過橫向連接將自頂向下路徑的特征圖與FPN中對應尺度的特征圖進行融合,得到更豐富的多尺度特征表示;最后,通過額外的卷積和池化操作對融合后的特征進行進一步處理,以用于目標檢測任務中的分類和定位。

PANet的優勢在于它能夠有效地聚合多尺度特征,提升了目標檢測模型對不同尺度目標的感知能力。通過引入自頂向下路徑和橫向連接,PANet能夠在保留高層語義信息的同時,融合不同尺度的細節信息,從而提高模型在多尺度場景下的檢測性能。

通過引入PANet進行多尺度特征融合,可以提升基于YOLOv7的微生物細胞檢測模型的性能。PANet能夠增強模型對不同尺度微生物細胞的感知能力,利用上下文信息提升細胞檢測的效果,并提高模型在多尺度場景下的魯棒性。

1.2" NAM機制

注意力機制通過模擬人類視覺中的注意力處理方式,篩選出圖像中的重要部分,以便更好地進行判斷。在目標檢測中引入注意力機制可以使模型聚焦于圖像中的關鍵信息,過濾掉無關信息,從而節省計算資源,并提高對小目標的檢測效果。NAM機制是一種注意力機制的變體,它通過引入規范化操作來增強注意力的表示能力和魯棒性[23]。在傳統的注意力機制中,通常使用softmax函數對注意力權重進行歸一化,使其滿足概率分布的性質。然而,softmax操作的一個潛在問題是對于較大或較小的輸入值,它的梯度可能會變得非常小,導致梯度消失或梯度爆炸的問題。

為了解決這個問題,NAM引入了規范化操作,以更好地處理注意力權重。具體而言,NAM在計算注意力權重之后對權重進行規范化處理,以確保注意力權重的有效范圍和穩定性。這個規范化操作可以根據具體的設計選擇不同的方法,例如通過調整權重的范圍或重新縮放權重。通過引入規范化操作,NAM可以更好地處理注意力權重,提高模型的魯棒性和表示能力。它在各種任務中都可以應用,包括自然語言處理、圖像處理和語音處理等。

NAM是一種輕量級、高效的注意力機制,采用CBAM(Convolutional Block Attention Module)的模塊集成方式,重新設計了通道注意力和空間注意力子模塊,這樣,NAM可以嵌入到每個網絡block的最后。對于殘差網絡,可以嵌入到殘差結構的最后。對于通道注意力子模塊,使用了Batch Normalization中的縮放因子,如式(1)所示,縮放因子反映出各個通道的變化大小,也表示了該通道的重要性。縮放因子即BN中的方差,方差越大表示該通道變化得越厲害,那么該通道中包含的信息會越豐富,重要性也越大,而那些變化不大的通道,信息單一、重要性小。

[Bout=BNBin=γBin-μBσ2B+ε+β] (1)

式中:[μB]和[σB]分別為小批量[B]的平均值和標準偏差;[γ]和[β]是可訓練的仿射變換參數。

通道注意力子模塊如圖3所示,最后得到的輸出特征用式(2)表示:

[IC=SigmoidWθBNM1] (2)

式中:[IC]表示輸出特征;[θ]表示每個通道的縮放因子,其權重為[Wi=θi jθj]。

因此,就可以得到每個通道的權值。如果對空間中的每個像素使用同樣的歸一化方法,就可以得到空間注意力的權重,像素注意力如圖4所示。像素歸一化公式如下:

[IS=SigmoidWφBNSM2] (3)

式中:[IS]表示輸出特征;[φ]表示每個通道的縮放因子,其權重為[Wi=φi jφj]。

首先,NAM可以增強模型對微生物圖像中關鍵信息的關注度,從而提高目標檢測的準確性。通過引入NAM,模型可以更加集中地關注微生物圖像中的重要區域,過濾掉無關的背景信息,從而提高目標檢測的精度和魯棒性;其次,微生物圖像中的微生物可能具有不同的尺寸和比例,而一些小尺寸的微生物可能更容易被目標檢測模型忽略,NAM可以幫助模型更好地關注小目標,并提高對小尺寸微生物的檢測效果;最后,NAM通過規范化操作增強了注意力權重的表示能力和穩定性,這有助于模型對微生物圖像中的不同特征和變化進行更好的建模,提高模型的魯棒性,從而使模型在不同的微生物檢測場景中表現更好。

1.3" DIoU_Loss

DIoU_Loss是一種用于目標檢測任務的損失函數,它結合了距離損失和IoU損失,以提高目標檢測模型的準確性。

在傳統的目標檢測任務中,常用的損失函數是IoU損失,它用于度量預測框與真實框之間的重疊程度。然而,IoU損失在處理不同尺度和長寬比的目標時存在一些問題,因為它無法很好地刻畫它們之間的距離差異。為了解決這個問題,DIoU_Loss引入了距離項來度量預測框與真實框之間的距離。具體而言,DIoU_Loss首先計算兩個框之間的距離,然后將距離信息整合到IoU計算中,形成一個綜合的損失函數。這樣,DIoU_Loss可以同時考慮目標框之間的重疊程度和位置偏差,從而更全面地評估目標檢測的準確性。DIoU_Loss的公式可以表示為:

[DIoU_Loss=1-IoU-D2E2] (4)

IoU損失用于衡量預測框和真實框之間的重疊程度,而DIoU是距離項,用于衡量預測框和真實框之間的距離。DIoU可以通過計算框的中心點距離和寬高差異的函數來獲得,通過引入DIoU_Loss,可以提高目標定位的準確性。對于微生物細胞檢測任務,這意味著更準確地確定細胞的位置和邊界框,可以減少模型對于位置偏移的敏感性,從而提高模型的魯棒性。在微生物細胞檢測中,細胞的大小和形狀可能會有很大的變化,引入DIoU_Loss可以提升模型對于不同尺度和長寬比細胞的檢測能力。

2" 實驗結果與分析

2.1" 實驗環境

實驗硬件配置如表1所示,操作系統為Windows 10,開發語言為Python 3.8,深度學習框架為PyTorch?GPU 2.0.1,CUDA版本為12.1,cuDNN版本為7.6.5。

2.2" 實驗數據集

BCCD(Blood Cell Count and Detection)數據集是一種常用的血液細胞計數和檢測數據集,用于計算機視覺和機器學習領域的研究和算法評估。該數據集共有三類364張圖像:白細胞(White Blood Cell, WBC)、紅細胞(Red Blood Cell, RBC)和血小板(Platelets),三個類別中有4 888個標簽。BCCD血細胞數據樣例圖如圖5所示。

2.3" 評價指標

Precision(精確率)指模型預測為正樣本中真正為正樣本的比例,即預測為正樣本且真實為正樣本的數量與所有預測為正樣本數量的比值,精確率衡量了模型預測為正樣本的準確性。

[Precision=TPTP+FP] " " (5)

式中:TP(True Positive)為真正例;FP(False Positive)為假正例。

Recall(召回率)是指模型能夠正確預測為正樣本的比例,即預測為正樣本且真實為正樣本的數量與所有真實為正樣本的數量的比值。召回率衡量了模型對正樣本的識別能力。

[Recall=TPTP+FN] (6)

式中FN(False Negative)表示假負例。

Accuracy(準確率)是指模型在所有樣本中正確預測的比例,即預測正確的樣本數量與總樣本數量的比值。準確率衡量了模型整體的正確性。

[Accuracy=TP+TNTP+TN+FP+FN] (7)

式中TN(True Negative)表示真負例。

在某些情況下,精確率和召回率可能存在相互制約的關系,[F1]值可以幫助在兩者之間進行平衡,它是精確率與召回率的調和平均值,可以綜合評估模型的準確性和召回能力。[F1]值的取值范圍是0~1,數值越高表示模型的整體性能越好。

[F1=2×(Precision×Recall)Precision+Recall]" " (8)

2.4" 實驗結果分析

2.4.1" 對比實驗結果分析

表2展示了在BCCD數據集上進行的微生物細胞識別算法對比實驗結果。其中包括了YOLOv7、DETR、YOLOX、YOLOv5、YOLOv8以及本文提出的YOLOv7?PN算法在Precision、Recall、[F1]和Accuracy四個指標上的表現。

根據表2中的對比實驗結果可知:在BCCD數據集上,YOLOv7?PN在Precision、[F1]和Accuracy方面表現最優,分別為0.825 5、0.844 8和0.893 2,但在Reacll指標上略遜于DETR模型。對比算法中,YOLOv7模型的Precision值最優為0.813 6,YOLOX模型[F1]和Accuracy最優為0.823 3和0.885 6;YOLOv7?PN模型相比對比算法最優值,Precision值提高了1.46%,[F1]值提高了2.61%,Accuracy值提高了0.86%。證明了本文算法的有效性。

2.4.2" 消融實驗

YOLOv7?PN在BCCD數據集上消融實驗的結果如表3所示。由表3可以看出,YOLOv7?PN模型的表現最好,擁有最好的Precision、Recall、[F1]以及Accuracy值,分別為0.825 5、0.865 0、0.844 8和0.893 2。經過消融實驗對比,從YOLOv7到YOLOv7?PANet,再到YOLOv7?PANet?NAM,最后到YOLOv7?PN模型,指標值不斷提升,證明YOLOv7?PN是最佳選擇。

2.4.3" 模型預測結果可視化

本文算法YOLOv7?PN模型對血細胞的檢測效果如圖6所示,所測均為驗證集中部分圖片。

3" 自建數據集

為進一步驗證本文改進算法在細胞檢測中的提升性能,選擇自建數據集進行了驗證實驗。

自建數據集圖片主要采用搜索引擎從網絡上獲取。包含白細胞、紅細胞、血小板和鐮狀細胞(Sicklemia)四種不同類型的細胞。通過對采集照片中重復的數據及網絡爬取圖片中的噪聲數據進行剔除,使用OpenCV工具對圖片采用隨機翻轉、旋轉45°、裁剪與縮放中的一種方式進行擴增,最終得到3 153張圖像;再通過LabelImg工具進行標注并制作成VOC格式的檢測數據集。其中,2 853張用于訓練,219張用于驗證,81張用于測試。細胞數據樣例圖如圖7所示,自建數據集對比實驗結果見表4。

從表4中可以看出,在挑戰性較高的自建細胞數據集檢測實驗中,YOLOv7?PN的實驗結果中的所有指標均高于YOLOv7算法,與其他算法相比更具有優勢。

為直觀展現檢測效果,本文改進算法和原算法在自建數據集上的效果對比如圖8所示??梢悦黠@看出,改進后的YOLOv7?PN算法漏檢和誤檢較少,具有更高的檢測精度和置信度,且在自建數據集中也能有效檢測,證明改進算法有較好的泛化性。

4" 結" 語

本文引入了PANet、NAM機制以及DIoU_Loss相結合的策略,提出了YOLOv7?PN模型。首先,通過引入NAM機制,自適應地調整特征圖中每個通道的重要性,增強了模型對微生物細胞的關注能力;其次,引入PANet,實現了多尺度特征融合,從而提高了算法對微生物細胞的感知能力;此外,采用DIoU_Loss作為優化目標檢測的損失函數,DIoU_Loss考慮了邊界框之間的距離和重疊程度,能夠更準確地衡量檢測框的精度,提高了細胞的定位準確性和檢測質量。實驗結果表明,YOLOv7?PN模型在圖像數據集上都得到了優秀的性能,在BCCD數據集上,Precision值提高了1.46%,[F1]值提高了2.61%,Accuracy值提高了0.86%。

在自制數據集上,Precision值提高了3.29%,[F1]值提高了1.41%,Accuracy值提高了1.40%,顯示出了較高的準確性和穩定性。證明了本文提出的算法YOLOv7?PN在處理微生物細胞識別任務中的有效性和適用性。可將改進的YOLOv7?PN算法應用于實際應用場景中,例如微生物學研究、醫學診斷等領域,為實際應用中的微生物細胞檢測提供了新的算法范式。

注:本文通訊作者為蘇曉明、劉占英。

參考文獻

[1] LI J T, CHEN J, BAI H, et al. An overview of organs?on?chips based on deep learning [J]. Research, 2022(1): 9869518.

[2] 周睿洋.生物形態學圖像分析系統[D].哈爾濱:哈爾濱工業大學,2019.

[3] SERTE S, SERENER A, AL?TURJMAN F. Deep learning in medical imaging: A brief review [J]. Transactions on emerging telecommunications technologies, 2022, 33(10): e4080.

[4] LU T S, ZHANG Z, ZHU J, et al. Deep learning?based prediction of the T cell receptor–antigen binding specificity [J]. Nature machine intelligence, 2021, 3(10): 864?875.

[5] MASLOVA A, RAMIREZ R N, MA K, et al. Deep learning of immune cell differentiation [J]. Proceedings of the national academy of sciences, 2020, 117(41): 25655?25666.

[6] KHAMPARIA A, GUPTA D, DE ALBUQUERQUE V H C, et al. Internet of health things?driven deep learning system for detection and classification of cervical cells using transfer learning [J]. The journal of supercomputing, 2020, 76(11): 8590?8608.

[7] CHENG S H, LIU S B, YU J Y, et al. Robust whole slide image analysis for cervical cancer screening using deep learning [J]. Nature communications, 2021, 12(1): 5639.

[8] PATIL A M, PATIL M D, BIRAJDAR G K. White blood cells image classification using deep learning with canonical correlation analysis [J]. Innovation and research in biomedical engineering, 2021, 42(5): 378?389.

[9] 王鑫玉,王姝蒙,李文順.基于YOLOv5的鹿食植物細胞識別方法[J].科技資訊,2024,22(1):230?233.

[10] 張崢,陳明銷,李新宇,等.基于Transformer的宮頸異常細胞自動識別方法[J].中國激光,2024,51(3):93?103.

[11] DONG N, ZHAO L, WU C H, et al. Inception v3 based cervical cell classification combined with artificially extracted features [J]. Applied soft computing, 2020, 93: 106311.

[12] WEI G X, YI W L, ZHAO Y D, et al. A method for improving YOLOv5s?based plant leaf cells recognition rate using transfer learning [C]// Third International Conference on Computer Vision and Data Mining (ICCVDM 2022). [S.l.]: SPIE, 2023: 787?791.

[13] KUTLU H, AVCI E, ?ZYURT F. White blood cells detection and classification based on regional convolutional neural networks [J]. Medical hypotheses, 2020, 135: 109472.

[14] SARWINDA D, PARADISA R H, BUSTAMAM A, et al. Deep learning in image classification using residual network (ResNet) variants for detection of colorectal cancer [J]. Procedia computer science, 2021, 179: 423?431.

[15] ZHANG Z, DENG Z J, WU Z P, et al. An improved EIoU?Yolov5 algorithm for blood cell detection and counting [C]// 2022 5th International Conference on Pattern Recognition and Artificial Intelligence (PRAI). New York: IEEE, 2022: 989?993.

[16] 譚鑫平,高志輝,韓航迪,等.基于改進YOLOv5的熒光圖像細胞智能檢測研究[J].半導體光電,2023,44(5):709?716.

[17] SHUI Z Y, ZHENG S Y, YU X X, et al. Deformable proposal?aware P2PNet: A universal network for cell recognition under point supervision [EB/OL]. [2023?11?06]. https://doi.org/10.48550/arXiv.2303.02602.

[18] CHE Y X, REN F, ZHANG X Y, et al. Immunohistochemical HER2 recognition and analysis of breast cancer based on deep learning [J]. Diagnostics, 2023, 13(2): 263.

[19] JOKINEN E, DUMITRESCU A, HUUHTANEN J, et al. TCRconv: Predicting recognition between T cell receptors and epitopes using contextualized motifs [J]. Bioinformatics, 2023, 39(1): btac788.

[20] 魏真.基于深度學習的腫瘤細胞識別與檢測研究[D].天津:天津理工大學,2023.

[21] MANESCU P, NARAYANAN P, BENDKOWSKI C, et al. Detection of acute promyelocytic leukemia in peripheral blood and bone marrow with annotation?free deep learning [J]. Scientific reports, 2023, 13(1): 2562.

[22] LIN T Y, DOLLáR P, GIRSHICK R B, et al. Feature pyramid networks for object detection [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 936?944.

[23] 張嘉琪,徐啟蕾.基于NAM?YOLO網絡的蘋果缺陷檢測算法[J].計算機與現代化,2023(10):53?58.

基金項目:國家自然科學基金項目(32060017);國家級大學生創新創業訓練計劃項目(202310128011);內蒙古自治區杰出青年基金項目(2022JQ10);內蒙古草原英才團隊滾動支持項目;內蒙古自治區科技重大專項(2021ZD0015)

作者簡介:呂彥朋(2003—),男,內蒙古巴彥淖爾人,研究方向為圖像處理、深度學習。

蘇曉明(1987—),女,河北張家口人,碩士研究生,講師,研究方向為計算機視覺、多模態融合。

劉占英(1979—),女,內蒙古寧城人,博士研究生,教授,正高級工程師,研究方向為生物質資源化利用。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 亚洲精品无码日韩国产不卡| 91小视频版在线观看www| 精品一区二区三区自慰喷水| 欧美色综合网站| 国产乱子伦精品视频| 欧美午夜在线视频| 亚洲欧洲综合| 国内精品免费| 免费大黄网站在线观看| 成人小视频在线观看免费| 九九免费观看全部免费视频| 国产一区亚洲一区| 欧美劲爆第一页| 国产资源站| 一级毛片在线播放| 爱色欧美亚洲综合图区| 国产探花在线视频| 精品丝袜美腿国产一区| 永久免费无码成人网站| 欧美www在线观看| 久久不卡精品| 国产不卡网| 色婷婷成人网| 中文字幕2区| 亚洲欧美日韩中文字幕在线| 欧美视频在线第一页| 亚洲一区波多野结衣二区三区| 最新国产高清在线| 91免费片| av无码久久精品| 亚洲小视频网站| 美女免费黄网站| 永久免费无码日韩视频| 九九热这里只有国产精品| 免费看a毛片| 91系列在线观看| 亚洲第一成年网| 国产香蕉97碰碰视频VA碰碰看| 日本不卡免费高清视频| 午夜福利视频一区| 中文字幕波多野不卡一区| a级毛片一区二区免费视频| 亚洲三级成人| 欧美特级AAAAAA视频免费观看| 99精品影院| 日韩av在线直播| 欧美一区中文字幕| 亚洲AⅤ波多系列中文字幕| 综合亚洲色图| 国产精品美女网站| 精品国产免费观看| 亚洲天堂日韩av电影| 中文字幕在线一区二区在线| 先锋资源久久| 国产门事件在线| 国产激情在线视频| 午夜视频免费一区二区在线看| 免费一级毛片在线播放傲雪网| 国产99视频免费精品是看6| 亚洲 欧美 偷自乱 图片| 欧美精品在线免费| 亚洲成人免费在线| 亚洲天堂精品在线观看| 久久中文字幕2021精品| 国产色网站| 国产精女同一区二区三区久| 国产在线欧美| 无遮挡一级毛片呦女视频| 自拍中文字幕| 97se亚洲综合不卡| 亚洲第一视频区| 蜜桃视频一区二区三区| 精品久久久久成人码免费动漫| 欧美成人精品高清在线下载| 久久网综合| 欧美日韩国产综合视频在线观看| 26uuu国产精品视频| 99热6这里只有精品| 日本高清在线看免费观看| 91精品国产福利| 久久黄色小视频| 97青草最新免费精品视频|