999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv5的人血涂片細胞的檢測計數研究

2022-02-20 00:19:40韓子卓胡天寒吳敏
電腦知識與技術 2022年34期
關鍵詞:深度學習

韓子卓 胡天寒 吳敏

摘要:采用公開的BCCD數據集與自己標注的數據集,利用YOLOv5檢測算法,結合DenseNet模型和全卷積網絡模型實現細胞檢測計數。該方法可以更有效地提取特征解決重疊細胞的計數,再將訓練好的最優模型應用于移動端并投入臨床使用,簡化手動血細胞識別和計數過程,從而達到提高診斷準確率及降低誤檢率。

關鍵詞:YOLOv5;血細胞識別與計數;神經網絡;深度學習

中圖分類號:TP391? ? ? ? 文獻標識碼:A

文章編號:1009-3044(2022)34-0011-03

1 概述

進行血液檢測時通常需要對血細胞進行檢測和計數,通過人體不同血細胞的個數,觀察血細胞數量和形態是否發生異常,就可以初步判斷患者的疾病類型和發展程度,以便進行后續的檢查與治療。目前的細胞檢測和計數方法主要有:早期基于霍夫變換的自動細胞識別技術、距離變換的分水嶺方法算法和閾值法[1]。基于閾值細胞分割算法通常將細胞分割為不同的區域,易于實現和提高分割效率,但當血細胞圖片中含有大量的重疊細胞時,很容易導致邊界信息丟失和分割不完整。Ramoser等[2]利用K均值聚類方法從其他細胞中分離出血細胞,然后使用支持向量機進行血細胞分類。該方法需要大量樣本和較高的計算復雜度。Ghosh等[3]使用分水嶺算法對細胞進行分割,將被分割的血細胞圖像發送到一個簡單的樸素貝葉斯分類器進行分類。該方法對細胞分割精確度要求較高,但是一般正常處理后的血涂片會存在很多的血細胞粘連在一起,這樣會導致分割的結果不準確,最后影響實驗結果。

近年來,隨著深度學習算法模型不斷涌現,模型訓練速度越來越快。將深度學習應用于人血涂片視覺檢測的學者越來越多。Prayag等[4]基于卷積神經網絡(Convolutional Neural Network ,CNN)[5]框架使用雙階段目標檢測方法來自動對外周血細胞圖像進行分類,這種方法更準確,但檢測速度較慢。譚潤旭基于深度學習進行了細胞計數的深度學習研究,對不同網絡模型和架構的細胞計數性能進行了實驗研究[6]。吳汾奇使用人工智能領域的主流深度學習技術和圖像處理技術,研究了骨髓血細胞自動識別新技術[7]。奚昶尊研究了基于深度學習的組織病理圖像細胞計數算法[8]。YOLO是一種基于回歸的目標檢測算法,傳入一張圖像通過訓練的模型網絡,就可以實現對圖像的檢測,該網絡模型比其他傳統模型輕便、快速。

本文采用目標檢測中的Yolov5模型,結合DeneseNet網絡模型進行了關于人血涂片數據集的訓練,以獲得對血細胞的檢測和計數的數據模型。相較于傳統的神經網絡模型它的體量更小、訓練速度快,適合部署于移動端。

2 數據集和模型設計

2.1 數據集的選取

論文采用公開的血細胞圖像數據集BCCD,共有364幅帶標注的血涂片圖像,網址為https://github.com/Shenggan/BCCD_Dataset。由于數據集圖像數量不夠多,皖南醫學院形態學實驗實訓中心為本項目提供血涂片圖像636張,最終本項目使用的數據集為1000張640×480的顯微圖像。未標注的血涂片圖像如圖1所示。在專家的指導下通過LalelImg工具對進行過醫學處理的人血涂片進行人工的細胞標注,包括三種類型細胞分別為白細胞、紅細胞和血小板細胞。將白細胞標注為WBC,將紅細胞標注為RBC,將血小板標注為Platelets。

圖2 為使用LalelImg工具進行標注的界面,選取需要標注的目標,圖2選中的目標為血小板,將其類別設置為Platelets,采用這樣的方法將所有的目標進行標注。

2.2 圖像預處理

1)? 數據增強

YOLOv5采用了Mosaic數據增強,將四幅圖像進行隨機圖像處理操作,例如縮放、剪裁,再將它們拼接在一起,極大豐富了檢測數據集,特別是在隨機縮放上可以增加許多小目標,同時也減小了GPU的計算。

2) 歸一化

在YOLOv5目標檢測算法中,由于輸入圖像分辨率的分辨率不同,通常需要將輸入圖像分辨率標準化到640×640,因此需要對人血涂片圖像進行進一步處理。

例如:導入的血涂片的圖片大小640×480,會根據640×640進行相應的填充,上下兩列的列表分別pad = (640-480)/2 = 80,并使用像素值為(0,0,0) 黑色像素進行填充具體的操作如圖3所示:

2.3 訓練模型

2.3.1 YOLOv5模型結構

YOLOv5模型算法將目標檢測看成回歸問題。CNN網絡將傳入的圖像等分成一定比例的網格,檢測每個網格內的目標并預測邊界框。每個邊界框除了返回自己的位置外,還帶有一個代表了所預測的框中含有對象的置信度和這個框預測的準確率,其值的計算如公式(1) 所示:

2.3.2 DenseNet模型結構

DenseNet由DenseBlock和transition layer兩部分組成,其中過渡層(transition layer)由一次卷積(convolution)與一次池化(pooling)操作組成,DenseNet的模型結構如圖5所示:

2.3.3 訓練模型

本次試驗在YOLOv5的backbone中添加了DenseNet網絡,DenseNet可以減少梯度的損失。為了加強圖像不同層次之間特征信息的傳輸,從圖像中提取的特征可以更有效地使用,模型使用小卷積核,能夠進一步減少計算量。引入DenseNet可以更好地識別不同類別的血細胞,YOLOv5+DenseNet模型結構如圖6所示。

3 實驗設計與結果分析

3.1 實驗設計

為驗證YOLOv5人血涂片模型的識別能力,從1至1000張圖像的全部數據集中選出100張圖像用于測試集,其余圖像用Mosaic數據增強增加到2,500張圖像,訓練集和測試按9:1的比例劃分,其中2,250張進行了訓練集,250張用于測試集。實驗基于YOLOv5開源框架,在型號為NVIDIA GTX 2060的GPU上進行訓練。輸入YOLOv5網絡模型的圖片尺寸為640*640*3,訓練的輪次分別設置為200次、300次和400次,采用Adam優化器和交叉熵損失函數(Categorical Crossentropy)。

3.2 評估標準

為了測試模型的性能,常用的目標檢測評價標準有精確度、召回率、mAP等。TP為模型預測中為正例且原圖像也為正例的細胞數量。FN為預測中為反例但在原圖像為正例的細胞數量。FP為模型預測中為正例但在原圖像為反例的細胞數量,混淆矩陣如表1所示。

1) 精確度(Precision)

精確度為在預測為正的樣本中實際為正樣本的概率,其計算公式如式(2) 所示:

2) 召回率(Recall)

召回率為在實際為正的樣本中被預測為正的概率,其計算公式如式(3) 所示:

3) mAP(mean Average Precision)

AP(Average Precision) 代表平均精度,是Precision-Recall曲線下的面積,AP的值越高表示分類的效果越好。

mAP是多個AP類型的平均值,表示在每個類別下獲得的AP的再平均。mAP的值越大表示其精度度越高。

4) 損失(loss)

損失分為兩類,一類cls_loss(Classification) ,一類是giou_loss,cls_loss是分類損失loss函數,數值越小,分類越準確,giou_loss是平均GIoU損失函數,數值越小,預測方框就越準確。

3.3 實驗結果與分析

模型訓練迭代次數為300次,得到訓練過程中各項性能變化如圖7所示。

根據(a)發現訓練300次,精確度緩緩提高,到300次時精確度大致為0.7,隨著訓練次數的增多,精確度還在上升;根據(b)發現150次到300次之間召回率波動不大,還需修改參數調整結果;0.5與0.95表示判定iou為正負樣本的閾值,根據(c)(d)發現閾值設置為0.5時,mAP值在0.95左右,效果較好;根據(e)發現訓練到300次時cls_loss趨近于0,表示分類結果慢慢趨于正確的值;根據(f)發現隨著訓練次數的增加giou_loss逐漸減小并慢慢趨于0,表示預測的方框逐漸向真實框靠攏。

YOLOv5將自動存儲最后一次訓練的模型和最佳的訓練模型,并使用最優訓練模型預測測試集。初步的測試集預測結果如圖8所示,綠色的框為預測框,框的左上角為預測的類別,右上角為預測為這個類別的置信度得分,通過預測結果可以看到預測效果較好。

3.4 應用于移動端

將訓練的最優模型提取出來并部署到移動設備上,進行實時的檢測計數。具體在移動端的界面如圖9所示,通過“選擇文件”,點擊“開始檢測”,即得到檢測計數的結果。

4 總結

為了實現對血細胞的檢測和計數,對Yolov5和DeneseNet的網絡模型進行了關于人血涂片數據集的訓練,達到了比較好的準確率。得到的數據模型體量小,處理速度快,精度相對較高,比較適合于部署到醫療移動設備上,進行血細胞的檢測與計數。

參考文獻:

[1] Malpica N,de Solórzano C O,Vaquero J J,et al.Applying watershed algorithms to the segmentation of clustered nuclei[J].Cytometry,1997,28(4):289-297.

[2] Ramoser H,Laurain V,Bischof H,et al.Leukocyte segmentation and classification in blood-smear images[C].Shanghai,China:2005 IEEE Engineering in Medicine and Biology 27th Annual Conference.IEEE,2005:3371-3374.

[3] Ghosh M,Das D,Mandal S,et al.Statistical pattern analysis of white blood cell nuclei morphometry[C].Kharagpur,India:2010 IEEE Students Technology Symposium (TechSym).IEEE,2010:59-66.

[4] Tiwari P.Detection of subtype blood cells using deep learning[J].Cognitive Systems Research,2018,52:1036-1044.

[5] Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutional neural networks[J].Communications of the ACM,2017,60(6):84-90.

[6] 譚潤旭.基于深度學習的細胞計數研究[D].合肥:安徽大學,2019.

[7] 吳汾奇,呂麗麗,呂迪,等.骨髓紅粒細胞自動識別的深度學習模型[J].吉林大學學報(信息科學版),2020,38(6):729-736.

[8] 奚昶尊.基于深度學習的病理圖像細胞計數算法研究[D].西安:西安電子科技大學,2020.

【通聯編輯:唐一東】

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 国产一级毛片网站| 欧美精品v| 久久黄色一级视频| 久久精品嫩草研究院| 国产无码精品在线播放| 日韩欧美91| 国产一区二区三区在线观看免费| 熟妇人妻无乱码中文字幕真矢织江 | 亚洲人成影院午夜网站| 午夜啪啪网| 无码在线激情片| 91色老久久精品偷偷蜜臀| 高清大学生毛片一级| 国产日韩AV高潮在线| 狠狠亚洲五月天| 极品av一区二区| 日本三级欧美三级| 99久久国产自偷自偷免费一区| 国内精品视频| 伊人成人在线| 亚洲AV一二三区无码AV蜜桃| 亚洲,国产,日韩,综合一区| 国产永久免费视频m3u8| 黄色网页在线播放| 国产第八页| 国产精品免费电影| 999精品色在线观看| 高清欧美性猛交XXXX黑人猛交| 国产免费a级片| 亚洲国产日韩视频观看| 欧美97色| 青青青国产视频手机| 亚洲Av激情网五月天| 亚洲欧美另类日本| 欧美激情视频二区| 好久久免费视频高清| 成人福利在线视频免费观看| 爱色欧美亚洲综合图区| 国产成人免费观看在线视频| 五月天久久综合| 国产精品免费露脸视频| 99青青青精品视频在线| 日韩欧美中文字幕在线精品| 国产精品专区第1页| 精品福利视频网| 男女男免费视频网站国产| 黄色一及毛片| 国产拍揄自揄精品视频网站| 国产真实乱人视频| 亚洲免费播放| 亚洲一区免费看| 国产精品亚洲αv天堂无码| 亚洲日本中文综合在线| 72种姿势欧美久久久大黄蕉| 国产免费a级片| 手机精品福利在线观看| 久久综合丝袜日本网| 久久久久无码精品| 久久人午夜亚洲精品无码区| 国产精品yjizz视频网一二区| 51国产偷自视频区视频手机观看| 亚洲欧洲日韩久久狠狠爱| 丰满的熟女一区二区三区l| 中文一级毛片| 国产va免费精品| 人妻夜夜爽天天爽| 色综合中文字幕| 欧美日韩免费在线视频| 亚洲性影院| 暴力调教一区二区三区| 国产网友愉拍精品| 日日噜噜夜夜狠狠视频| 91精品国产91久无码网站| 一级福利视频| 久久亚洲日本不卡一区二区| 色亚洲激情综合精品无码视频| 国产产在线精品亚洲aavv| 欧美国产成人在线| 制服丝袜一区| 欧美特级AAAAAA视频免费观看| 亚洲无限乱码| 久久婷婷五月综合色一区二区|