999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的超聲白內障檢測算法

2021-05-28 06:03:54王勇
現代計算機 2021年11期
關鍵詞:分類檢測

王勇

(四川大學計算機學院,成都610065)

0 引言

白內障是因為眼睛水晶體混濁而造成視力缺損的疾病,可能進犯單眼或雙眼。癥狀包含彩度降低、視線模糊、光源產生光暈、無法適應亮光,以及黑暗環境下視覺障礙。該病為全球半數眼盲及33%視力受損病例的原因[1],及早發現和治療可減少白內障患者的痛苦并防止視力障礙到眼盲的轉變。然而,受過訓練的眼科醫生的專業知識對于白內障臨床檢查至關重要,由于潛在的成本問題,這可能會使大多數人都難以得到早期干預導致眼疾加重。在基層和偏遠山區的醫療機構中,傳統的超聲診斷往往具有設備但沒有人才的困境。由于超聲診斷結果的主觀性強,可重復性差,不同機構,不同人員的評價結果具有很大的同質性和客觀性偏差,所以需要有經驗且專業的超聲專家提供診斷。但是,專家受時間和地域因素的影響,只能為極其有限的少數病患群體提供超聲診斷服務。因此,計算機輔助診斷避免了許多此類問題,并且正在作為常規閱讀的替代和補充方法而受到越來越多的研究者的重視[2]。因此本文著手于超聲圖像,利用深度神經網絡對圖像或圖像中病變進行分類。

1 相關工作

現有的大量白內障檢測系統所使用的特征提取與疾病檢測算法,采用的分類方法都是基于傳統的機器學習的方法。主要是采用支持向量機,使用支持向量機分類,適用于樣本量少的訓練[3]。因此適用于樣本量小的醫學圖像范疇,但需要人工手動提取相關特征。

目前也有部分是只基于深度學習的方法,使用裂隙燈圖像和視網膜圖像等高質量圖像進行分類。然而拍攝裂隙燈圖像[4]和視網膜圖像[5]等高質量圖像的儀器造價高昂,通常偏遠地區和基層醫院沒有此類裝備。相較于裂隙燈圖像和視網膜圖像等高質量圖像,超聲向一定方向傳播,而且可以穿透物體,如果碰到障礙,就會產生回聲,不相同的障礙物就會產生不相同的回聲,人們通過儀器將這種回聲收集并顯示在屏幕上,可以用來了解物體的內部結構。并且B 超檢查的價格也比較便宜,又無不良反應,可反復檢查,可以獲得比較清晰的眼球不同方向的斷面像,足以用來判別白內障的病狀。采用的神經網絡的分類的方法,不需要人工手動提取特征,只需要將大量的樣本送進神經網絡中,讓神經網絡自己學習,自動地提取特征,來進行分類,分類效果更加準確。

2 數據采集

我們建立一個交互式的共享白內障超聲數據庫。該數據庫包含正常人,白內障和各種眼疾患者的高質量B 型超聲圖,并在專家的指導下建立多維細粒度的患者分析數據。我們在采集階段通過醫院采集了“0-7”類8 種眼病的圖片,考慮到收集的數據集中許多眼睛樣本都包含多種疾病,因此將收集到的數據集進行排列并將其分為三類。

如圖1(a)所示,屬于“0”類別(正常眼睛)的圖像為1,895 張,屬于“1”類別(輕度白內障)的圖像為3,615張,屬于“2”類別(為白內障)的圖像為6,906 張。圖1(b)顯示了混合疾病類別的分布。“1+3”的值等于134,這意味著有134 例眼睛同時患有1 型白內障和3 型玻璃體混濁。為了平衡樣本的正負,我們隨機選擇了1865 只正常眼,1866 例輕度白內障眼(包括166 種混合疾病)和1864 例嚴重白內障眼(包括161 種混合疾病)進行訓練和測試。

圖1 數據集統計

3 白內障檢測算法

我們提出了一種深度學習模型,框架概述圖說明了我們的流程,其中分為兩個模塊(1)區域選擇模塊,使用YOLOv3[6];(2)分類模塊包含深層網絡DenseNet-161[7]提取的高層特征。我們的模型需要兩步完成訓練:①我們使用YOLOv3 如圖2 所示,檢測出B 超圖片中我們需要的信息——眼球和晶狀體,然后成對將眼球和晶狀體圖像輸入深度學習模型。這樣幫助我們同時從成對的白內障分類圖片中,學習有判別的表示,其中包含相同類別的相似眼球和晶狀體圖像,以及不同類別的不相似圖像;②我們將成對的晶狀體和眼球圖片放入分類模塊中提取他們的深度特征,并訓練成一個分類器。

圖2 OpenCV裁剪圖

3.1 基于目標檢測的區域選擇模塊

原始的超聲檢查圖像包含了整個眼部及眼部周圍的數據,眼部周圍數據十分復雜,噪聲干擾極大,對病狀識別的準確率有巨大影響,所以識別系統需先對輸入的圖像進行眼球目標檢測。最開始我們使用OpenCV 將圖片轉化為灰度圖,然后將圖像二值化提取輪廓。再通過最小內接矩形裁圖,但是效果極差,無法準確框定眼球。后來改用目標檢測網絡,通過對大量的原始圖像進行邊框標注的眼球數據來學習位置信息。

我們采用YOLOv3 作為目標檢測網絡。如圖3 所示,YOLOv3 對輸入圖片進行了粗、中、細網格劃分,以便分別實現對大、中和小物體的預測。特征提取采用DarkNet-53[6],即在全卷積的基礎上,引入Residual 殘差結構[8],在減小深層網絡訓練難度的同時,明顯提升精度。此外,訓練前使用K-means 算法[9],對預處理圖像進行聚類處理,并且獲得較好的先驗框。并且引入RCNN 系列[10]的anchor 錨點機制,YOLOv3 的anchor 幫助網格預測方法速度更快且穩定。然后通過NMS[11]處理,框定準確度最高的框。YOLOv3 憑借其出色的穩定性和高效性,可以在極短的時間內快速進行區域定位,并且容易實現輕量化。

最初我們使用原始YOLOv3 直接同時框定眼球和晶狀體并且實現分類,但是眼球以及晶狀體的框定結果很差,并且完全無法進行正確分類,所以我們對原始的YOLOv3 進行了小小的改動。我們使用了3773 帶注釋的眼球和晶狀體圖像作為訓練輸入,并將所有對象歸為一類,分別訓練兩個YOLOv3。首先使用K-means 提取先驗框,然后使用YOLOv3 本身進行學習。為了更好地定位學習框,在計算損失時省略了類損失,因為只有一類。損失函數如下所示:

圖3 YOLOv3結構圖

3.2 基于DenseNet-161的分類模塊

DenseNet-161 借用residual 殘差結構,將不同層的網絡稠密連接,確保網絡中最大的信息流通。DenseNet 這種稠密的連接方式比傳統的卷積網絡需要更少的參數,并同時改善整個網絡的信息流和梯度,每個圖層都與損失函數和原始信號連接,使網絡更容易訓練;此外,DenseNet 密集的連接具有正則化效應,減少小規模數據集的過擬合。向前:每一層都可以看到所有的之前的輸入,對于網絡已經學習到的“知識”(即已有feature map),以及原始輸入,都可以直接連接到,然后再添加自己的“知識”到全局知識庫。鼓勵了特征的重用,特征重用就可以減少不必要的計算量。另外,多層之間可以很好地進行交互,每一層都接受前面所有層的輸出,具有多層特征融合的特性。向后:跳躍結構,可以很近地連接到最后的loss,訓練起來很容易,直接接受最終loss 的監督,深層監督,解決梯度消失的問題,并且,能起到正則化的作用緩解過擬合。DenseNet-161 準確度和效率在分類網絡中都名列前茅,能夠幫助實現高效精準判別。

4 實施細節及實驗結果

4.1 實施細節

對YOLOv3 輸出帶有bbox 的圖像進行裁剪,然后對短邊進行上下均勻零填充,使圖片正方形化。然后將所有圖片規范化到128×128 的統一尺度,進行隨機水平翻轉、隨機左右翻轉0-10 度、亮度調節、規范化操作。將有限的圖片進行10 倍的擴充,同時翻轉旋轉等操作大大提升了網絡的魯棒性。一組圖像集的均值和標準差可以很好地概括這組圖像的信息和特征。均值就是一組數據的平均水平,而標準差代表的是數據的離散程度。規范化使神經網絡在訓練的過程中,梯度對每一張圖片的作用都是平均的,也就是不存在比例不匹配的情況,以保證所有的圖像分布都相似,也就是在訓練的時候更容易收斂。

本實驗中使用的數據集包括5,595 張圖像。其中5,045 個用于訓練,550 個用于測試。為了開發和評估模型,將總共5,045 只B 超檢查眼隨機分為內部訓練集和內部驗證集。通過隨機提取每個數據庫中90%和10%的記錄來生成內部訓練和驗證集。然后,在YOLOv3 之后,我們可以獲得5,595 個眼球和5,595 個晶狀體圖像。

YOLO-v3 配置如下:img-size 416, batch-size 16,iou-thres 0.5, conf-thres 0.001, nms-thres 0.5, class 1,(SGD)lr 0.01,momentum 0.9,weight-decay 0.0005。由于COCO 和ImageNet 數據集類別與此數據集無關,因此我們不采用預訓練模型。

來自COCO 和ImageNet 的權重。眼球的YOLO錨點:121,121,149,149,158,158,164,164,169,169,172,172,175,175,181,181,191,191。鏡頭的YOLO 錨點:47,47,55,75,57,56,65,63,73,70,78,77,83,60,95,65,97,57。

評分標準:FN代表正常眼睛、FM輕度白內障、FS重度白內障、FFinal代表平均準確率,計算過程如下:

4.2 實驗結果

最開始我們直接使用原圖放入5 層卷積中訓練,發現準確率只有56%;后來不斷嘗試AlexNet[12]/VGG-16[13]/ ResNet-18[8]/ ResNet-152/ DenseNet-121/Dense Net-161/DenseNet-201,發現DenseNet-161 效果最好,準確率高達84%。

表1 不同分類器判別原始圖像準確率

然后,我們使用通過YOLOv3 獲得的晶狀體和眼球圖像,再次通過上述網絡訓練,發現仍是DenseNet-161 效果最好,準確率高達90%。

5 結語

在本文中,我們提出了一種基于B 超圖像的白內障檢測方法。該方法由區域選擇模塊,特征提取模塊組成。區域選擇模塊檢測B 超圖像的眼球和晶狀體。為了完全捕獲圖像特征,使用帶有卷積神經網絡的特征提取模塊獲取高級特征。將來,我們將使用更多的特征提取方式,獲得更高的準確率。同時實現更多種類的眼部疾病檢測,并嘗試使用生成對抗網絡來擴展我們的輔助訓練數據集。

猜你喜歡
分類檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
“幾何圖形”檢測題
“角”檢測題
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
主站蜘蛛池模板: 波多野结衣第一页| 精品伊人久久大香线蕉网站| 色婷婷在线影院| 欧美亚洲国产一区| 国产精品v欧美| 狠狠色狠狠综合久久| 国产原创演绎剧情有字幕的| 久久综合伊人77777| 中文精品久久久久国产网址| 激情综合网址| 亚洲欧美成aⅴ人在线观看| 99久久精品视香蕉蕉| 色窝窝免费一区二区三区 | 啪啪啪亚洲无码| 麻豆精选在线| 精品国产aⅴ一区二区三区| av尤物免费在线观看| 国产一级无码不卡视频| 午夜精品区| 国产在线视频导航| 亚洲an第二区国产精品| 日韩精品一区二区三区免费在线观看| 玖玖免费视频在线观看| 99手机在线视频| 成年人福利视频| 欧美一级在线播放| 精品国产香蕉伊思人在线| 欧美亚洲国产精品久久蜜芽| 国模粉嫩小泬视频在线观看| 日本三级精品| 精品成人一区二区| 国内精品视频在线| 久久久国产精品无码专区| 色欲不卡无码一区二区| 国产精品久久久免费视频| 国产毛片一区| 久久精品人人做人人综合试看| 国产高清又黄又嫩的免费视频网站| 精品视频第一页| 99在线视频免费| 亚洲第一av网站| 中文字幕伦视频| 日本日韩欧美| 韩日免费小视频| 成年人免费国产视频| 国产网站黄| 欧美在线一二区| 亚洲欧洲免费视频| 欧美在线一二区| 亚洲天堂伊人| 欧美在线伊人| 日韩专区欧美| 91无码视频在线观看| 国产尹人香蕉综合在线电影 | 国产亚洲精| 亚洲最新地址| 国产91小视频在线观看| 风韵丰满熟妇啪啪区老熟熟女| 亚洲国产精品人久久电影| 色噜噜在线观看| 色综合天天综合| 国产美女91呻吟求| 日本午夜在线视频| 亚洲国产日韩视频观看| 永久天堂网Av| 99在线视频免费| 国产成人91精品| 国产精品自在线天天看片| 国产精品99久久久| 久久精品视频一| 亚洲国产成人无码AV在线影院L| 欧美激情综合一区二区| 日本日韩欧美| 91伊人国产| 好紧好深好大乳无码中文字幕| 久久精品视频一| 国产在线观看成人91| 91区国产福利在线观看午夜| 亚洲电影天堂在线国语对白| 91网址在线播放| 国产亚洲欧美日韩在线一区二区三区| 91在线无码精品秘九色APP|