999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合局部熵和魯棒主成分分析的眼底圖像硬性滲出物檢測方法

2019-09-04 10:14:27陳莉陳曉云
計算機應用 2019年7期

陳莉 陳曉云

摘 要:針對眼科醫生診斷眼底圖像工作耗時且易出錯的問題,提出一種無監督的眼底圖像硬性滲出物檢測方法。首先,通過形態學的背景估計方法去除血管、暗病變區域和視盤;然后,以圖像亮度通道為初始圖像,利用硬性滲出物在眼底圖像中的局部性和稀疏性,結合局部熵和魯棒主成分分析方法分解得到低秩矩陣和稀疏矩陣;最后,歸一化稀疏矩陣得到硬性滲出物區域。實驗結果顯示,在e-ophtha EX和DIARETDB1公開數據庫上,所提方法在病灶水平上靈敏性為91.13%和特異性為90%,在圖像水平上準確率為99.03%,平均運行時間0.5s;與支持向量機(SVM)和K-means方法相比靈敏性高且耗時少。

關鍵詞:硬性滲出物;魯棒主成分分析;局部熵;背景估計;彩色眼底圖像

Abstract:To solve the time-consuming and error-prone problem in the diagnosis of fundus images by the ophthalmologists, an unsupervised automatic detection method for hard exudates in fundus images was proposed. Firstly, the blood vessels, dark lesion regions and optic disc were removed by using morphological background estimation in preprocessing phase. Then, with the image luminosity channel taken as the initial image, the low rank matrix and sparse matrix were obtained by combining local entropy and Robust Principal Components Analysis (RPCA) based on the locality and sparsity of hard exudates in fundus images. Finally, the hard exudates regions were obtained by the normalized sparse matrix. The performance of the proposed method was tested on the fundus images databases e-ophtha EX and DIARETDB1. The experimental results show that the proposed method can achieve 91.13% of sensitivity and 90% of specificity in the lesional level and 99.03% of accuracy in the image level and 0.5s of average running time. It can be seen that the proposed method has higher sensitivity and shorter running time compared with Support Vector Machine (SVM) method and K-means method.

Key words: hard exudate; Robust Principal Components Analysis (RPCA); local entropy; background estimation; color fundus image

0 引言

糖尿病視網膜病變(Diabetic Retinopathy, DR)是糖尿病最嚴重的并發癥之一,而硬性滲出物(Hard Exudates, HE)是糖尿病視網膜病變最重要的早期癥狀之一,也是糖尿病患者視力損傷或致盲的主要原因。在彩色眼底圖像中HE是一種亮的病變區域,表現為邊界清晰的蠟樣黃白色斑點或斑塊,其形狀大小各不同[1],而視盤呈近似橢圓形狀的亮黃色斑塊,微動脈瘤呈暗紅色近似小圓點形狀,在顏色、結構和紋理上HE與視盤、血管和微動脈瘤等暗紅色病變具有相似特征,這導致在眼科醫生診斷大量的眼底圖像容易出錯且耗時,因此快速準確地檢測HE是計算機輔助眼底圖像篩查和診斷技術一個艱難而關鍵的問題。

1 相關研究

目前,關于眼底圖像中HE的檢測主要分為四類方法。

第一類是基于形態學的檢測方法。如Welfer等[2]將彩色眼底圖像RGB轉換為LUV(CIE 1976(L*,u*,v*),CIELUV)彩色空間,在L通道上采用頂帽變換和底帽變換來增強圖像的對比度,再利用形態學重建完成HE提取;Walter等[3]先利用形態學閉運算去除血管,然后根據局部閾值得到候選區域,同時去除視盤區域,最后利用形態學重建完成HE的提取。

第二類是基于閾值分割或區域生長的檢測方法。如Qi等[4]將RGB眼底圖像轉為YIQ彩色圖像(National Television Standards Committee, NTSC),利用閾值和Krisch邊緣算子檢測HE;Santhi等[5]提出基于背景修正的自適應區域生長法分割HE亮病變區域。

第三類是基于無監督的檢測方法。如曹新容等[6]提出基于鄰域約束模型的聚類檢測方法,將鄰域的最大灰度變化作為約束條件判定是否有HE;Sopharak等[7]提取彩色眼底圖像的強度、強度的標準差、色調和邊緣等4維特征進行模糊C均值(Fuzzy C Means, FCM)聚類,并且與支持向量機(Support Vector Machine, SVM)、最近鄰(Nearest Neighbors, NN)、樸素貝葉斯分類器(Naive Bayes, NB)分別進行對比分析,實驗結果顯示FCM的檢測方法在靈敏性優于有監督的分類方法。Biyani等[8]先從HSI(Hue Saturation Intensity)彩色空間的強度通道采用Ostu閾值分割出視盤,接著用K-means方法分割出候選HE,提取相應的顏色、強度、紋理、中值濾波和像素局部變化五個特征進行K-means聚類得到分割結果,最后用形態學重建完成最后的HE提取。

第四類是基于有監督的分類方法。如肖志濤等[1]先通過背景估計和Kirsch算子的邊緣信息確定HE的候選區域,提取灰度、形狀和相位一致性等特征采用SVM分類器對候選區域進行分類得到HE的提取。Asha等[9]從LUV彩色空間中提取均值、方差、質心和邊緣等18維特征分別采用NB、多層感知機(MultiLayer Perceptron, MLP)和極限學習機(Extreme Learning Machine, ELM)分類器進行HE檢測,實驗結果顯示ELM優于其他兩種分類器。Adem[10]將霍夫變換和卷積神經網絡(Convolutional Neural Network, CNN)相結合用于檢測HE,Parham等[11]比較多個深度學習的模型,實驗表明ResNet(Residual Network)的深度學習模型結合SVM效果最好。Amin等[12]將RGB圖像轉成灰度圖像,利用Gabor濾波增強病變的對比度,通過高斯濾波、閾值和形態學重建去除視盤得到候選HE區域,提取這些區域的面積、周長、環狀和直徑四個特征采用SVM、NB等多種分類器在DIARETDB1(Standard Diabetic Retinopathy Database Calibration level 1)、e-ophtha(e-ophtha Color Fundus Image Database)、DRIVE(Digital Retinal Images for Vessel Extraction)、MESSIDOR(Methods To Evaluate Segmentation And Indexing Techniques In The Field Of Retinal Ophthalmology)、HRF(High Resolution Fundus)等多個公開數據庫上進行分類。

盡管已有的檢測方法能較好地檢測眼底圖像中的HE,但以上所述的形態學或閾值等檢測方法針對不同的數據庫需要調整閾值參數,不具有普遍性;有監督的檢測方法(如SVM、NB、ELM等)需專家手動標記HE病變區域為標準,這給臨床檢測帶來很大的困難;CNN檢測方法雖不需要選取特征且檢測效果好,但需要大量的訓練樣本且耗時,因此迫切需要一個快速、有效的檢測方法來實現眼底圖像HE的自動分割。

魯棒主成分分析(Robust Principal Components Analysis, RPCA)方法,又稱低秩矩陣恢復,最早是由Wright等[13]文獻13的作者不是Wright,二者不一致,需調整提出,其思想是當矩陣的某些元素被嚴重破壞后,能自動識別被破壞的元素并恢復其原始矩陣。將含被破壞的數據矩陣D分解為兩個矩陣相加的形式,即D=L+S,其中:L是低秩矩陣,逼近原始數據矩陣;S是稀疏矩陣,即含噪聲的數據矩陣。近年來,基于矩陣低秩稀疏分解的魯棒主成分分析方法被成功應用于圖像人臉識別[14]、顯著性目標檢測[15-17]等計算機視覺領域。從認知科學的角度看,圖像信息可以分為背景部分和顯著性目標。背景部分代表冗余信息,而顯著性目標則代表圖像中人們視覺注意的部分[15]。從子空間分析角度看,圖像的背景具有較強的相關性,近似位于同一低秩的子空間;而顯著性目標與背景差異性較大,偏離該低秩空間,是稀疏分布的。Xiao等[14]將RPCA方法用于人臉識別,將人臉圖像分解成低秩矩陣和稀疏矩陣,其中稀疏矩陣代表人臉的局部特征,如眼鏡、圍巾等面部顯著性特征,低秩矩陣則代表去除面部特征的人臉圖像。Candes等[17]將RPCA方法用于視頻監控的背景建模,穩定的背景部分表示低秩部分,運動的顯著性目標代表視頻的前景,即稀疏部分。不論是動態的視頻還是靜態的圖像,RPCA都能較好地將圖像分解成低秩的背景和稀疏的顯著性目標兩個部分。

考慮彩色眼底圖像的背景在顏色、強度、亮度等像素特征上具有很強的相似性,而HE病變區域與背景差異較大,是局部且稀疏分布的,因此本文將RPCA的思想應用于HE病變區域檢測,即將彩色眼底圖像通過RPCA方法分解得到的低秩矩陣代表圖像背景,稀疏矩陣表示為HE病變區域,提出一種無監督的彩色眼底圖像硬性滲出物檢測方法,利用形態學的背景估計方法去除血管、暗病變區域和視盤等偽目標,以圖像亮度通道Y為初始圖像,利用HE病變在眼底圖像中的局部性和稀疏性,結合局部熵和RPCA方法得到HE病變區域。該方法不需要專家手動標記HE為標準,不需要選取多個特征且耗時少,給眼科臨床篩查和診斷帶來很大的便利。

2 本文方法

本文方法流程如圖1所示。首先采用形態學的背景估計方法去除血管及暗病變區域等偽目標,并在亮度通道上通過形態學重建和自適應閾值方法分割視盤,然后提取預處理后的亮度通道作為初始圖像,結合局部熵和RPCA低秩稀疏分解得到HE病變區域二值圖。

2.1 預處理

如圖2所示,眼底圖像中血管、視盤及暗病變區域(包含微動脈瘤和出血點)與HE區域有相似的顏色、亮度和紋理結構特征,為了去除這些偽目標,本文采用背景估計的方法[1]增強HE區域和背景像素(包含血管、暗病變區域等)的對比度。

先對灰度圖像Igray (如圖3(b))進行大小為原始圖像大小的1/30的中值濾波處理,構建一個灰度圖像和中值濾波圖像Im(如圖3(c))求最大值的掩膜圖像Imask(如圖3(d));在此基礎上以中值濾波圖像為標記圖像,利用形態學重建提取眼底圖像的背景Ibj(如圖3(e));將灰度圖像與估計的背景圖像相減,得到差值矩陣I(如圖3(f)),差值小于零的像素即對應灰度圖像中的暗區域(包含血管、其他暗紅色病變區域)。將這些像素置為零,即去除包含血管和暗紅色病變區域等偽目標。

去除血管及暗病變區域等偽目標后仍然存在與HE病變區域相似的亮區域(視盤、鄰近血管的神經纖維區域等),因此去除視盤是有必要的。由于視盤在眼底圖像中呈亮黃色近橢圓形狀,采用形態學重建和自適應閾值的方法分割視盤。先將RGB彩色眼底圖像轉為YCbCr(Y′CBCR)彩色眼底圖像,在亮度通道Y(如圖3(g))上進行CLAHE(Contrast Limited Adaptive Histogram Equalization)增強(如圖3(h))后作為掩膜圖像,采用大小25×25的中值濾波處理(如圖3(i))后作為標記圖像,將形態學重建(如圖3(j))后的圖像灰度值范圍進行調整,取其最大面積的連通區域進行膨脹處理(采用圓盤結構元素(′disk′,5))為視盤分割結果(如圖3(k)),經過多次實驗,圖像灰度值范圍由[0,1]調整為[0.55,0.65]分割效果最好,最后將視盤的像素置為零作為預處理后圖像(如圖3(l))。

2.2 局部熵

信息熵是圖像信息論中用來度量信息量的一個概念,局部熵反映圖像某個區域所含信息量的多少。在圖像中某個區域含有的信息量越多,則圖像對比度越好,更好地突出細節部分;反之,圖像灰度變化不大,對比度越差[18]。對于圖像的背景,相當于無序的噪聲,其局部熵值較均勻且具有較大熵值;對于HE病變區域,灰度起伏較大,信息量較大,其熵值較小。因此局部熵比顏色灰度值更能很好地反映HE病變區域的局部性和顯著性。本文定義局部熵[19]為:

以像素點(i, j)為中心的n×n區域進行熵計算,得到局部熵特征。其中pi, j為圖像中像素點(i, j)灰度占局部總灰度的概率。

由于人的肉眼對YCbCr彩色空間中亮度通道Y更敏感,因此本文在預處理后的亮度通道上以像素點(i, j)為中心的9×9區域提取局部熵,能更好地反映HE病變區域的局部性。

2.3 結合局部熵和RPCA的檢測方法

利用HE病變區域在眼底圖像中的局部性和稀疏性,參照傳統的RPCA[13]方法,結合局部熵和RPCA低秩稀疏分解方法可表示為下面凸優化的求解模型:

其中根據式(1)計算眼底圖的局部熵H,A代表低秩矩陣,S代表稀疏矩陣,λ是正則化參數,用于平衡低秩項和稀疏項的效果。rank(·)是秩函數,表示非零奇異值的個數,l0范數‖·‖0表示非零元素的個數,約束稀疏項。由于式(2)是NP難題,可將范數優化問題松弛為l1范數優化問題,rank函數松弛為核范數,所以上述模型變為:

其中核范數‖·‖(矩陣所有奇異值之和)和l1范數(矩陣所有元素絕對值之和)分別是秩函數和l0范數的最小凸近似。式(3)求解問題可轉變為對應的增廣拉格朗日函數:

其中Y是拉格朗日乘子, μ>0是懲罰參數,〈·〉表示內積運算,‖·‖F為F范數。采用不精確拉格朗日乘子法(Inexact Augmented Lagrange Multiplier, IALM)求解式(4)過程中,當Y=Yt, μ=μt時,使用交替式方法求解塊優化問題minA,S L(A,S,Yt, μt)。固定其余變量,交替更新其中一個變量,直到滿足收斂條件為止。具體更新過程如下。

其中ρ>1為常數,ε>0為較小正數,參數μ初始值0.1, ρ=1.5, μk隨著迭代的更新增長速度越快,收斂速度越快。在以上更新過程中,更新A時,矩陣H-St+Yt/μt需進行奇異值分解(Singular Value Decomposition, SVD)。算法最后得到背景矩陣A和稀疏矩陣S,然后根據得到的矩陣S進行歸一化得到最后的HE病變區域圖像。

3 實驗結果與分析

3.1 實驗數據及評價指標

目前給出HE病變區域專家標記的公開數據庫有e-ophtha EX和DIARETDB1。DIARETDB1數據庫含有89幅分辨率為1500×1150的彩色眼底圖像和不同病變的標記,其中含有HE的圖像有48幅,這些圖像同時存在出血點、軟性滲出物和微動脈瘤等病變。e-ophtha EX數據庫是專門用于糖尿病視網膜病變研究的彩色眼底圖像數據庫,是由法國國家科研署資助的遠程DR篩查項目OPHDIAT(OPHthalmology DIAbetes Telemedicine)[20]中建立的e-ophtha數據庫中的一個子庫,HE病變圖像的標記是由TeleOphta(TeleOphtalmology)[21]項目中ADCIS(ADvanced Concepts in Imaging Software)研發的標注軟件結合眼科專家的修改意見共同完成的。該庫包含103幅彩色眼底圖像(包含四種不同尺寸:1440pixels×960pixels、1504pixels×1000pixels、2048pixels×1360pixels、2544pixels×1696pixels),其中有47幅含HE病變圖像和56幅正常圖像。與其他公開的彩色眼底圖像數據庫如HEI-MED(Hamilton Eye Institute Macular Edema Dataset)、MESSIDOR、DIARETDB0(standard DIAbetic RETinopathy DataBase calibration Level 0)、DIARETDB1、STARE(STructured Analysis of the REtina)等數據庫相比,e-ophtha EX數據庫的HE病變標記更精準,可作為HE檢測結果的病灶水平評價標準[22]。

對于HE檢測方法性能的評價標準主要有基于病灶水平和基于圖像水平。基于病灶水平的評價標準:每幅眼底圖像若檢測出的病變區域(像素)與專家標記的病變區域(像素)一致則為真陽性(True Positive, TP),否則為假陰性(False Negative, FN);同理檢測出的非病變區域(像素)與專家標記的非病變區域(像素)一致為真陰性(True Negative, TN),否則為假陽性(False Positive, FP)。本文選用區分度較高的靈敏度和特異性為主要評價標準本文選用區分度較高的靈敏性和特異性作為基于病灶水平的主要評價標準此句與下句描述沖突,是否可刪除此句,請明確;基于圖像水平的評價標準是以圖像中含有HE病變區域(像素),則為異常圖像(TP),否則為正常圖像(TN)。本文則選用準確度、靈敏性和特異性為主要評價標準。本文則選用準確度、靈敏性和特異性作為基于圖像水平的主要評價標準。在此基礎上,給出靈敏性、特異性等三個評價標準:

3.2.1 不同顏色通道檢測結果分析

YCbCr彩色空間中Y是指亮度通道,Cb指藍色色度通道,而Cr指紅色色度通道。人的肉眼對Y通道更敏感,因此本文在YCbCr的亮度通道(Luminance, Y)、RGB的綠色通道(Green, G)、HSI的強度通道(Intensity, I)和HSV(Hue Saturation Value)的亮度通道(Value, V)上提取局部熵分別檢測,從表1所示的實驗結果可以看出在病灶水平上YCbCr亮度通道的檢測結果靈敏性和特異性比其他顏色通道好。

3.2.2 局部熵檢測結果分析

由于局部熵比顏色灰度能更很好地反映HE病變區域的局部性和顯著性,本文分別提取亮度灰度(如圖4(b))和局部熵(如圖4(c))檢測HE病變區域實驗,實驗結果從圖4(e)和(f)可以看出提取局部熵檢測結果比亮度灰度檢測結果更接近專家標記。

3.2.3 參數選擇分析

RPCA檢測方法中平衡參數λ用于平衡低秩矩陣和稀疏矩陣,λ取值大小影響最后HE的檢測結果好壞。本文取λ=[0.1 0.2 0.4 0.8 0.01 0.02 0.04 0.08 0.001 0.002 0.004 0.008 0.0001 0.0002 0.0004 0.0008]共16個值分別進行實驗。實驗結果如圖5所示,λ≥0.001時對稀疏矩陣的影響較小,靈敏性和特異性普遍較高,當λ=0.004時靈敏性最高,特異性較高,視為最優。

3.2.4 對比分析

本文在病灶水平的評價標準上驗證本文方法的有效性且耗時少,分別采用SVM、K-means和本文方法進行實驗。

SVM實驗 由于一幅眼底圖像大小為1440×960,HE病變區域像素樣本數約占整幅眼底圖像3%,為避免樣本失衡,采用交叉驗證法選取e-ophtha EX數據庫中像素樣本作為訓練集,正負比例1∶1,e-ophtha EX數據庫47幅含病變圖像作為測試集。實驗結果如表2所示,平均靈敏性為77.92%,特異性為96.59%,訓練時間為128502.15s,每幅圖像平均測試時間為1.79s。

K-means實驗 采用SVM相同的測試集數據。為避免隨機性,以每幅圖像為測試樣本分別迭代30次,平均靈敏性和特異性為53.41%和53.55%,每幅圖像平均耗時41.43s。

本文方法在相同的測試集數據上的檢測結果為靈敏性91.13%和特異性90.00%,從表2看出本文方法的靈敏性均高于SVM和K-means方法的檢測結果,特異性低于SVM方法的檢測結果,原因是視盤等亮區域去除不精確造成的。每幅圖像平均運行時間0.5s,遠少于以上兩種方法的運行時間。

圖6為選取兩個數據庫上眼底圖像采用SVM、K-means方法和本文方法的檢測結果與專家標記比對。圖6第三列為本文方法的檢測結果,圖6第四、五列為SVM、K-means方法的檢測結果,圖6第三、四列為SVM、K-means方法的檢測結果,圖6第五列為本文方法的檢測結果,可以看出本文方法均能檢測出HE病變區域,且本文方法檢測HE病變區域比SVM、K-means方法的檢測結果更接近專家標記,造成假陽性高的亮區域較少。

為了進一步驗證本文方法的有效性,將本文方法與現有方法進行比較,如表3所示。文獻[4]、文獻[6]分別用閾值法、聚類方法,文獻[1]、[11]、分別用SVM和CNN方法。根據圖像水平的評價標準,圖像中只要含有HE病變區域(像素)就判別為異常圖像,否則為正常圖像。從表3可以看出,本文方法在DIARETDB1數據庫的檢測結果準確度為100%,靈敏性為100%,特異性100%,在e-ophtha EX數據庫上的檢測結果準確度為99.03%,靈敏性為100%,特異性98.21%,與文獻[1]相比,本文方法具有較高的準確度。需要說明的是,僅文獻[1]給出在圖像水平上的檢測結果,其余文獻均未提到。在病灶水平上本文方法在DIARETDB1數據庫的檢測結果靈敏性低于其他方法,因為e-ophtha EX數據庫含有精準的專家標記圖(如圖6(b)第一、二行),而DIARETDB1數據庫含有的專家標記圖(如圖6(b)第三、四行)較不精準,表3所示文獻[1]、[6]中有眼科專業醫生對DIARETDB1數據庫進行精準標記。雖然本文方法在DIARETDB1數據庫的檢測結果靈敏性不高,但是從圖6(e)第三、四行中可看出本文方法的檢測結果比專家標記更接近真實的HE病變區域,在e-ophtha EX數據庫上的檢測結果顯示靈敏性達到91.13%,高于其他方法,特異性比其他方法略優,特異性偏低的原因是視盤等亮區域去除不精確造成的。

3.2.5 本文方法不足

本文方法檢測結果中在病灶水平上特異性較低的原因是預處理過程中不能精確去除亮區域(如視盤、鄰近血管的神經纖維區域等),這些偽目標與HE病變區域有相似的形狀和邊緣特征,在提取局部熵特征中兩者的熵值相近,因此在RPCA低秩稀疏分解過程中這些亮區域被誤判為HE病變區域,造成假陽性(FP)太高,特異性不高。如圖7顯示,整幅圖像光照不均,圖中視盤位于眼球邊緣且亮度較暗,鄰近血管的神經纖維和視盤具有與HE病變區域相似的亮度特征,去除這些偽目標不精確導致檢測結果出現假陽性偏高的現象。

4 結語

本文提出一種無監督的HE自動檢測方法,運用形態學重建的背景估計方法去除血管、暗病變區域和視盤,在亮度通道上根據HE病變區域的局部性和稀疏性,結合局部熵和RPCA方法得到HE病變區域。該方法不需要專家手動標記為標準,自動檢測HE病變區域,實驗結果表明該方法具有較高的靈敏度和特異性,且快速有效,給眼科臨床篩查和診斷帶來很大的便利,具有較好的臨床可行性;但本文采用RPCA方法未能較好地處理視盤去除不精確或鄰近血管的神經纖維區域造成的假陽性偏高的問題,在后續的研究中可考慮加入噪聲項或增加稀疏權重等優化RPCA的辦法來降低假陽性。

參考文獻 (References)

[1] 肖志濤,王雯,耿磊,等.基于背景估計和SVM分類器的眼底圖像硬性滲出物檢測方法[J].中國生物醫學工程學報,2015,34(6):720-728.(XIAO Z T, WANG W, GENG L, et al. Hard exudates detection method based on background-estimation and SVM classifier[J]. Chinese Journal of Biomedical Engineering, 2015, 34(6): 720-728.)

[2] WELFER D, SCHARCANSKI J, MARINHO D R. A coarse-to-fine strategy for automatically detecting exudates in color eye fundus images[J]. Computerized Medical Imaging Graphics, 2010, 34(3): 228-235.

[3] WALTER T, KLEIN J C, MASSIN P, et al. A contribution of image processing to the diagnosis of diabetic retinopathy detection of exudates in color fundus images of the human retina[J]. IEEE Transactions on Medical Imaging, 2002, 21(10): 1236-1243.

[4] QI F C, LI G, ZHENG S B. Automatic exudate detection in color fundus images[J]. Digital TV and Wireless Multimedia Communication, 2017, 685: 155-165.

[5] SANTHI D, MANIMEGALAI D, PARVATHI S, et al. Segmentation and classification of bright lesions to diagnose diabetic retinopathy in retinal images[J]. Biomedizinische Technik (BIOMED TECH), 2016, 61(4): 443-453.

[6] 曹新容,林嘉雯,薛嵐燕,等.鄰域約束模型的眼底圖像硬性滲出聚類檢測方法[J].計算機輔助設計與圖形學學報,2018,30(11):2093-2100.(CAO X R, LIN J W, XUE L Y, et al. Clustering detection method of hard exudates in fundus image based on neighborhood constraint model[J]. Journal of Computer-Aided Design and Computer Graphics, 2018, 30(11): 2093-2100.)

[7] SOPHARAK A, UYYANONVARA B, BARMAN S, et al. Comparative analysis of automatic exudate detection algorithms [C]// WCE 2010: Proceedings of the 2010 World Congress on Engineering. London: [s.n.], 2010: 738-741.

[8] BIYANI R S, PATRE B M. A clustering approach for exudates detection in screening of diabetic retinopathy[C]// Proceedings of the 2016 International Conference on Signal and Information Processing. Washington, DC: IEEE Computer Society, 2016: 1-5.

[9] ASHA P R, KARPAGAVALLI S. Diabetic retinal exudates detection using machine learning techniques[C]// Proceedings of the 2015 International Conference on Advanced Computing and Communication System. Piscataway, NJ: IEEE, 2015: 1-5.

[10] ADEM K. Exudate detection for diabetic retinopathy with circular Hough transformation and convolutional neural networks[J]. Expert Systems with Applications, 2018, 11: 289-295.

[11] PARHAM K, PASSOS J L A, TIAGO C, et al. Exudate detection in fundus images using deeply-learnable features [J]. Computers in Biology and Medicine, 2018, 104: 62-69.

[12] AMIN J, SHARIF M, YASMIN M, et al. A method for the detection and classification of diabetic retinopathy using structural predictors of bright lesions [J]. Journal of Computational Science, 2017, 19: 153-164.

[13] WRIGHT J, GANESH A, RAO S, et al. Robust principal component analysis: exact recovery of corrupted low-rank matrices via convex optimization [EB/OL]. [2018-12-10]. https://arxiv.org/pdf/0905.0233v1.pdf.

[14] XIAO L, FANG B, LIU L H, et al. Extracting sparse error of robust PCA for face recognition in the presence of varying illumination and occlusion[J]. Pattern Recognition, 2014, 47(2): 495-508.

[15] YAN J C, ZHU M Y, LIU H X, et al. Visual saliency detection via sparsity pursuit [J]. IEEE Signal Processing Letters, 2010, 17(8): 739-742.

[16] 倉園園,孫玉寶,劉青山.基于分層魯棒主成分分析的運動目標檢測[J].計算機輔助設計與圖形學學報,2014,23(4):537-544.(CANG Y Y, SUN Y B, LIU Q S. Moving object detection based on hierarchical robust principal component analysis [J]. Journal of Computer-Aided Design and Computer Graphics, 2014, 23(4): 537-544.)

[17] CANDS E J, LI X, MA Y, et al. Robust principal component analysis? [J]. Journal of the ACM, 2011, 58(3): Article No. 11.

[18] AZIZI S, SAMAVI S, MOHREKESH M, et al. Cascaded transform space watermarking based on analysis of local entropy variation[C]// Proceedings of the 2013 International Conference on Multimedia and Expo Workshops. Piscataway, NJ: IEEE, 2013: 1-6.

[19] 付曉薇,代蕓,陳黎,等.基于局部熵的量子衍生醫學超聲圖像去斑[J].電子與信息學報,2015,37(3):560-566.(FU X W, DAI Y, CHEN L, et al. Quantum-inspired despeckling of medical ultrasound images based on local entropy[J]. Journal of Electronics and Information Technology, 2015, 37(3): 560-566.)

[20] MASSIN P, CHABOUIS A, ERGINAY A, et al. OPHDIAT: A telemedical network screening system for diabetic retinopathy in the le-de-France [J]. Diabetes and Metabolism, 2008, 34(3): 227-234.

[21] DECENCIERE E, CAZUGUEL G, ZHANG X W, et al. TeleOphta: machine learning and image processing methods for teleophthalmology[J]. Innovation and Research in BioMedical Engineering, 2013, 34(2): 196-203.

[22] ZHANG X W, THIBAULT G, DECENCIRE E, et al. Exudate detection in color retinal images for mass screening of diabetic retinopathy[J]. Medical Image Analysis, 2014, 18(7): 1026-1043.

主站蜘蛛池模板: 波多野结衣在线se| 免费人成网站在线高清| 99视频在线免费观看| 国产视频只有无码精品| 亚洲成人福利网站| 26uuu国产精品视频| 97国产精品视频自在拍| 久久网欧美| 色欲色欲久久综合网| 亚洲欧美精品在线| 婷婷六月在线| 巨熟乳波霸若妻中文观看免费| 亚洲国内精品自在自线官| 亚洲中文字幕av无码区| 真实国产乱子伦视频 | 91精品国产麻豆国产自产在线| 中文字幕人成乱码熟女免费| 99在线视频免费| 在线播放真实国产乱子伦| 视频一区亚洲| 亚洲国产精品国自产拍A| 亚洲视频影院| 欧洲一区二区三区无码| 免费观看成人久久网免费观看| 精品欧美一区二区三区久久久| 精品国产自在现线看久久| 91久久精品国产| 精品国产免费人成在线观看| 午夜视频在线观看免费网站| 亚洲色图欧美一区| 午夜福利无码一区二区| 中文字幕亚洲综久久2021| 亚洲国产日韩一区| 精品视频一区二区三区在线播| 草草影院国产第一页| 东京热av无码电影一区二区| 不卡国产视频第一页| 国产成人1024精品| 国产麻豆va精品视频| 亚洲色欲色欲www网| 中文字幕亚洲乱码熟女1区2区| 2021国产精品自产拍在线观看| 精品三级在线| 欧美h在线观看| 亚洲区第一页| 在线亚洲精品自拍| 中文字幕天无码久久精品视频免费| 久久精品人人做人人综合试看| 免费A级毛片无码无遮挡| 伊人久久婷婷五月综合97色| 婷婷99视频精品全部在线观看| 亚洲男人天堂2020| 国产福利小视频高清在线观看| 中文字幕免费在线视频| 中文字幕在线播放不卡| 黄片在线永久| 久久狠狠色噜噜狠狠狠狠97视色| 国产在线视频欧美亚综合| 国产日韩av在线播放| 亚洲AV无码精品无码久久蜜桃| 国产人成网线在线播放va| 国产成人综合在线观看| 成人免费视频一区二区三区 | 久久精品只有这里有| 中文字幕在线永久在线视频2020| 国产又粗又爽视频| 高潮毛片免费观看| 久久婷婷色综合老司机| 91免费国产高清观看| 国产精品亚洲一区二区三区在线观看| 久久女人网| 91精品国产情侣高潮露脸| 国产精品九九视频| 伊人色在线视频| 日本高清有码人妻| 亚洲欧美在线精品一区二区| 国产欧美日韩va另类在线播放| 夜精品a一区二区三区| 日本国产精品一区久久久| 亚洲一区色| 国产麻豆福利av在线播放| 国产免费怡红院视频|