999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種融合多尺度技術和并行網絡的DR檢測方法

2024-07-02 07:21:40陳宇徐仕豹
哈爾濱理工大學學報 2024年1期
關鍵詞:特征信息模型

陳宇 徐仕豹

摘 要:針對糖尿病視網膜病變(DR)檢測模型在下采樣過程中關鍵信息丟失和模型魯棒性差的問題,構建一個PM-Net模型(Parallel Multi-scale Network)。在下采樣過程中,利用信息增強的方式設計了多尺度最大池化和多尺度卷積模塊并對ResNet-50改進。進一步,為了提高模型的魯棒性,使用雙分支的架構對模型進行擴展。提出的多尺度模塊使得模型在下采樣的過程中獲得了更加豐富的視網膜眼底圖像特征,從而提高了DR檢測的性能,同時提出的雙分支模型在DR檢測過程中用局部信息輔助全局信息保證了模型的魯棒性。模型在EyePACS、DDR和私有數據集進行了實驗驗證。實驗結果表明:與主流的模型相比,本模型在EyePACS數據集上的準確率和二次加權Kappa分數分別提高了258%和131%。

關鍵詞:糖尿病視網膜病變;多尺度;并行網絡;最大池化;ResNet-50

DOI:10.15938/j.jhust.2024.01.010

中圖分類號: TP3914? 文獻標志碼: A

文章編號: 1007-2683(2024)01-0087-09

A DR Detection Method Incorporating Multi-scale Techniques and Parallel Networks

CHEN Yu, XU Shibao

(College of Information and Computer Engineering, Northeast Forestry University, Harbin 150040, China)

Abstract:A PM-Net model (Parallel Multi-scale Network) has been constructed to solve the problems of loss of key information and poor model robustness in the downsampling process of diabetic retinopathy (DR) detection models Multi-scale maximum pooling and multi-scale convolution modules have been designed and improved on ResNet-50 using information augmentation in the downsampling process In addition, to improve the robustness of the model, the model was extended using a two-branch architecture The proposed multi-scale module allows the model to obtain richer retinal fundus image features during downsampling, thus improving DR detection performance, while the proposed two-branch model ensures the robustness of the model with local information supplementing global information during DR detection The model was experimentally validated on EyePACS, DDR, and private datasets Experimental results show that the model's accuracy and quadratic weighted kappa score on the EyePACS dataset are improved by 258% and 131% respectively compared to mainstream models

Keywords:diabetic retinopathy; multi-scale; parallel network; maximum pooling; ResNet-50

0 引 言

糖尿病視網膜病變(簡稱DR)是由糖尿病引起的并發癥,它是一個嚴重的公共衛生問題,影響著全球463億人,預計到2045年將增至7億[1]。根據國際臨床糖尿病視網膜病變量表(ICDRS),糖尿病視網膜病變分為5個階段,無癥,輕癥、中癥、重癥和增值性病變。卷積神經網絡(CNN)通過在下采樣過程中提取關鍵特征并實現分類,但下采樣過程中面臨的問題是丟失了一些特征信息,在DR領域中任何特征信息的丟失都有可能導致對患者的誤診。因此,盡可能減少下采樣過程中特征信息的丟失從而提升模型的性能依舊是一項挑戰。同時,不同數據集之間存在著較大的域差異,模型魯棒性差的問題也是一項嚴峻的挑戰。

在過去的幾年,已經有很多人開始使用機器學習和深度學習對糖尿病視網膜病變的檢測進行了研究。Lin等[2]引入了一個名為MCG-Net的模塊,該模塊基于圖卷積網絡(GCN),可以更加有效地提取眼底圖像的病灶特征。為了提高泛化能力,該作者基于自監督學習(SSL)構建了名為MCGS的網絡增強模塊,其中使用GCN代替全連接層以更好地捕獲眼底圖像的相關性,但該作者最終取得的實驗結果并不理想,其中主要的原因則是因為下采樣過程中丟失了部分關鍵信息,導致模型最終的分類性能欠佳。Narayanan等[3]將SVM模型應用于DR分類,并從主成分分析優化的全連接神經網絡(DNN)中提取特征。與AlexNet、VGG、ResNet和Inception-v3等方法相比,作者得到了一個更高的準確率為995%,但該作者使用的數據集卻不夠具有代表性,通過實驗對比的數據可以發現,該模型的魯棒性并不理想。Hua等[4]在ResNet-50的基礎上設計了一個名為Trilogy of Skip-connection Deep Networks(Tri-SDN)的DR檢測模型,該模型應用Skip-connection block使訓練速度更快,最終準確率和SP的準確率達到906%和821%,與不使用Skip-connection block的情況相比,該方法的性能得到了顯著的提升。可以發現該作者的目的是為了提高網絡的訓練速度,但最終獲得的準確率并不理想,通過模型可以看出,簡單的3×3和1×1卷積堆疊并不能很好的提取完整視網膜眼底圖像的病灶特征信息。為了減少可訓練參數的數量,Zago等[5]提出了一種VGG16網絡,在Messidor數據集上的靈敏度為094,AUC為0912。該作者使用的數據集評價標準與國際標準不一致,模型只能檢測是否為DR而沒有任何嚴重性指示,同時未報告準確率和F1分數, 使得模型的擴展性表現能力差。

陳宇等[6]設計了一個Xnet-CNN結構以實現糖尿病視網膜病變的分類算法,該作者對圖像用邊框裁剪、樣本歸一化和數據擴增等方式對數據進行了預處理工作,最終取得了91%的準確率。但是該作者使用了一個私有數據集,且數據集的病變等級評價標準于國際標準不一樣,因此該方法的魯棒性不好。周炎龍等[7]在代價敏感損失函數的基礎上設計了一個雙重代價敏感損失函數的隨機森林算法來解決類不平衡的問題,他為數據不平衡的問題提供了一個新的研究思路,而DR圖像也存在著嚴重的類不平衡問題,這對本文的研究具有非常高的參考價值。張培培等[8]在目標檢測過程中為了緩解目標重合、遮擋等問題,將全局信息與局部信息結合并對目標進行檢測。相同的是,在DR圖像中病灶信息遍布于視網膜的各個角落且分布較均勻,本文也使用全局信息與局部信息相結合的思路,利用多尺度的方法對模型進行改進,從而提升模型的檢測性能。王衛兵等[9]為了實現網絡的魯棒性,設計了一個多分支網絡對目標進行檢測,通過實驗對比發現,在物體邊緣檢測方面該作者所設計的模型比采用單分支網絡的檢測模型具有更好的性能。

針對下采樣過程中關鍵信息丟失和模型魯棒性差的問題,本文設計了PM-Net模型。主要貢獻可以總結如下兩點:

1)提出了多尺度最大池化和多尺度卷積模塊并對基礎模型進行改進,極大地豐富了下采樣過程中病灶信息的特征,使得模型的性能得到了顯著提升。

2)提出的雙分支架構將視網膜眼底圖像的全局信息與局部信息進行了結合,使用局部信息為全部做輔助有效地保證了模型的魯棒性。

1 具體實現

本文以ResNet-50為基礎模塊,所設計的模型整體結構如圖1所示。圖的中間部分是本文所提出的多尺度最大池化和多尺度卷積模塊。圖的上方是本模型的主干網絡,通過隨機裁剪得到的是本模型的第2個分支網絡,并對模型中的最大池化模塊和3×3卷積塊進行了替換。本節將會對多尺度最大池化、多尺度卷積、并行網絡和引入的代價敏感損失函數4個模塊進行詳細的介紹。

1.1 多尺度最大池化

圖2是多種池化操作在視網膜眼底圖像上提取信息的模擬圖。如圖所示,視網膜上有兩個軟性滲出物。

在圖2中的視網膜上有兩個軟性滲出物。全局平均池化下,并未把軟性滲出物單獨識別成功,因此使用平均池化提取特征從而降低網絡的復雜性是不理想的。全局最大池化下,將最完整的一部分軟性滲出物識別成功,而跨像素的病變并未關注到,這是由于最大池化在一個分布較均勻的特征里面往往只能關注到一個最重要的特征。而視網膜眼底圖像中的病變分布較均勻,任何病變的丟失都會導致對病人的誤診,這往往會帶來不可逆的影響。本文的最終目的是實現最右側所展示的結果。

本文將全局信息與局部信息進行結合,提出了一種新的多尺度最大池化策略。多尺度最大池化模塊從不同的角度共同提取同一張圖像的特征信息,全局信息所輸入圖像的形狀為R448×448×3,局部信息通過裁剪原始圖像來實現,每個裁剪的區域均為原始圖像的14,既左上、右上、左下和右下(表示為LU、RU、LD和RD),再將其擴大到R448×448×3。多尺度最大池化共有5個分支,第1個分支以視網膜圖像的全局信息作為輸入,在其基礎上進行兩次Stride為2的3×3最大池化。為了獲得更加豐富的圖像特征,使用4個共享權重參數的分支作為輔助,對同一張圖像實現多角度的特征信息提取。與第1個分支不同的是,4個分支的第1個池化采用Stride為2的3×3平均池化。可以理解為在裁剪1/4后,圖像中的病變信息開始減少,而信息越少就顯得越重要,則認為所有的病變信息包括背景均有同樣的重要性。隨后均采用Stride為2的3×3最大池化對4個分支進行特征提取,并將所有分支得到的特征進行拼接,多尺度最大池化的計算過程如式(1)所示。將原始的最大池化擴展到本文的多尺度最大池化,通過多角度的方法對圖像中的特征信息進行提取。這種方式既可以關注全局信息又能關注局部細節信息,它更加適合本文數據集中病變信息的特點。因此本模型采用一種多尺度的方法對池化層進行改進。

ConFea=MO+MMOALU+MALUARU+MARUALD+MALDARD+MARD(1)

其中:ConFea為多個尺度池化后拼接得到的特征;M為最大池化;A為平均池化;O為原始圖,LU、RU、LD、RD分別代表裁剪的區域;為特征的拼接。

1.2 多尺度卷積

視網膜眼底圖像中的病變信息檢測是一件非常具有挑戰性的任務。往往是通過增加卷積神經網絡的深度來提高分類性能,而過深的網絡會導致一些關鍵病變信息的丟失。為此,本文在保證與ResNet-50網絡相同深度的前提下設計了1個多尺度卷積模塊,該模塊采用不同的卷積核提取同一張圖像中的病變信息,這可以極大地豐富圖像的特征。多尺度卷積模塊的詳細設置以及拼接后的卷積核數量如表1所示,將其與圖1中4個Block的3×3卷積分別進行替換。

本文的多尺度卷積模塊設置了4個不同的卷積核,多尺度卷積均由3×3卷積、5×5卷積、7×7卷積和9×9卷積共同組成。每個卷積核各自提取特征,最終將得到的特征進行拼接。首先采用1個3×3卷積核對視網膜眼底圖像進行特征提取,然后再采用1個5×5卷積核,它可以在3×3的基礎上提取更多的局部信息。隨后分別采用7×7和9×9卷積核,以更大的感受野來獲取更多的局部信息。四個卷積核的參數與ResNet-50中的3×3卷積保持一致。為了降低梯度消失和梯度爆炸的影響,本文也保留了ResNet-50的殘差連接。最終將本文提出的多尺度卷積替換掉ResNet-50中的3×3卷積核,可以用式(2)表示卷積替換的過程。

R3*3=3*35*57*79*9(2)

其中:R3*3為 3×3卷積替換之后的多尺度卷積;*為卷積操作;為特征的拼接。

1.3 并行網絡

在以往的單分支中,若更換數據集則DR檢測性能會明顯的下降,這是由于網絡不具備足夠的魯棒性。因此本模型提供了一種雙分支檢測模型,在主干路徑外同時采用4個分支路徑進行特征提取,用局部信息為全局信息做輔助。其主干輸入視網膜圖像的完整區域,分支則關注的是局部信息,局部圖像信息通過對原始圖像隨機裁剪實現,裁剪的大小為原始圖像的14,之后也將其尺寸再擴大到原始的R224×224×3。兩條路徑并行處理各自的圖像,隨后將得到的特征進行拼接,每個路徑整體的計算過程均如式(3)所示。其中2個路徑都對ResNet-50的最大池化層和3×3卷積依次進行上述的替換,兩條路徑并共享權重參數。

Con=GAP{Res(MP+MC)}∑4i=1GAP{Resi(MP+MC)}(3)

其中:Res(MP+MC)為主干路徑對ResNet-50進行最大池化和3×3卷積的多尺度替換;Resi(MP+MC)代表4個分支網絡同樣的替換過程;GAP為全局平均池化;Con指的是2個路徑得到的特征信息拼接后的結果。

1.4 引入損失函數

在DR分類的數據集中,存在著嚴重的不平衡問題,僅僅通過重采樣的方式進行數據增強,依舊不能保證最終分類的性能,這是由于增強后的圖像在樣式和特征上面與原始圖依舊存在著極大的相似性和重復性,增強后的圖像無法擁有多樣性的數據,這使得模型在訓練階段無法表現出更好的性能。因此將損失函數一并進行改進,使其與數據增強想結合共同解決數據不平衡的問題。本文在損失函數部分引用了王明智等[10]所提出的一種改進代價敏感正則化損失函數。該方法主要是根據預測等級和真實等級相差程度的不同,對其施加不同的懲罰,其中矩陣中的數值越高懲罰越低,數值越低懲罰越高。最終設計了具體的代價敏感正則化矩陣Md,如式(4)所示。如果只使用代價敏感正則化的損失會導致復雜的卷積神經網絡陷入局部最小值,因此,把代價敏感正則化作為焦點損失函數的正則化,得到式(5)。

Md=0994000300030004640496004000015300210819000700002600720002000000620938(4)

L(,y)=-∑4i=0yiα(1-i)γ·log(i)+θ(5)

其中:y為真實標簽;為預測標簽;α為加權因子;γ為聚焦參數[11];可以理解為與懲罰矩陣M中對應行的標量積;M(2)為基于L2正則化的代價矩陣,通過懲罰所有參數的平方項來實現,表示為M(2)ij=‖i-j‖2,它能最大化二次加權Kappa;θ為正則化參數,設置為10,i∈{0,1,2,3,4},分別代表不同的DR等級視網膜圖像。

2 實驗結果與分析

2.1 數據集和指標介紹

本研究主要使用了三個數據集,EyePACS、DDR和海南眼科醫院提供的私有DR分類數據集(以下稱為Private dataset)。使用EyePACS來訓練和測試本文的模型,使用DDR和Private dateset兩個數據集驗證模型的泛化性能,以下是上述數據集和實驗指標的詳細介紹:

EyePACS:該數據集[12]由EyePACS提供,包含35126張訓練圖像和53576張測試圖像,所有圖像都有DR分級標簽,該數據集是最大的公開數據集,它同時遵守國際評價標準(ICDRS)。

DDR:該數據集[13]是第二大公開數據集,包括六個DR等級圖像:正常、輕度、中度、重度、PDR和無法識別的類。在該實驗中使用前五個等級,同時該數據集提供了微動脈瘤(MAs)、出血(HAE)、硬滲出物(H-Exs)、軟滲出物(S-Exs)的分割圖像,共計757張分割標注圖像。

Private dataset:數據集從海南眼科醫院所收集,并由兩名眼科醫生進行了分類標注,數據集共有2758張視網膜眼底圖像,圖像均有DR病變的分級標簽。

實驗指標:本研究用TP、FP、FN、TN分別表示真陽性、假陽性、假陰性、真陰性,采用準確率和二次加權Kappa來實現對分類網絡的評價,Accuracy的計算方法如式(6),二次加權Kappa的計算如式(7)。

Accuracy=TP+TNTP+FP+TN+FN(6)

Kappa=1-∑ijωijOij∑ijωijEij(7)

其中:Oij表示將第i類誤判為第j類的個數;ωij為加權系數,ωij和Eij的計算公式分別如式(8)和(9)所示:

ωij=(i-j)2(N-1)2(8)

Eij=∑iOij∑jOijn(9)

其中:N為類別數;n為樣本的總數量。

2.2 預處理和實驗參數設置

數據預處理:首先將原始圖片裁剪,從中心處將圖像分辨率裁剪為224×224×3的形狀。去掉絕大部分的黑色背景,因為黑色背景對病變分割以及分類是沒有意義。并采用直方圖均衡化[14]以及非局部均濾波值去噪[15]等方式對視網膜圖像進行處理。當圖像色調和亮度調整到一定范圍后再對其歸一化[16]提高本文所設計模型的性能。

數據增強:每個數據集在分類問題上都存在著類之間不平衡的問題。為了緩解這個問題,本文采用重采樣的方法,對數據量大的進行下采樣,對數據少的進行翻轉、旋轉等操作。具體的數量根據每個數據集的數量不同所設置,最終要實現類之間的平衡。

數據清洗:在EyePACS數據集中存在著一些完全沒有意義的圖像,如圖3所示。這些圖像對分類網絡起著明顯的副作用,因此本文對數據集進行篩選并刪除掉。

實驗參數設置:初始Learning-rate設置為00001,Batchsize設置為32,Epoch設置為100,并使用隨機梯度下降優化算法。在EyePACS數據集上訓練分類網絡,數據集的80%作為訓練集,10%作為驗證集,剩下的10%作為測試集。

2.3 實驗結果

表2中展示了分類網絡在3個數據集上所取得的結果,使用準確率和二次加權Kappa作為評價的指標。并展示了在EyePACS數據集上準確率和損失函數的變化過程,如圖4所示。本文計算了TP、FP、FN和TN即真陽性、假陽性、假陰性和真陰性的值,并繪制了圖5的混淆矩陣,

從圖5中的混淆矩陣可以看出,實驗的整體數值落在了對角線上,這也進一步驗證了本文提出模型的性能。同時計算了真陽性率和假陽性率,繪制了ROC曲線并得到曲線下面積為0923,如圖6所示。關于實驗的對比分析以及消融實驗,將會在接下來的小節進行詳細的介紹。

2.4 GradCAM可視化

本文通過GradCAM[17]對提出的改進卷積網絡在進行分類任務時所提取的不同DR等級的特征圖進行了可視化展示,如圖7所示。圖中對正常的圖像未做出可視化展示。本文清晰準確的展示了模型學習到的特征是有效的。在圖中可以發現,模型對同類特征的大區域關注度并不高,而是關注到了同類特征的微小區域,因為這些微小的區域足以讓模型對視DR圖像做出診斷,這一點發現與文[18]所提到的一致。

2.5 與其他網絡模型的比較

本節使用EyePACS數據集驗證改進后的網絡是否有所提升,使用準確率和二次加權Kappa作為評價的指標。結果如表3所示。

從表3中可以看出,使用所提出的模型在兩個指標上比較新的模型均有所提升。比文[19]和文[20]模型的準確率和加權二次Kappa分別提高了 258%、611%和131%、15%。 比RF-GANS(AFN)[21]的準確率提高了109%,二次加權Kappa保持平衡。其中文[21]模型使用了對抗生成網絡(GAN)做了數據增強并實現了糖尿病視網膜的五分類,但由于作者并未設計一個新的分類模型,所以結果并未得到顯著的提升。相較于本文的結果,文[21]耗費了大量的算力,且訓練網絡需要花費很多的時間,因此綜合性能比本文的模型欠佳。比Lindas等[22]提出的模型在兩個指標上分別高出了1211%和6%。比基礎模塊ResNet-50在兩個指標上分別高出了383%和314%,這也驗證了對基礎模塊的改進是有效的。本文分析原因在于使用多尺度最大池化、多尺度卷積和并行分類網絡在病變信息檢測的過程中起到了關鍵性的作用,進一步證明本文的方法在EyePACS數據集上具有更好的性能。

為了驗證所設計網絡的泛化性能,本文也在DDR和Private dataset上驗證了該方法的有效性。與EyePACS數據集相比,DDR數據集是一個更新的數據集,Private dataset是一個私有的數據集,兩者報告的結果都很少,因此在兩個數據集中應用了一些比較先進的分類方法進行了比較,如表4和表5所示。

從表4和表5中可以看出,本文所設計網絡的分類性能依舊表現最佳。在兩個數據集上本文所提出方法的準確率和二次加權Kappa兩個指標中比ResNet-50分別高出了399%、404%和515%、472%。比RepVGG[25]分別高出了437%、489%和497%、546%。比Efficientent[24]分別高出了463%、437 %和553%、419%。綜合來看,ResNet-50比其他的幾個網絡表現性能更高。因此本文以ResNet-50為基礎模塊,對其進行改進之后的模型更適合DR的分類。

26 消融實驗研究

為了驗證每個組件對本模型的影響,本文在EyePACS數據集上進行了必要的消融實驗,如表6所示,表中的Res代指本文所采用ResNet-50的基礎模塊。

從表6中可以看出,本文提出的方法比采用了Res+多尺度最大池化+并行的組合在兩個指標分別高出了09%、182%,這驗證了本文所提出的多尺度卷積具有關鍵性的作用。本文提出的方法比采用了Res+多尺度卷積+并行的組合在兩個指標分別高出了066%、118%,這驗證了本文所提出的多尺度最大池化具有關鍵性的作用。比采用了Res+多尺度卷積+多尺度最大池化的組合在兩個指標上分別高出了109%、199%,這驗證了本文所提出的并行分支具有關鍵性的作用。通過消融實驗說明了對ResNet-50每個部分的替換都起到了關鍵性的作用,最終在DR診斷方面取得了很好的性能。

3 結 論

本文針對DR檢測問題,提出了一種PM-Net模型,使用多尺度最大池化和多尺度卷積對ResNet-50進行改進,同時用雙分支架構對模型進行擴展。使模型在下采樣的過程中獲取更豐富眼底圖像病變信息,模型的性能得到明顯的提升且具有更好的魯棒性。在EyePACS、DDR和私有數據集上分別得到了09011、09126和08924的準確率,實驗結果充分證明了本文提出模型的性能更優。和其他分類網絡相似,本文未來的工作也考慮使用對抗生成網(GAN)來實現多樣性的數據增強,進一步提高DR分類的性能。

參 考 文 獻:

[1] International Diabetes Federation. International Diabetes Federation Diabetes Atlas, Ninth Ed.https://www.diabetesatlas.org/en/.

[2] LIN J, CAI Q, LIN M. Multi-label Classification of Fundus Images with Graph Convolutional Network and Self-supervised Learning[J]. IEEE Signal Process. Lett., 2021, 28: 454.

[3] LEVENKOVA A, KALLONIATIS M, LY A, et al. Lesion Detection in Ultra-widefield Retinal Images for Diabetic Retinopathy Diagnosis[J]. In Medical Imaging 2018: Computer-Aided Diagnosis; International Society for Optics And Photonics:Bellingham, WA, USA, 2018: 1057531.

[4] HUA C H, HUYNH-THE T, KIM K, et al. Bimodal Learning Viatrilogy of Skip-Connection Deep Networks for Diabetic Retinopathy Risk Progression Identification[J]. Int. J. Med. Inform. 2019, 132:103926.

[5] ZAGO G T, ANDREO R V, DORIZZI B, et al. Diabetic Retinopathy Detection Using Red Lesion Localization And Convolutional Neural Networks[J]. Comput. Biol. Med., 2020, 116: 103537.

[6] 陳宇,周雨佳,丁輝. 一種XNet-CNN糖尿病視網膜圖像分類方法[J].哈爾濱理工大學學報,2020,25(1):73.

CHEN Yu,ZHOU Yujia,DING Hui. An XNet-CNN Diabetic Retinal Image Classification Method[J].Journal of Harbin University of Science and Technology,2020,25(1):73.

[7] 周炎龍,孫廣路.雙重代價敏感隨機森林算法[J].哈爾濱理工大學學報,2021,26(5):44.

ZHOU Yanlong,SUN Guanglu.Double Cost Sensitive Random Forest Algorithm [J].Journal of Harbin University of Science and Technology,2021,26(5):44.

[8] 張培培,呂震宇.基于全局信息的目標檢測標簽分配方法[J].哈爾濱理工大學學報,2022,27(4):32.

ZHANG Peipei,L Zhenyu.Target Detection Label Assignment Method Based on Global Information[J].Journal of Harbin University of Science and Technology,2022,27(4):32.

[9] 王衛兵,張曉琢,鄧強.多分支主干監督網絡下的RGB-D圖像顯著性檢測[J]。哈爾濱理工大學學報,2022,27(4):39.

WANG Weibing,ZHANG Xiaozhuo,DENG Qiang.RGB-D Image Saliency Detection Based on Multi-branch Backbone Supervised Network[J].Journal of Harbin University of Science and Technology,2022,27(4):39.

[10]王明智,馬志強, 趙鋒鋒, 等. 基于代價敏感正則化和EfficientNet的糖尿病視網膜病變分類方法[J/OL]。 液晶與顯示, 2022: 1.

WANG Mingzhi, MA Zhiqiang, ZHAO Fengfeng, et al. Diabetic Retinopathy Classification Method Based on Cost Sensitive Regularization and Efficientnet[J/OL]. Chinese Journal of Liquid Crystals and Displays, 2022: 1.

[11]LU Y, JIANG M, WEI L, et al. Automated Arrhythmia Classification Using Depthwise Separable Convolutional Neural Network with Focal Loss[J]. Biomedical Signal Processing and Control, 2021, 69: 102843.

[12]Indian Diabetic Retinopathy Image Dataset (IDRID) Takenhttps://ieee-dataport.org/open-access/indian-diabetic-retinopathy-image-dataset-idrid,accessedonDecember 2021.

[13]DDRDataset,https://github.com/nkicsl/DDR-dataset,accessedon February 2022.

[14]XIAO Q, ZOU J, YANG M, et al. Improving Lesion Segmentation for Diabetic Retinopathy Using Adversarial Learning[C]//International Conference on Image Analysis and Recognition. Springer, Cham, 2019: 333.

[15]GHOSH R, GHOSH K, MAITRA S. Automatic Detection and Classification of Diabetic Retinopathy Stages Using CNN[C]//2017 4th International Conference on Signal Processing and Integrated Networks (SPIN). IEEE, 2017: 550.

[16]郭繼峰, 李星, 龐志奇.自定義模糊邏輯與GAN在圖像高光處理中的研究[J]. 小型微型計算機系統, 2021, 42(8):5.

GUO JF, LI X, PANG ZQ, et al. Custom Fuzzy Logic and Gan in Image Highlighting[J]. Small Microcomputer Systems, 2021, 42(8):5.

[17]SELVARAJU R R, COGSWELL M, DAS A, et al. Grad-cam: Visual Explanations from Deep Networks Via Gradient-based Localization[C]//Proceedings of the IEEE International Conference On Computer Vision, 2017: 618.

[18]NIU Y, GU L, ZHAO Y, et al. Explainable Diabetic Retinopathy Detection and Retinal Image Generation[J]. IEEE Journal of Biomedical and Health Informatics, 2021, 26(1): 44.

[19]LIN Z, GUO R, WANG Y, et al. A Framework for Identifying Diabetic Retinopathy Based on Anti-noise Detection and Attention-based Fusion[C]// in Proceedings of the International Conference on Medical Image Computing and Computer-Assisted Intervention, 2018: 74.

[20]ZHOU Y, WANG B, HUANG L, et al. A Benchmark for Studying Diabetic Retinopathy: Segmentation, Grading, and Transferability[J]. IEEE Transactions on Medical Imaging, 2020, 40(3): 818.

[21]CHEN Y, LONG J, GUO J. RF-GANs: A Method to Synthesize Retinal Fundus Images Based on Generative Adversarial Network[J]. Computational Intelligence and Neuroscience, 2021: 2021.

[22]LANDS A, KOTTARATHIL A J, BIJU A, et al. Implementation of Deep Learning Based Algorithms for Diabetic Retinopathy Classification from Fundus Images[C]//2020 4th International Conference on Trends in Electronics and Informatics (ICOEI)(48184), IEEE, 2020: 1028.

[23]HUANG G, LIU Z, VAN DER MAATEN L, et al. Densely Connected Convolutional Networks[C]// 2017: 4700.

[24]TAN M, LE Q. Efficientnet: Rethinking Model Scaling for Convolutional Neural Networks[C]//International Conference On Machine Learning. PMLR, 2019: 6105.

[25]DING X, ZHANG X, MA N, et al. Repvgg: Making Vgg-Style Convnets Great Again[C]// 2021: 13733.

(編輯:溫澤宇)

基金項目: 國家自然科學基金(62172087); 中央高?;究蒲袠I務費專項資金(2572021BH01)

作者簡介:徐仕豹(1998—),男,碩士研究生

通信作者:陳 宇(1975—),男,博士后,副教授,E-mail:nefu_chenyu@163com

猜你喜歡
特征信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 天天躁夜夜躁狠狠躁躁88| 色爽网免费视频| 亚洲美女一级毛片| 色综合久久久久8天国| 欧美啪啪网| 国产女主播一区| 久久精品一品道久久精品| 亚洲第一黄片大全| 中文国产成人久久精品小说| 色亚洲成人| 全部无卡免费的毛片在线看| 国产成在线观看免费视频| 午夜精品区| 伊人激情综合| 久久国产精品国产自线拍| 极品性荡少妇一区二区色欲| 亚洲天堂网在线播放| 香港一级毛片免费看| 国产成人高清精品免费5388| 五月婷婷丁香色| 色婷婷色丁香| 亚洲精品麻豆| 国产一区二区三区在线精品专区| 欧美精品成人一区二区视频一| 国产精品网址你懂的| 欧美人与牲动交a欧美精品| 99久久精品免费看国产电影| 亚洲欧美人成电影在线观看| 精品91自产拍在线| 99免费在线观看视频| 国产精品成人第一区| 亚洲成人77777| 亚洲男人天堂网址| 中日韩一区二区三区中文免费视频| 亚洲欧洲日产国码无码av喷潮| 国产经典在线观看一区| 青青久在线视频免费观看| 国产成人综合亚洲欧美在| 国产91九色在线播放| 色婷婷亚洲十月十月色天| 91极品美女高潮叫床在线观看| 久久精品视频一| 亚洲国产成人无码AV在线影院L| 色综合婷婷| 色综合天天操| 国产成年女人特黄特色大片免费| 8090成人午夜精品| 黄色污网站在线观看| 亚洲第一视频网| 精品無碼一區在線觀看 | 国产亚洲欧美日韩在线一区二区三区| 久久网欧美| 亚洲愉拍一区二区精品| 伊人天堂网| 久久中文电影| 国产乱子伦精品视频| 四虎在线观看视频高清无码| 欧美一级高清片久久99| 亚洲午夜综合网| 日本欧美在线观看| 国产一级视频在线观看网站| 久久婷婷国产综合尤物精品| 精品久久久久久久久久久| 亚洲日本中文综合在线| 国产精品免费久久久久影院无码| 国产青榴视频在线观看网站| 国产福利一区二区在线观看| www.国产福利| 欧美日韩免费| 色综合狠狠操| 91香蕉视频下载网站| 久久国产成人精品国产成人亚洲| 99在线观看国产| 青青青国产精品国产精品美女| 国产成人午夜福利免费无码r| 好吊色妇女免费视频免费| 国产在线视频自拍| 国产二级毛片| 久久无码av一区二区三区| 毛片一级在线| 国产精品久久精品| 国产精品短篇二区|