999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于XDense-RC-net的CXR圖像分類算法

2022-12-31 00:00:00程文娟于國慶
計算機應用研究 2022年12期

收稿日期:2022-04-14;修回日期:2022-06-06" 基金項目:國家自然科學基金資助項目(62176082)

作者簡介:程文娟(1970-),女,安徽懷寧人,教授,碩導,博士,主要研究方向為計算機應用技術、模式識別、智能計算與傳感器技術;于國慶(1998-),男,安徽宿州人,碩士研究生,主要研究方向為計算機視覺(yuguoqing@mail.hfut.edu.cn).

摘 要:卷積神經網絡逐漸應用于胸部X射線(chset X-ray,CXR)圖像分類領域,目前普遍使用遷移學習技術進行分類研究,但在快速構建網絡時未能考慮CXR圖像的特異性。針對上述問題,提出了一種新型的XDense-RC-net方法。該方法對DenseNet模型進行改進,在原密集連接層引入新提出的空間注意力機制,實現特征提取和特征融合,優化DenseNet的transition模塊,同時使用兩種不同的池化策略增強模型的抗擾動能力。實驗使用chest X-ray14多標簽14分類數據集和COVIDx單標簽3分類數據集對XDense-RC-net進行驗證。在多標簽分類實驗中,平均AUC值達到0.854,比基準方法提升了0.109。在單標簽分類實驗中,平均準確率達到96.75%,相較于基準方法提升了7.75%。結果顯示,XDense-RC-net提升了CXR圖像分類的精度,并能夠泛化至多標簽和單標簽兩種不同的分類任務中。

關鍵詞:CXR圖像;圖像分類;XDense-RC-net;注意力機制

中圖分類號:TP391"" 文獻標志碼:A

文章編號:1001-3695(2022)12-045-3803-05

doi:10.19734/j.issn.1001-3695.2022.04.0213

Improved CXR image classification algorithm based on XDense-RC-net

Cheng Wenjuan,Yu Guoqing

(School of Computer Science amp; Information Engineering,Hefei University of Technology,Hefei 230601,China)

Abstract:In the field of CXR image classification,current studies mostly use convolutional neural network and transfer lear-ning technology.But in the process of rapidly constructing a network without considering the specificity of the CXR image.To solve the above problems,this paper proposed a novel XDense-RC-net.Based on the DenseNet model,this method improved the capability of feature extraction and feature fusion by introducing a new spatial attention mechanism in the densely connected layer,optimized transition module of DenseNet by using two different pooling strategies to enhance the noise immunity of the model.XDense-RC-net used the chest X-ray14 (multi-label and 14-class) and COVIDx (single label and 3-class) datasets for validating.In the multi-label classification experiments,the average AUC score reaches 0.854,which is 0.109 higher than the benchmark method.In the single-label classification experiments,the average accuracy reaches 96.75%,which is 7.75% higher than the baseline model.The results show that XDense-RC-net improves the accuracy of CXR image classification and can generalize to multi-label and single-label classification tasks.

Key words:CXR image;image classification;XDense-RC-net;attention mechanism

0 引言

據世界衛生組織統計[1],包括心肺疾病在內的多種慢性非傳染性疾病已成為當今世界威脅人類健康安全的主要風險,每年約有4 100萬人死于慢性非傳染性疾病,占全球總死亡人數的71%。此外,由于近年來新冠疫情在世界范圍內肆虐,迄今為止,全球已有超5億人曾確診感染新冠病毒,約600多萬人死亡。由于CT檢查比X射線的輻射量高數十倍甚至上百倍,胸部X射線圖像檢查在診斷各種肺部疾病方面依然發揮著重要作用。X射線是一種穿透性較強的電磁波。人體內不同組織具有不同的密度,相同組織的不同部位厚度也存在差異,當X射線透過人體并經過顯像處理后,便會得到胸部各種組織器官的重疊影像,具體表現為白色的高密度影和黑色的低密度影。當特定部位陰影異常時,便可推斷該部位發生病變。閱讀X射線影像需要極高的專業素養,在醫務人員緊缺的狀況下,有必要開發一種自動、高效的CXR圖像分類方法,輔助醫生進行臨床診斷。

近年來,深度學習技術被廣泛應用于CXR圖像分類任務。Wang等人[2]發布了一個大型CXR圖像分類數據集,并使用該數據集評估了AlexNet、GoogLeNet、VGGNet和ResNet四種卷積神經網絡的分類性能,為后續研究提供了數據支持。Guan等人[3]針對多標簽分類任務的復雜性,提出了一種類別抑制的注意力方法,它使用下采樣和上采樣模塊構成沙漏型網絡結構,并將其嵌入到ResNet和DenseNet網絡中,提升了模型的分類能力。Pham[4]使用微調的卷積神經網絡進行新冠肺炎CXR圖像分類任務,基于遷移學習技術評價AlexNet、GoogLeNet和SqueezeNet模型在CXR圖像上的分類性能,在不同的數據集劃分方式上,三種網絡架構各有優勢。Ozturk等人[5]在DarkNet 19的基礎上提出了用于新冠檢測的DarkCovidNet模型,DarkNet-19是YOLO v2的骨干網絡,其特點是結構小巧但性能強悍,DarkCovidNet模型使用更少的17個卷積層進行構建,在提升網絡性能的同時降低了模型的復雜度。

盡管深度神經網絡已經很好地應用于CXR圖像分類任務,但仍然存在一些問題。首先,由于CXR圖像的表現形式較為單一,不同疾病在圖像上的特征表現較為相似,甚至某些特征極不明顯,很難與正常樣本作出區分。其次,胸腔內病變情況十分復雜,診斷時不僅要判斷異常陰影的形態,還要考慮附近位置正常生理結構的變化。如間質性肺炎會在兩肺出現彌漫性網狀密度增高影和斑片狀密度增高影,同時也會出現肺紋理增粗、模糊的現象。最后,雖然遷移學習可以提取出較為良好的特征,但仍相對粗糙,噪聲擾動依然會影響網絡分類結果。

針對上述問題,本文提出了一種XDense-RC-net算法。該方法基于DenseNet,使用密集連接塊對訓練過程產生的中間特征進行反復利用,增強網絡的辨識度,并且在一定程度上緩解了梯度消失現象。同時提出了一種新型的空間注意力機制,將二維空間分解為橫向和縱向兩個維度,在關注局部區域的同時,能夠將注意力權重輻射到病變區域的相鄰位置,為模型提供豐富的特征,提高分類精度。最后,對DenseNet的transition模塊進行優化,在下采樣的同時增強模型的抗擾動能力。

1 XDense-RC-net的設計

Huang等人[6]提出了DenseNet模型,其網絡各層之間使用密集連接方式,將之前所有卷積層輸出特征與當前特征進行拼接,實現不同尺度特征的融合。CXR圖像上顯示的陰影尺寸差異較大,多尺度特征提取可以幫助網絡捕獲豐富的語義信息。低層特征由于經過的卷積層較少,特征圖分辨率更高,包含更多位置和細節信息,但語義性更低且攜帶較多的噪聲。高層特征與之相反,由于經過的卷積層更多,其特征圖分辨率較低,包含的細節信息較少,但可以看到整體的趨勢,其語義性更強。本文使用DenseNet作為骨干網絡,使用其中的密集連接方式將低層特征與高層特征融合,同時發揮圖像局部細節和整體趨勢的指導作用,促使神經網絡學習更深層次的語義信息,提高模型的辨識度。

1.1 注意力機制

隨著深度學習的發展,注意力機制被廣泛應用于計算機視覺和自然語言處理領域,它模擬人類的注意力過程,通過對不同特征賦予不同的注意力權重,達到增強和抑制的作用。通道注意力將各通道信息壓縮,構建跨通道的特征依賴??臻g注意力是對處于不同空間位置的特征分配注意力權重,在二維空間進行信息校準。由于CXR圖像中病理特征大多表現出中心實變、邊緣虛化的特點,并且與病變區域臨近的正常生理結構也會受到影響。本文提出一種新型的空間注意力機制,將二維空間分解為橫向和縱向兩個維度,分別在圖像的行和列上進行行注意力(row attention,RA)和列注意力(column attention,CA)的計算。將兩種注意力權重疊加,在兩個方向的交點上形成重點關注的局部位置,對CXR圖像中不同密度的陰影分配相應的權重,其數據流如圖1所示。

RA方法如圖2(a)所示,對于一個給定的中間特征圖X(C×H×W,C代表特征圖的通道數,H和W代表空間維度),其原理如式(1)(2)所示。

MR=mean(MaxPooling(X)+AvgPooling(X))(1)

XR=σ(FC(δ(FC(MR))))X(2)

其中:MaxPooling和AvgPooling分別代表沿行方向上的全局最大池化和全局平均池化;mean代表沿通道方向求各通道的平均值;MR表示生成的中間特征;δ是ReLU激活函數;σ表示sigmoid激活函數;FC為全連接層;XR表示輸出的行注意力特征圖。

CA方法如圖2(b)所示,對于一個給定的中間特征圖X(C×H×W),其原理如式(3)(4)所示。

MC=mean(MaxPooling(X)+AvgPooling(X))(3)

XC=σ(FC(δ(FC(MC))))X(4)

其中:MaxPooling和AvgPooling分別代表沿列方向上的全局最大池化和全局平均池化;MC表示生成的中間特征;XC表示輸出的列注意力特征圖。

1.2 池化策略

DenseNet中的transition模塊使用池化技術進行下采樣操作。池化可以縮減特征圖尺寸,減少網絡的參數量并降低冗余信息的干擾。常用的池化操作有最大池化和平均池化。最大池化只考慮感受野內像素的最大值,這在一定程度上保證了特征的平移不變性,但會丟失大量的信息,對分類結果造成影響。平均池化是對感受野內像素求平均值作為池化結果,它能夠最大程度地保留特征信息,但不可避免地要攜帶一些噪聲。本文結合這兩種池化操作,對DenseNet中的transition模塊進行優化,增強模型的抗擾動能力。

1.3 模型架構

XDense-RC-net是在DenseNet的基礎上進行擴展,其特征提取部分由一系列XDense-RC和transition模塊堆疊而成。其中XDense-RC模塊是在DenseNet的特征提取層加入注意力模塊,對語義特征進行注意力校準;transition模塊是在DenseNet的transition模塊基礎上進行改進,同時使用兩種不同的池化策略增強網絡的抗擾動能力。特征分類部分采用DenseNet的特征分類器,并將分類器輸出修改為本文數據集對應的分類類別。其模型結構如圖3所示,具體配置如表1所示。

XDense-RC模塊是由多個卷積層和注意力層組成的層結構通過密集連接方式堆疊而成。首先通過兩個卷積層進行特征提取,兩層卷積的卷積核大小分別是1×1和3×3。每一個卷積層之前都連接批歸一化處理和ReLU激活函數,防止梯度爆炸并加快收斂速度。然后通過注意力層,獲得注意力特征。將多個層結構通過密集連接方式堆疊到一起,組成XDense-RC模塊。其具體計算過程為:前一層輸入特征先經過第一個卷積層,降低通道數量,減少網絡參數和計算量;然后通過第二個卷積層進行特征提??;最后通過注意力層分配注意力權重。計算注意力特征時通道數保持不變,在整個層結構的計算過程中特征圖分辨率保持不變。將輸出特征與XDense-RC模塊中之前所有層結構輸出特征拼接,將拼接后的特征輸入到下一個層結構中。

transition模塊用于降低特征圖分辨率并調整特征通道數量,在降低參數量的同時增強網絡的抗擾動能力。其具體計算過程為:前一層輸入特征先通過批歸一化處理,ReLU激活函數和一個1×1卷積層降低通道數量,然后分別通過一個最大池化層和一個平均池化層降低分辨率,將兩個池化層所得到的特征圖求和作為transition模塊的輸出,輸入到下一個XDense-RC模塊中。

分類模塊用于進行特征分類,由一個全連接層構成。其具體計算過程為:先通過一個自適應全局平均池化將輸入特征映射成一個一維向量;然后通過全連接層進行特征分類;最后使用sigmoid激活函數對分類結果進行歸一化處理,用于計算模型的損失優化。

2 實驗與分析

本實驗所采用的計算機硬件環境為Intel Core i5-11400H CPU 2.70 GHz、內存16 GB、RTX3060 GPU 6 GB顯存,軟件環境為Python3.6、PyTorch1.7.1。

2.1 實驗數據及其預處理

使用多標簽14分類的chest X-ray14數據集[2]和單標簽3分類的COVIDx數據集[7]驗證本文方法。chest X-ray14數據集共有來自30 805個患者的11 2120張CXR圖像,該數據集包含14種不同類別的標簽(Atelectasis:Atel,Cardiomegaly:Card,Effusion:Effu,Infiltration:Infi,Mass,Nodule:Nodu,Pneumonia:Pne1,Pneumothorax:Pne2,Consolidation:Cons,Edema:Edem,Emphysema:Emph,Fibrosis:Fibr,Pleural Thickening:P.T.,Hernia:Hern),每張圖像標注一個或多個標簽。數據集劃分方式為取全部數據的70%作為訓練集,10%作為驗證集,并使用數據集建議的20%作為測試集,三個子集合中不存在患者重疊。COVIDx數據集共有來自13 870個患者的13 975張CXR圖像,該數據集共有三種標簽(normal,pneumonia,COVID-19),每張圖像標注一個標簽。本文使用數據集建議的訓練集和測試集,并在訓練集中取10%作為驗證集。

數據增強策略為隨機裁剪和隨機水平翻轉,輸入圖像大小為224×224,使用ImageNet數據集中圖像的均值和方差對訓練數據進行標準化處理。

2.2 實驗設置與損失優化

初始學習率設置為0.000 1。當驗證集損失連續5次不下降時,學習率降為當前的10%??偟螖禐?0次。

在多標簽分類任務中使用二進制交叉熵損失函數,如式(5)所示。在單標簽分類中使用交叉熵損失函數,如式(6)所示。

loss=-1N∑Ni=1∑Kk=1[yi,klog pi,k+(1-yi,k)log(1-pi,k)](5)

loss=-1N∑Ni=1∑Kk=1yi,klog pi,k(6)

其中:N為樣本總數;K為類別數;yi,k表示第i個樣本的真實標簽;pi,k表示第i個樣本的預測值。

使用Adam優化器,動量參數β1和β2設置為0.9和0.999,權重衰減系數設置為10-5。

2.3 評價指標

對于chest X-ray14數據集的多標簽分類任務,使用受試者工作特性曲線下面積(area under the receiver operating characteristic curve,AUC)作為評價指標,其計算如式(7)所示;在COVIDx數據集的單標簽分類任務中,使用準確率(accuracy)、宏精確率(macro-precision)、宏召回率(macro-recall)、宏F1值(macro-F1)評價本文方法,其計算如式(8)~(11)所示。

AUC=∑(Pposgt;Pneg)Npos×Nneg(7)

Acc=NrecNall(8)

Pmacro=1n∑ni=1Pi(9)

Rmacro=1n∑ni=1Ri(10)

Fmacro=2×Pmacro×RmacroPmacro+Rmacro(11)

其中:Ppos表示正樣本的預測值;Pneg表示負樣本的預測值;Npos表示正樣本的總數量;Nneg表示負樣本的總數量;Acc表示準確率;Nrec表示預測正確的樣本數量;Nall表示總樣本數量;Pmacro表示宏精確率;n表示類別數;Pi表示每一類別的精確率;Rmacro表示宏召回率;Ri表示每一類別的召回率;Fmacro表示宏F1值。

2.4 實驗分析

為了驗證XDense-RC-net的有效性,將其與其他CXR分類模型進行對比。需要說明的是,chest X-ray14數據集的對照實驗結果來自原論文,而COVIDx數據集由于不斷迭代更新,各種方法所使用的數據集存在差異,為保證對比實驗的公平性,所有實驗都在相同的硬件環境下重新測試,所采用的數據集及其劃分方式完全相同。另外,SE-Net和CBAM是兩種輕量級的注意力機制模型,具有即插即用的特性。本文將這兩種注意力模型嵌入到DenseNet中,以對比評估本文所提出的新型注意力機制的有效性。在兩個數據集上的實驗結果如表2~4所示。

在chest X-ray14和COVIDx數據集中,本文方法效果都是最好的。由表2可知,在chest X-ray14數據集測試結果中,與其他分類模型相比,XDense-RC-net在全部14種標簽中,有12種標簽的分類效果是最好的。與文獻[2]的基準方法相比,全部14種標簽的分類效果都有不同程度的提升,平均AUC值提升了0.109。其中,心臟肥大(cardiomegaly)、積液(effusion)、結節(nodule)和肺炎(pneumonia)四種尺度相差較大,且特征表現有較大差異的標簽分類結果中,AUC值分別提升了0.101、0.128、0.135和0.125。由此可以得出,本文所提出的XDense-RC-net可以提取出CXR圖像中深層語義信息,對最終分類結果起到促進作用。在COVIDx數據集上也有類似的效果,由表3中結果可知,與文獻[2]的基準方法相比,在準確率、宏精確率、宏召回率和宏F1值方面分別提升了7.75、8.09、5.97和6.98個百分點。在表4中還統計了COVIDx數據集單標簽分類任務中各個標簽的分類結果,由表中可以看出,本文方法對于三種標簽的分類準確率都在97%以上。其中,對于COVID-19標簽的分類效果是三種標簽中表現最好的,各項指標分別達到了98.75%、100%、97.50%和98.73%。

SE-Net是一種通道注意力模型,其作用是對特征圖的不同通道進行選擇優化。CBAM是一種融合了通道注意力機制和空間注意力機制的網絡模型,對輸入特征按順序計算通道注意力和空間注意力。這兩種注意力模型在處理自然圖像時發揮著重要作用,但卻不能很好地應用在CXR圖像分類上。自然圖像大多擁有銳利的邊緣和易于區分的特征,而CXR圖像中的特征多是邊緣模糊的,特征的表現多是不易分辨的。本文所提出的空間注意力機制從陰影密度變化的角度出發,針對不同密度分配不同的注意力權重,能夠很好地適應CXR圖像分類任務。如表2和3所示,在多標簽圖像分類任務中,相較于SE-Net和CBAM,XDense-RC-net的平均AUC值分別高出0.011和0.012。在單標簽分類任務中,在準確率、宏精確率、宏召回率和宏F1值方面分別提升了3.25、3.74、2.83、3.29個百分點和4.5、4.8、3.5、4.16個百分點。

為了驗證各模塊的有效性,分別進行了消融實驗,如表5所示。其中“+”代表使用該模塊,“-”代表不使用該模塊。第一行表示只在網絡各層之間使用密集連接方式進行多尺度特征提取和特征融合,最后一行為本文方法。與第一行相比,在添加XDense-RC模塊的基礎上,各項指標分別提升了0.009、2.5%、2.56%、1.5%和2.03%,這證明了本文所提出的新型空間注意力機制對卷積層輸出特征賦予了不同的空間注意力權重,優化了網絡的特征選擇。在添加transition模塊的基礎上,各項指標分別提升了0.007、2.25%、2.23%、1.5%和1.87%,證明了本文所使用的優化transition模塊可以在下采樣的同時保留重要的特征,增強模型的抗擾動能力,提高網絡分類精度。

在圖像中分別加入椒鹽噪聲(信噪比為0.7)和高斯噪聲(均值為0,標準差為0.6)來驗證方法的魯棒性,其噪聲分布如圖4所示。表6顯示了在兩個數據集上的平均AUC值、準確率、宏精確率、宏召回率和宏F1值方面的表現。由表可知,本文方法在對抗兩種噪聲的表現上大體相同,隨著噪聲的增加,模型的性能稍有下降,但在可接受的范圍。例如,在chest X-ray14數據集上AUC值只下降了0.003,在COVIDx數據集上,準確率、宏精確率、宏召回率和宏F1值分別下降了約1~2個百分點。這證明了本文方法的魯棒性。

本文使用ImageNet數據集的預訓練權重初始化網絡以加快收斂速度。圖5展示了在兩個數據集上的損失曲線。在chest X-ray14數據集上,訓練集和驗證集損失分別收斂到0.14和0.15左右;在COVIDx數據集上,訓練集和驗證集損失都收斂到0.62左右。通過訓練過程中訓練集和驗證集損失收斂變化可知,模型正常收斂。

2.5 可視化分析

為了更直觀地顯示XDense-RC-net的有效性,本文使用Grad-CAM[11]技術對模型進行可視化分析,并采用chest X-ray14數據集中提供的部分放射科醫生標注數據作為對比。如圖6所示,圖中每張黑白圖像與其右側緊鄰的彩色圖像為一組對照,每組左圖中紅色方框表示真實病灶位置,右圖表示模型特征選擇。

由圖中結果可以看出,XDense-RC-net能夠提取CXR圖像中的關鍵信息,并且能夠將注意力權重向病灶相鄰位置進行輻射,為模型最終分類提供豐富的語義信息。

3 結束語

本文提出了一種XDense-RC-net模型,通過密集連接方式實現多尺度特征復用,為網絡提供豐富的特征,使用transition模塊對特征進行降維,在降低網絡參數的同時能夠保留更豐富的信息。更重要的是,對卷積層輸出特征進行空間維度上的注意力權重分配,將二維空間分解,同時在橫向和縱向兩個方向上進行注意力計算,使網絡有選擇地學習重要特征并忽略噪聲,最終得到更具分辨力的特征用于分類。本文同時在14分類的多標簽分類數據集和3分類的單標簽分類數據集上進行實驗,結果表明,XDense-RC-net極大地提高了CXR圖像的分類精度。但本文方法仍有不足之處,沒有考慮數據標簽分布不均的問題,未來將進行這方面的探索。

參考文獻:

[1]World Health Organization.World health statistics 2021:monitoring health for the SDGs,sustainable development goals [M].[S.l.]:World Health Organization,2021.

[2]Wang Xiaosong,Peng Yifan,Le Lu,et al.Chest X-ray8:hospital-scale chest X-ray database and benchmarks on weakly-supervised classification and localization of common thorax diseases[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:2097-2016.

[3]Guan Qingji,Huang Yaping.Multi-label chest X-ray image classification via category-wise residual attention learning [J].Pattern Re-cognition Letters,2020,130:259-266.

[4]Pham T D.Classification of COVID-19 chest X-rays with deep lear-ning:new models or fine tuning? [J].Health Information Science and Systems,2021,9(1):1-11.

[5]Ozturk T,Talo M,Yildirim E A,et al.Automated detection of COVID-19 cases using deep neural networks with X-ray images [J].Computers in Biology and Medicine,2020,121:103792.

[6]Huang Gao,Liu Zhuang,Van Der Maaten L,et al.Densely connected convolutional networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:4700-4708.

[7]Wang Linda,Lin Zhongqiu,Wong A.COVID-net:a tailored deep convolutional neural network design for detection of COVID-19 cases from chest X-ray images [J].Scientific Reports,2020,10(1):1-12.

[8]Kim E,Kim S,Seo M,et al.XProtoNet:diagnosis in chest radiography with global and local explanations[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:15719-15728.

[9]Hu Jie,Shen Li,Sun Gang.Squeeze-and-excitation networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:7132-7141.

[10]Woo S,Park J,Lee J Y,et al.CBAM:convolutional block attention module[C]//Proc of European Conference on Computer Vision.Cham:Springer,2018:3-19.

[11]Selvaraju R R,Cogswell M,Das A,et al.Grad-CAM:visual explanations from deep networks via gradient-based localization[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2017:618-626.

[12]Seyyed-Kalantari L,Liu Guangxiong,McDermott M,et al.CheXclusion:fairness gaps in deep chest X-ray classifiers[C]//Proc of Pacific Symposium.2020:232-243.

[13]Abbas A,Abdelsamea M M,Gaber M M.Classification of COVID-19 in chest X-ray images using DeTraC deep convolutional neural network [J].Applied Intelligence,2021,51(2):854-864.

[14]Kumar A,Tripathi A R,Satapathy S C,et al.SARS-Net:COVID-19 detection from chest X-rays by combining graph convolutional network and convolutional neural network [J].Pattern Recognition,2022,122:108255.

[15]Kundu R,Singh P K,Ferrara M,et al.ET-NET:an ensemble of transfer learning models for prediction of COVID-19 infection through chest CT-scan images [J].Multimedia Tools and Applications,2022,81(1):31-50.

[16]Rahman T,Khandakar A,Qiblawey Y,et al.Exploring the effect of image enhancement techniques on COVID-19 detection using chest X-ray images[J].Computers in Biology and Medicine,2021,132:104319.

[17]王威,胡億洋,王新,等.針對新型冠狀病毒肺炎X射線圖像識別的DD-CovidNet模型 [J].計算機輔助設計與圖形學學報,2021,33(11):1649-1657.(Wang Wei,Hu Yiyang,Wang Xin,et al.DD-CovidNet model for X-ray image recognition of coronavirus disease 2019 [J].Journal of Computer-Aided Design amp; Computer Graphics,2021,33(11):1649-1657.)

[18]劉彥北,李赫南,張長青,等.結構圖注意力網絡的新冠肺炎輕重癥診斷 [J].中國圖象圖形學報,2022,27(3):750-761.(Liu Yanbei,Li Henan,Zhang Changqing,et al.Diagnosis of COVID-19 by using structural attention graph neural network [J].Journal of Image and Graphics,2022,27(3):750-761.)

[19]Aslan M F,Unlersen M F,Sabanci K,et al.CNN-based transfer lear-ning-BiLSTM network:a novel approach for COVID-19 infection detection [J].Applied Soft Computing,2021,98:106912.

[20]Dey N,Zhang Yudong,Rajinikanth V,et al.Customized VGG19 architecture for pneumonia detection in chest X-rays [J].Pattern Recognition Letters,2021,143:67-74.

[21]Yuan Zhuoning,Yan Yan,Sonka M,et al.Large-scale robust deep AUC maximization:a new surrogate loss and empirical studies on medical image classification[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2021:3040-3049.

[22]Chandra T B,Verma K,Singh B K,et al.Coronavirus disease(COVID-19) detection in chest X-ray images using majority voting based classifier ensemble [J].Expert Systems with Applications,2021,165:113909.

[23]劉銳,丁輝,尚媛園,等.COVID-19醫學影像數據集及研究進展 [J].計算機工程與應用,2021,57(22):15-27.(Liu Rui,Ding Hui,Shang Yuanyuan,et al.COVID-19 medical imaging dataset and research progress [J].Computer Engineering and Applications,2021,57(22):15-27.)

主站蜘蛛池模板: 又粗又硬又大又爽免费视频播放| 青草娱乐极品免费视频| 亚洲永久视频| 91免费国产在线观看尤物| 欧洲av毛片| 亚洲最大福利视频网| 亚洲天堂2014| 欧美成人午夜视频| 99精品视频在线观看免费播放 | 色综合天天娱乐综合网| av一区二区三区在线观看 | 中文字幕在线日韩91| 91人人妻人人做人人爽男同| 97se亚洲综合不卡| 中文字幕66页| 国产精品女主播| …亚洲 欧洲 另类 春色| 日本www在线视频| 国产亚洲高清在线精品99| 国产精品视频第一专区| 国产一区二区三区夜色| vvvv98国产成人综合青青| 99精品视频播放| 无码免费视频| 国产精品无码影视久久久久久久 | 人妻免费无码不卡视频| 国产成人久久综合777777麻豆| 国内精品小视频在线| 不卡午夜视频| 国产精品美女网站| 在线国产毛片| 久久久久久久97| 在线99视频| 国产日韩AV高潮在线| 欧美性精品| 久久9966精品国产免费| 欧美精品综合视频一区二区| 国产亚洲欧美在线视频| 激情亚洲天堂| 亚洲天堂久久新| 亚洲区欧美区| 亚洲精品亚洲人成在线| 国产午夜一级毛片| 亚洲精品亚洲人成在线| 国产精彩视频在线观看| 香蕉eeww99国产在线观看| 91久久青青草原精品国产| 香蕉eeww99国产在线观看| 成人综合在线观看| 国产美女一级毛片| 欧美午夜性视频| 亚洲动漫h| 久久黄色毛片| 国产91小视频在线观看| 亚洲国模精品一区| 精品一区二区三区波多野结衣| AV片亚洲国产男人的天堂| 亚洲精品自产拍在线观看APP| 毛片免费试看| 2020国产精品视频| 精品日韩亚洲欧美高清a| 国产丰满大乳无码免费播放| 国产性生交xxxxx免费| 国产成人亚洲无码淙合青草| 久久特级毛片| 丝袜国产一区| 国产精品视屏| 久久伊人色| 老司机午夜精品视频你懂的| 久久毛片网| 久久久久久久久18禁秘| 亚洲青涩在线| jijzzizz老师出水喷水喷出| 欧美.成人.综合在线| 青青草原国产免费av观看| 青青久久91| 国产亚洲视频播放9000| 无码内射在线| 欧美一区二区福利视频| 无码内射在线| 男女精品视频| 亚洲精品动漫在线观看|