999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進殘差網絡的腎細胞癌ISUP分級研究

2024-01-30 12:59:38孫振鐸張明洋王向輝崔振宇
計算機工程與應用 2024年2期
關鍵詞:特征模型

孫振鐸,張明洋,王向輝,趙 磊,劉 爽,3,崔振宇,楊 昆,劉 琨,3

1.河北大學 質量技術監督學院,河北 保定 071002

2.河北省新能源汽車動力系統輕量化技術創新中心,河北 保定 071002

3.河北大學 光學工程博士后科研流動站,河北 保定 071002

4.河北大學附屬醫院 泌尿外科,河北 保定 071000

腎細胞癌又稱腎腺癌或腎癌,是起源于腎實質泌尿小管上皮系統的惡性腫瘤。2021年2月,世界衛生組織公布的全球癌癥報告顯示,2020年全球腎癌發病人數和死亡人數分別為431 288例、179 368例,占全年癌癥總人數的比例分別為2.23%和1.8%[1],在我國,腎癌在泌尿系統腫瘤中的發病率僅次于前列腺癌和膀胱癌,但卻是泌尿系統致死率最高的惡性腫瘤。

透明細胞腎細胞癌(clear cell renal cell carcinoma,ccRCC)是最常見的腎臟惡性腫瘤,約占80%,預后較差[2]。ccRCC的分級是決定患者預后效果的一個重要獨立因素[3],相比于低級別ccRCC,高級別ccRCC侵襲性更高,預后更差。對于級別較低、侵襲性弱和預后良好的ccRCC患者通常行腎部分切除術、消融甚至積極監測等創傷性小的治療方法,可以最大限度地保留腎單位,而高級別ccRCC往往因為腫瘤的侵襲性高則需行根治性腎切除術[4]。因此,術前預測ccRCC的分級可有效評估患者的預后并指導臨床治療,對精確醫學具有重要意義。

經皮穿刺活檢是ccRCC術前分級診斷的金標準,在常規臨床檢查診斷中應用廣泛。然而,部分患者的腎臟腫瘤不具備穿刺活檢條件,且這種有創性檢查手段具有一定局限性,會增加并發癥的風險,如出血,感染,甚至腫瘤破裂。

近年來,人工智能技術與CT(computed tomography)影像技術的結合因可以提取肉眼難以識別的特征而無創進行醫療診斷,避免了侵入性活檢的局限性,在ccRCC的研究中得到了許多應用。Bektas等人[5]基于10倍內外嵌套式交叉循環驗證方法建立支持向量機,通過增強CT紋理分析預測ccRCC的Fuhrman分級,實現了85.1%的準確率和91.3%的召回率。Kocak等[6]基于平掃CT紋理特征開發了多層感知器,在預測ccRCC的Fuhrman分級上實現81.5%的準確率和0.714的AUC。Ma等人[7]采用最小絕對收縮和選擇算子的方法對患者CT影像進行放射組特征提取,并建立邏輯回歸分級預測模型,在訓練集和驗證集上的AUC分別達到了0.802和0.796。雖然上述基于人工智能技術預測ccRCC分級的研究均取得較好的結果,但這些研究未涉及最新國際泌尿病理學學會(International Society of Urological Pathology,ISUP)分級系統,未比較不同增強CT各期圖像與平掃CT圖像對預測ccRCC的分級的診斷價值,且以上方法均基于費時且操作復雜的傳統機器學習算法。隨著深度學習技術的興起,Inception V3、DeepSurv、ResNet等深度學習網絡在腎臟腫瘤研究中的應用越來越廣泛。Zhou等[8]利用遷移學習方法在ImageNet數據集預訓練得到InceptionV3模型,在感興趣區域數據集上實現腎腫瘤良惡性鑒別的準確率為97%。Byun等[9]通過建立DeepSurv模型預測ccRCC患者的無復發生存概率,證明了基于深度學習的生存預測對ccRCC患者的有效性。Lin等[10]發現殘差網絡在ccRCC的分級任務中同樣能發揮重要作用,這些基于深度學習的方法能夠自動學習CT圖像中的各類特征,通過建立預測模型快速完成腎癌CT圖像處理,避免了人工特征選擇。然而,這類模型因等權重地分配特征張量上所有通道內的信息,會產生大量的計算冗余,導致模型訓練效率低,分類性能差。在神經網絡中引入通道注意力機制一定程度上提升了模型的訓練速度和分類精度,但注意力機制仍需要來增強其在空間、通道權重上的選擇能力。

針對以上問題,本文基于ccRCC患者的平掃CT及增強CT各期圖像,提出了一種新的改進型ResNet網絡模型用于ccRCC的CT圖像分級診斷,該模型以ResNet為主干網絡,設計了一種混合注意力模塊,該注意力模塊通過計算特征圖中當前空間和臨近空間以及當前空間和遠距離空間之間的信息交互獲取更多有用的特征,序列化地在通道和空間兩個維度上產生注意力特征圖信息,在通道維度與空間維度上進行自適應特征細化,實現了精準的預測結果。

1 數據收集與預處理

1.1 數據收集方法

本研究采用平掃CT和增強CT各期影像,根據深度學習算法建立模型并進行分級診斷,其中增強CT各期包括皮髓質期和實質期和分泌期。

本課題組回顧性收集了河北大學附屬醫院在2019年1月至2021年3月期間確診為ccRCC患者的資料(經河北大學附屬醫院倫理審查委員會批準)。納入標準:(1)首次確診,進行了CT平掃或增強掃描,且掃描前未接受過化療、外科手術等任何形式的治療;(2)CT影像清晰、無偽影;(3)病理分級是按照ISUP分級標準;(4)臨床資料完整。

經過數據篩選與清理,共計128例ccRCC患者四種CT數據類型被納入深度學習數據集,納入患者的特點見表1。

表1 患者信息數據表Table 1 Patient information

1.2 數據預處理

在本研究中,圖像數據預處理具體步驟如下:

(1)將收集到的DICOM(digital imaging and communications in medicine)格式的數據通過Raniant DICOM viwer軟件轉換成BMP格式,并通過30°隨機旋轉,隨機翻轉等操作,對訓練集和驗證集中的患者CT數據進行擴充。然后利用labelme工具對每張CT影像中的腫瘤區域進行矩形框標注,框內包含完整腫瘤,如圖1。患者CT的標注工作在專業的影像科醫師指導下進行,通過數據擴充得到的數據信息見表1。

圖1 不同CT類型腫瘤標注圖Fig.1 Labeling map of different CT types of tumors

(2)根據標注的矩形框進行裁剪以去除非腫瘤區域的背景信息,因為ResNet網絡的默認輸入圖像大小為224×224,因此,將裁剪后的圖像重新調整為224×224大小,這些圖像將用于深度學習模型的構建。

(3)將圖像按類型分別整理,共建立平掃CT、增強CT皮髓質期、增強CT實質期、增強CT分泌期四種數據集。對于四種CT數據集,本文隨機選取128例患者中的13位患者的CT影像作為測試數據集,并將剩下115位患者的CT影像數據被按照9∶1的比例隨機分配到訓練數據集和驗證集數據集中,數據集信息見表1。

ISUP分級系統共分為Ⅰ、Ⅱ、Ⅲ、Ⅳ級別,本研究將Ⅰ~Ⅱ級別的ccRCC定義為低級別ccRCC,Ⅲ~Ⅳ級別的ccRCC定義為高級別ccRCC。

2 算法介紹

本章對算法做具體介紹,2.1節介紹殘差模塊,2.2節介紹改進混合注意力模塊CBAM,2.3介紹融入混合注意力模塊的殘差網絡ResNet34-CBAM。本研究在Ubuntu18.04系統上搭建實驗環境,實驗在Python3.7、Pytorch1.2、Cuda10.1環境下進行,GPU為NVIDIA GeForce RTX 2070。對于各算法模型,本文在訓練集上通過50次迭代訓練對模型進行擬合,通過驗證集設定最優超參數,選擇最佳參數模型。最后使用測試集進行模型測試,評估模型泛化性能。本文中的研究模型通過多次調參獲得的超參數有:學習率為0.000 01/0.000 1/0.001,批大小為16/32/64,動量為0.9,epoch為50。另外,不同類別樣本數量不均衡分布將導致模型主要學習數量多的類別樣本特征,使得學習出來的模型更偏向將結果預測為該類別,為了消除這一影響,本文在交叉熵損失函數中采用樣本加權策略,低級別樣本高級別樣本權值比例設置為1∶1.5。

2.1 殘差模塊

殘差神經網絡[11]是深度學習領域一項重要的研究成果,以其高效的特點在圖像分類[12]、目標檢測[13]和語義分割[14]等深度學習領域發揮著重要作用。殘差網絡由一系列殘差塊組成,殘差塊有兩種:Basicblock和Bottleneck,如圖2。

圖2 殘差塊Fig.2 Residual block

殘差塊分成映射部分和殘差部分,可以表示為:

Cl表示在第l層對輸入x做卷積操作,F(xl,Cl)是殘差部分,表示對輸入做卷積操作后的輸出結果,Basicblock包括兩個卷積操作,Bottleneck包括三個卷積操作,即圖2(a)和(b)中左側實線框中的部分;xl為模塊輸入,xl+1為模塊輸出,映射部分反應在圖2(a)和(b)中是右邊的跳躍連接線;經過殘差部分中的卷積操作,xl可能和xl+1特征圖的數量不一樣,這時候需要在映射部分使用卷積進行升維或者降維,如圖2(a)和(b)中右側包含1×1卷積操作的虛線框部分。這時殘差塊表示為:

其中,h(x1)=Cl'x,C'l表示在第l層對輸入x做1×1的卷積操作。

傳統的殘差網絡一般有18、34、50、101和152個權重層,前兩者殘差塊為Basicblock,如圖2(a),后三者殘差塊為Bottleneck,如圖2(b)。

2.2 改進CBAM模塊

CBAM模塊是一種輕量級混合注意力模塊,給定一張特征圖,CBAM模塊能夠序列化地在通道和空間兩個維度上產生注意力特征圖信息,然后兩種特征圖信息再與之前原輸入特征圖進行相乘進行自適應特征修正,產生最后的特征圖。CBAM注意力模塊分為改進空間注意力和改進通道注意力兩部分,如圖3。

圖3 CBAM模塊Fig.3 CBAM module

2.2.1 改進通道注意力模塊

改進通道注意力模塊結構如圖4所示。將輸入的特征圖F(H×W×C)分別經過基于特征圖寬度W和高度H的全局最大池化和平均池化,得到兩個1×1×C的特征圖,接著,再將它們分別送入一層的權值共享的多層感知基層(multilayer perceptron,MLP),激活函數為Tanh。之后,將全連接層輸出的特征進行加和操作,再經過Sigmoid激活操作,生成最終的通道注意力特征Mc。最后,將Mc和輸入特征圖F做乘法操作,生成空間注意力模塊需要的輸入特征。

圖4 改進通道注意力模塊Fig.4 Improved channel attention module

綜上通道注意力計算公式總結為:

其中,σ表示Sigmoid激活操作。

值得一提的是,在MLP層生成權重時本文采用了0均值的Tanh激活函數,避免了傳統的Sigmoid激活函數不容易到達最優值的問題,且Tanh函數的導數取值范圍在0至1之間,優于Sigmoid函數的0至1/4,在一定程度上,減輕了梯度消失的問題、提升了收斂速度。并且為了防止出現過擬合的情況,MLP中采用Dropout操作,失活比例Dropout=0.2。

2.2.2 改進空間注意力模塊

改進通道注意力模塊結構如圖5所示。將通道注意力模塊輸出的特征圖F'作為空間注意力模塊的輸入特征圖。首先做一個基于通道C的全局最大池化和全局平均池化,得到兩個H×W×1的特征圖,然后將這2個特征圖基于通道C做Concat操作(通道拼接)。然后同時經過兩個卷積層:一個7×7常規卷積層,一個3×3的混合空洞卷積層(hybrid dilated convolution,HDC),其中HDC層由空洞率為1、3、9的三個空洞卷積組成。之后將常規卷積層和HDC層的輸出做通道拼接,再經過1×1的常規卷積層降維為1個Channel,即H×W×1。再經過sigmoid生成空間注意力特征Ms,最后將Ms和該模塊的輸入特征F'做乘法,得到最終生成的特征。

圖5 改進空間注意力模塊Fig.5 Improved space attention module

綜上空間注意力計算公式總結為:

值得一提的是,在改進空間注意力中,本文使用空洞率分別為1、3、9的混合空洞卷積HDC對通道拼接后的特征進行信息提取,這有效地增大了神經元的感受野,并通過計算特征圖中當前空間和臨近空間以及當前空間和遠距離空間之間的信息交互實現了圖像空間特征的遠端近端依賴關系,避免空間上細節信息的丟失。

2.3 基于改進CBAM模塊的ResNet34網絡

本文將改進CBAM模塊插入到34個權重層的殘差網絡的每個殘差塊中構建改進ResNet網絡—CBAMResNet34網絡,如圖6所示,圖像輸入網絡后先經過一個7×7的大卷積操作,用來直接對輸入圖片降采樣,目的是保留更多原始圖像的特征信息,并利用3×3最大池化進行特征初步壓縮,接著,在位置1處插入改進CBAM模塊,能夠讓原始圖像特征圖在通道維度與空間維度上進行自適應特征細化。然后,利用layer1、2、3、4共同提取深層特征,其中layer1、2、3、4分別包含3、4、6、3個Basicblock殘差模塊,接著,在位置2處,改進通道注意力機制對圖像特征進行通道上的權值分配。之后通過網絡的平均池化層與全連接層進行分級預測。

圖6 網絡模型Fig.6 Network model

3 實驗結果及分析

3.1 不同殘差網絡模型在不同數據集上預測ccRCC的ISUP分級的性能

不同網絡權重層數的殘差模型在不同CT測試數據集上的準確率和AUC值見表2和表3。本文基于準確率、AUC等指標從網絡層數和圖像類型的角度對實驗結果進行分析。

表2 基于不同方法區分ccRCC的ISUP低高分級的準確率Table 2 Accuracy of ccRCC ISUP grade based on different methods 單位:%

表3 基于不同方法區分ccRCC的ISUP低高分級的AUCTable 3 AUC of ccRCC ISUP grade based on different method

3.1.1 網絡層數方面

不同層數殘差模型在不同數據類型上的準確率和AUC值如圖7、圖8,其中,圖7(b)、圖8(b)的左右兩側分別表示各層網絡在低級別和高級別上的AUC值。可見,在任一數據集中,34層模型預測ccRCC的ISUP分級均取得了最高的準確率和最高的AUC值,如圖7(a)、(b);18層模型的準確率和AUC幾乎僅次于34層模型。在所有數據集中,34層模型的平均準確率為(82.8±3.7)%;低高級別的平均AUC值分別為0.831±0.041和0.821±0.044。18層模型的平均準確率為(80.2±3.3)%,低高級別的平均AUC值分別為0.779±0.089和0.774±0.085,見表2和表3。而50層、101層和152層模型的平均準確率和AUC相對較低,模型的分類性能并不理想。且從50層到152層,網絡層數越多,模型平均準確率和AUC值越低,分級性能越差,詳細指標見表2和表3。因此,網絡層數相對少、模型復雜程度相對低的34層、18層模型預測ccRCC的ISUP分級的性能要優于網絡層數多、模型復雜程度高的50層、101層、152層模型。前者中,34層模型的性能最優,后者中,有網絡層數越多,模型性能越差的趨勢。原因可能是50層、101層和152層網絡的Bottleneck模塊的殘差部分中1×1卷積的降維升維操作不利于ccRCC的特征提取,維度的多次變換導致模型性能變差,而34層、18層網絡Basicblock模塊的殘差部分沒有涉及1×1卷積的維度變換操作,使得模型性能較好。另外,層數過多使得模型過于復雜,更復雜的模型需要更大的樣本數,但相對較小的訓練樣本并不能充分利用復雜模型的優勢,這也可能是50層、101層和152層網絡性能較差的原因之一。

圖8 不同CT數據類型實現的準確率和AUCFig.8 Accuracy and AUC of different CT data types

3.1.2 數據類型方面

任一層數模型均在增強CT實質期上取得最高的準確率,如圖8(a),其余依次為增強CT分泌期、增強CT皮髓質期、平掃CT;任一層數模型均在增強CT皮髓質期上取得最高的AUC值,如圖8(b),其余依次為增強CT實質期、增強CT分泌期、平掃CT。基于四種CT數據的模型的平均準確率、低級別和高級別的平均AUC值分別為(73.2±3.3)%、0.628±0.083、0.638±0.085(平掃CT);(78.1±1.7)%、0.853±0.032、0.845±0.035(皮髓質期);(83%±1.9)%、0.806±0.038、0.798±0.050(實質期);(81.3±3.2)%、0.732±0.066、0.720±0.060(分泌期),見表2和表3。可以發現,基于增強三期CT圖像的模型預測ccRCC的ISUP分級的準確率和AUC值均高于基于平掃CT模型預測的結果,說明增強CT圖像提供了比未增強圖像更有價值的圖像信息,原因可能是ccRCC患者腫瘤血管密度高,增強CT的特征表現出更多的富含ccRCC的腫瘤血管結構,更多的ccRCC和血管結構更有利于神經網絡識別不同級別ccRCC的特征。

本文同樣發現,模型在增強CT實質期和皮髓質期上分別取得最高的準確率和AUC值,可見兩者均能提供有效的診斷價值,但兩者對模型預測ccRCC的ISUP分級的診斷價值來說也存在一些差異。為了尋找出能夠為網絡模型提供最優腫瘤信息的圖像,本文基于精度、召回率和F1分數等指標,進一步分析增強CT實質期和皮髓質期圖像對模型預測ccRCC的ISUP分級的診斷價值,ResNet34模型在兩測試集上取得的各項指標如表4所示。考慮到測試集中各類樣本的占比不同,本文采用低高級別樣本的總體加權數值作為各項指標的最終結果,見公式(5)。加權平均是對宏平均的一種改進,考慮了每個類別樣本數量在總樣本中占比,可減少數量較少的一類樣本產生的負面影響,更好地評估模型的性能。

表4 ResNet34分級性能表Table 4 ResNet34 model performance

在增強CT皮髓質期圖像上,ResNet34模型預測ccRCC的ISUP分級的總體加權準確率、AUC值、精度、召回率和F1分數分別為80.9%、0.88、83.0%、80.9%和81.7%。在增強CT實質期圖像上,ResNet34模型預測ccRCC的ISUP分級的總體加權準確率、AUC值、精度、召回率和F1分數分別為86.7%、0.856、86.5%、86.7%和86.6%。詳細的性能指標如表4所示。與基于增強CT皮髓質期圖像的模型相比,基于增強CT實質期圖像的模型除總體加權AUC值略低外,其余準確率、精度、召回率、F1分數指標均取得更高的數值,分別高出5.8、3.5、5.8、4.9個百分點。由此可見,增強CT實質期圖像在預測ccRCC的ISUP分級上更能夠提供有價值的圖像信息,更有利于網絡模型的開發。ccRCC的造影劑在實質期的強化程度一般且均勻,而皮髓質期有明顯的強化,且強化非常不均勻,所以本文認為較為均勻的一般強化圖像更能為神經網絡提供有價值的腫瘤特征。

3.2 基于改進CBAM注意力機制的ResNet34模型預測ccRCC的ISUP分級的性能

基于上述研究,本文發現增強CT實質期圖像和34層殘差網絡ResNet34最有利于ISUP分級預測模型的開發,基于最優CT類型——增強CT實質期圖像,本文提出一種改進CBAM模塊,并將其融入34層殘差網絡構建ResNet34-CBAM。本節通過消融實驗、與其他經典網絡對比來驗證ResNet34-CBAM預測ccRCC的ISUP分級的有效性。

3.2.1 消融實驗結果與分析

為了更好地驗證改進CBAM模塊的有效性及模塊所插位置是否合理,本文在位置1處插入改進CBAM模塊構建ResNet34-CBAM(1)模型,在位置1和位置2處分別插入改進CBAM模塊構建ResNet34-CBAM(2)模型。本文將所提出的ResNet34-CBAM模型與以上兩模型及ResNet34原網絡進行性能對比,幾種模型在實質期數據集上分級性能的具體評價指標如表5所示。

表5 ResNet34-CBAM模型預測ccRCC的ISUP分級的指標Table 5 Metrics of ccRCC ISUP grade predicted by ResNet34-CBAM

本文所提出的ResNet34-CBAM模型的總體加權準確率、AUC值、精度、召回率和F1分數分別為90.8%、0.897、90.5%、90.8%、90.6%,詳細的性能指標如表5所示,各項指標均高于ResNet34模型,其中準確率、AUC值、精度、召回率和F1分數分別提高4.1個百分點、0.041、4.0個百分點、4.1個百分點、4.0個百分點。這表明通過使用混合空洞卷積HDC來增大感受野,進而實現圖像特征的遠程依賴關系對提升網絡性能是有效的。

ResNet34-CBAM(1)模型的總體加權準確率、AUC值、精度、召回率和F1分數分別為83.7%、0.877、83.2%、83.7%、83.3%,ResNet34-CBAM(2)模型的總體加權準確率、AUC值、精度、召回率和F1分數分別為81.6%、0.857、79.7%、81.6%、83.3%,詳細的性能指標如表5所示。本文發現,本文的模型的分級性能指標要好于前兩者,這表明在ResNet34網絡位置1處插入改進CBAM模塊,在位置2處只插入改進通道注意力模塊的組合插入策略是合理有效的,即先利用位置1的改進CBAM模塊對7×7的大卷積操作后的原始圖像特征圖在通道維度與空間維度上進行自適應特征細化;再利用位置2處的改進通道注意力模塊對深度layer層提取后的特征進行通道權值分配,能夠提取更多有用的特征、提升模型性能。另外,之所以在位置2處的只插入改進通道注意力模塊,去除改進空間注意力模塊,是因為其特征圖輸入尺寸較小,使用改進空間注意力模塊進行空間權值分配需進行大量的Padding補0操作,帶來大量的無用信息,進而導致特征提取不準確,模型性能變差。

為了更直觀地評估消融實驗中的幾種網絡模型在預測ccRCC的ISUP分級的AUC值,并最大程度地消除樣本不均衡因素,本文繪制了四種網絡預測ccRCC的ISUP低高分級的ROC曲線,包括宏平均與微平均ROC曲線,如圖9所示。可以發現本文提出的模型的低高級別ROC曲線對應的AUC值、宏平均與微平均AUC值以及總體加權平均AUC值均高于其余模型。可見改進CBAM模塊可以全面提升ResNet34模型預測ccRCC的ISUP分級的AUC值。

圖9 四種模型ROC曲線Fig.9 ROC curves of four models

3.2.2 與其他經典網絡對比實驗結果與分

為了進一步驗證模型的分級性能,本節將本文的模型與最新的VIT模型、主流的AlexNet、EfficientNet等卷積模型進行了對比,在同一數據集上具體評價指標如表6所示。圖10顯示了這些模型的性能比較結果,其中,AlexNet、EfficientNet、VIT-16B模型識別準確率都低于90%,AUC均低于0.86。AlexNet中無緩解梯度消失的殘差結構,EfficientNet模型中無空間注意力機制,故這可能導致兩者在此次任務中性能表現不佳,另外,盡管VIT模型憑借Transformer架構的優異性能在圖像處理領域得到了比較廣泛的應用,但VIT模型在此次識別任務上的表現并不理想,原因可能是VIT模型的潛力通常需要大型數據集才能夠得以發揮。基于改進CBAM模塊的ResNet34模型的準確率、總體加權AUC值、精度、召回率和F1分數分別為90.8%、0.897、90.5%、90.8%、90.6%。與其他幾種網絡算法相比,本文將殘差結構和改進CBAM模塊集成的方法是有效的,既避免了梯度消失和爆炸,又通過注意力機制獲取了特征圖空間的遠端與近端依賴關系,使網絡模型具備更優的性能和更高的可靠性。

表6 不同網絡模型性能對比Table 6 Performance comparison of different network models

圖10 模型性能對比Fig.10 Performance comparison of models

4 結束語

本文基于ccRCC患者的平掃CT及增強CT各期圖像,提出了一種基于改進ResNet網絡的ccRCC分級算法,采用改進混合注意力模塊CBAM對網絡的進行優化,通過混合空洞卷積實現了圖像特征的遠程依賴關系,避免特征細節信息的丟失的同時提取了更多有用信息,增強了網絡在通道與空間權重上的選擇能力。相較于其他常見的網絡結構,本文所建網絡模型預測ccRCC的ISUP分級的效果更好,性能優異,這對于幫助年輕的放射科醫師做出準確的診斷具有重要意義。

然而本文的研究工作同樣存在著一些局限性,首先,本文是利用殘差網絡架構和注意力機制的集成方法提高網絡的分類能力,對于深度學習模型的開發,還有更多其他的深度學習網絡架構可以利用,如GoogleNet[15]和MobileNet[16],但本文的實驗證明了將深度學習應用于ccRCC患者ISUP分級的有效性。其次,本文沒有細致到利用深度學習技術對ccRCC的Ⅰ、Ⅱ、Ⅲ、Ⅳ級的ISUP分級展開研究,將來隨著數據樣本的逐漸增多,做具體化的ISUP分級研究可以協助醫生對患者病情做出更加精準的臨床判斷。另外,雖然本文數據中包含的所有病例都是經過專業醫生的確認,但仍然存在一定的人為因素,所以本文的模型如果要應用到實際中,需要大量的優質數據來改進模型,使結果更加可靠。

有基因組學研究文獻[17-18]表明超過80%的ccRCC病例存在VHL基因缺失的現象,VHL缺失導致致瘤性缺氧誘導因子蛋白增多[19-20],進而導致調控血管生成、糖酵解代謝和凋亡的缺氧誘導因子靶向基因被激活,使得ccRCC腫瘤富含糖原和脂質,且血管密度高[21],因此將來的工作將開發更加精準先進的深度學習算法進一步探討ccRCC的ISUP分級與血管密度及VHL基因缺失的具體關系。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 亚洲人成网站观看在线观看| 日韩最新中文字幕| 高清国产va日韩亚洲免费午夜电影| 亚洲国产欧美国产综合久久| 中文字幕在线日韩91| 国产一区二区人大臿蕉香蕉| 免费观看精品视频999| 亚洲熟妇AV日韩熟妇在线| 久久香蕉国产线看观看精品蕉| 免费又黄又爽又猛大片午夜| 国产亚洲欧美日韩在线一区二区三区| 亚洲AV一二三区无码AV蜜桃| 亚洲视屏在线观看| 1024你懂的国产精品| 四虎精品免费久久| 欧美精品成人| 国产精品香蕉在线| 成人国产小视频| 国外欧美一区另类中文字幕| 重口调教一区二区视频| 国产免费a级片| 久久精品国产精品一区二区| 亚洲综合18p| 在线免费不卡视频| 在线日本国产成人免费的| 欧美不卡二区| 中文字幕色在线| 亚洲欧美精品日韩欧美| 欧美成人国产| 国产亚洲欧美在线专区| 成年人免费国产视频| 国产精品美女免费视频大全| 激情在线网| 国国产a国产片免费麻豆| 国产精选小视频在线观看| 国产黄色视频综合| 蜜臀av性久久久久蜜臀aⅴ麻豆| 一本大道视频精品人妻| 免费久久一级欧美特大黄| 亚洲成人高清在线观看| 麻豆国产在线不卡一区二区| 精品无码视频在线观看| 男女精品视频| 欧美笫一页| 亚洲欧美综合精品久久成人网| 日本妇乱子伦视频| 免费不卡视频| 亚洲成在人线av品善网好看| 国产麻豆永久视频| 欧美一级色视频| 国产成人亚洲精品无码电影| 在线观看亚洲天堂| 国产免费精彩视频| 欧美yw精品日本国产精品| 亚洲免费三区| 无码'专区第一页| 亚洲天堂.com| 久久国产精品国产自线拍| 欧美第一页在线| 精品自窥自偷在线看| 亚洲一区二区三区国产精华液| 欧洲熟妇精品视频| 欧美日韩国产精品综合| 午夜不卡视频| 婷婷在线网站| 91久久精品日日躁夜夜躁欧美| 国产在线一二三区| 波多野结衣的av一区二区三区| 久久午夜夜伦鲁鲁片不卡| 九九视频免费看| 国产亚洲高清在线精品99| 中文字幕无码制服中字| 精品国产一区二区三区在线观看| 99久久人妻精品免费二区| 麻豆a级片| 国产精品成人第一区| 国产v精品成人免费视频71pao | 色婷婷亚洲综合五月| 人妻丰满熟妇αv无码| 日韩中文欧美| 67194亚洲无码| 亚洲第一黄色网|