楊志新,趙麗珠,鄧 玥,楊麗華
(昆明醫科大學第二附屬醫院婦科,云南 昆明 650101)
卵巢癌在女性生殖系統惡性腫瘤中發病率居第3 位,病死率位列首位[1],GLOBOCAN 數據[2]顯示2020 年全球約有31 萬卵巢癌新發病例。由于卵巢癌早期缺乏典型臨床特征,且無有效的篩查手段,超過70%的患者被診斷時已在Ⅲ期或Ⅳ期,預后較差,嚴重威脅婦女生命健康[3-4]。因此發現卵巢癌早期診斷的有效策略成為亟待解決的問題。
超聲圖像因其成本低廉、便捷迅速以及無創侵入等優點廣泛運用于臨床,2022 年國家衛生健康委員會發布的《卵巢癌診療指南》[5]指出現階段超聲檢查是卵巢癌篩查的首選方法,可明確卵巢有無占位性病變,但高診斷準確率對超聲醫師的檢查能力、臨床經驗及綜合分析能力要求較高。近年來,深度學習作為前沿技術逐漸運用于醫學影像學領域,其中卷積神經網絡(convolutional neural network,CNN)的應用最為廣泛。CNN 技術可通過計算機輔助診斷系統自動學習提取超聲圖像特征,檢測醫師難以發現的深層成像特征,更好地輔助醫生診斷疾病,提高診斷效率[5]。其與肝臟超聲、乳腺超聲、甲狀腺超聲圖像等結合,協助提高結節良惡性診斷水平[6-8]。本研究選取VGG16 與MobileNet-V2 2 個CNN 模型與卵巢腫瘤超聲圖像結合,以提高卵巢腫瘤超聲圖像鑒別診斷水平,提高卵巢癌早期診斷效率。
納入標準[9]:細胞學或組織病理證實的卵巢惡性腫瘤、卵巢良性腫瘤患者;可獲取疾病負荷狀態的超聲圖像。排除標準[9]:雖病理證實為符合條件的卵巢病變但在昆明醫科大學第二附屬醫院超聲檢查時已無疾病負荷;超聲圖像未存檔或超聲圖像模糊無法辨認、包含無效信息過多。本次研究經昆明醫科大學第二附屬醫院倫理委員會審查批準(倫理批件號審-PJ-2020-100),共收集2015 年6 月至2022 年9 月卵巢腫瘤患者365 例(良性患者200 例,惡性患者165 例),共400 張卵巢腫瘤超聲圖像,均取得患者本人或家屬知情同意。具體病理類型,見表1。患者中位年齡為(48.34±13.47)歲。
表1 收集圖片病理結果統計表()Tab.1 Statistical tables of pathological results from collected image()

表1 收集圖片病理結果統計表()Tab.1 Statistical tables of pathological results from collected image()
超聲圖像集均來自Philips-Affiniti 50 彩色多普勒超聲診斷儀,探頭為 C9-4v 腔內超聲探頭,探頭頻率22~42 Hz。采集圖像存儲為JPG 格式。圖像預處理流程,見圖1。挑選腫瘤清晰的圖像,由工作經驗5 a 以上的超聲科醫生選取腫瘤感興趣區域。另外,B 超圖像上病灶標注等信息,利用Matlab 圖像處理的方式去除。將圖像統一調整為224×224 像素大小便于模型訓練。隨后超聲圖片數據集以1∶3 比例分為訓練集及驗證集,選取100 例超聲圖片(惡性50 例,良性50 例)作為訓練集用于模型的訓練與建立,余300 例超聲圖片(惡性150 例,良性150 例)作為驗證集用于模型驗證。

圖1 B 超圖像預處理流程圖Fig.1 The preprocessing of ultrasound image
采用VGG16 和MobileNet-V2 構建CNN 模型,對卵巢超聲圖像進行分類。VGG 模型作為經典的CNN 網絡,可以從B 超圖像中提取腫瘤尺寸、位置、紋理等空間特征信息以實現分類任務。本研究選擇VGG16 模型進行第1 輪搭建,它包含5 段卷積,每段卷積有1 到3 個卷積層,每段卷積后接1 個最大池化層來縮小特征值尺寸和增強特征,后接3 個全連接層,前2 層均有4 096 個通道,第3 層共1 000 個通道,對應1 000 個標簽類別,最后1 層為Softmax 層,見圖2。MobileNet-V2 模型不僅借鑒VGG 結構,堆疊卷積層以提高準確度,另外引入線性瓶頸結構和反向殘差結構,實現模型參數少、計算速度快的優點,且適用于輕量級設備的應用部署。本研究應用的MobileNet-V2 包含初始的32 個卷積核的全卷積層,后接17 個反向殘差瓶頸模塊,然后是2 個全卷積層,2 個全卷積層之間插入1 個平均池化層以實現分類任務,見圖3。

圖2 VGG16 模型Fig.2 The structure of VGG16

圖3 MobileNet-V2 模型Fig.3 The structure of MobileNet-V2
本次實驗使用個人計算機訓練神經網絡。使用python 3.7,CUDA 10.1 及包括Numpy、Pytorch、Torchversion 等在內的多個Python 組件,分別對VGG16 網絡和MobileNet-V2 網絡進行參數調整,學習率設置為0.001,Batchsize 為32,epoch 為200 次。損失值代表訓練數據輸入VGG16 及MobileNet-V2 網絡后,預測值和真實值之間的誤差;準確率反映模型預測值與真實值之間的一致性。損失值越小,準確率越高則模型診斷效能更強。在每次訓練結束時,將每次訓練后的訓練集損失函數值與訓練集準確率進行記錄保存,然后根據數據創建折線圖表來直觀地反應結果。使用CUDA 加速,對數據集進行訓練與前向推理。經過200 周期的訓練后,模型保存為CSV 文件。最后用驗證集來測試訓練集得到的模型,以此作為評價診斷模型的性能指標。
選擇本院高年資和低年資2 名超聲科醫生,其中高年資醫師的選擇標準為取得中級資格證,婦科超聲檢查超過10 000 例,低年資醫師標準為從事超聲工作小于3 a,婦科超聲檢查不到3 000例。2 名醫師分別獨立地對電腦屏幕所展示的驗證集圖像進行識別判斷,記錄結果。與模型診斷結果進行比較。
采用SPSS 26.0 對數據進行統計描述和統計學分析,計數資料統計描述采用例數或百分比表示。分別計算Kappa 系數、靈敏度、特異度、準確度、陽性預測值、陰性預測值,4 種診斷方法各參數比較采用χ2檢驗,P<0.05 表明差異有統計學意義。
隨著訓練次數的增加,兩模型訓練集的損失值不斷下降,但損失值下降趨勢逐漸減緩,VGG16 網絡模型的損失函數值始終高于MobileNet-V2 模型,見圖4A。使用VGG16 和MobileNet-V2 進行訓練后得到的準確率結果,見圖4B。總的看來,隨著訓練次數增加,2 模型訓練集的準確率均呈上升的趨勢,但實驗次數100 次之后,準確率提升便不再明顯,最終VGG16、MobileNet-V2 模型的準

圖4 VGG16 和MobileNet-V2 在訓練過程中的損失函數值和準確率Fig.4 The loss and accuracy of VGG16 and MobileNet-V2 during training process
統計4 種診斷方法結果,VGG16 模型有121例惡性腫瘤圖片分類正確,119 例良性腫瘤圖片分類正確;MobileNet-V2 模型有134 例惡性腫瘤圖片分類正確,140 例良性腫瘤圖片分類正確;高年資醫生有113 例惡性腫瘤圖片分類正確,121 例良性腫瘤圖片分類正確;低年資醫生有100 例惡性腫瘤圖片分類正確,99 例良性腫瘤圖片分類正確,計算統計各參數,見表2。分別比較MobileNet-V2、VGG16 模型、超聲醫生與病理診斷的一致性、準確率,靈敏度、特異度,結果發現VGG16、MobileNet-V2 模型診斷的準確率,靈敏度、Kappa 值均高于超聲醫生(P<0.05),而高年資超聲醫生的診斷效能又優于低年資超聲醫生(P<0.05),其中MobileNet-V2 模型各項指標均優于其他3 種診斷方法,整體性能最佳(P<0.05)。

表2 Mobilenet-V2、VGG16、與超聲醫生診斷能力比較Tab.2 Comparision of diagnosis performance among MobileNet-V2,VGG16 and ultrasound doctors in validation sets
惡性腫瘤的篩查與診斷一直以來都是腫瘤研究領域的熱點,研究者們很早就將人工智能方法應用到腫瘤影像學中,從早期計算機輔助診斷系統,到現在普遍運用的深度學習。人工智能正逐步表露其巨大的潛力不斷為惡性腫瘤的診斷篩查,甚至治療、預后研究提供新的思路。伴隨CNN 的迭代更新,擁有良好性能的CNN 模型不斷涌現。VGG 的結構網絡十分簡潔,其利用小卷積核的堆疊,在減少網絡參數的同時,能完成同大卷積核一樣的感受野效果;另外每層卷積之后的非線性函數,提升網絡對圖片特征值的學習及表達。與之前的網絡結構相比,VGG 的錯誤率大幅下降,拓展性很強,并且在圖像分類和目標檢測任務中都取得了很好的效果[10-11]。VGG 依據深度不同,劃分為6 種結構,其中VGG16 具有良好的圖片分類能力。Han 等[12]使用10 種機器學模型和 VGG算法對肺癌患者的PET/CT 圖像進行學習分析,以構建用于肺腺鱗癌鑒別診斷的最佳分類模型,最后VGG16 算法曲線下面積0.903,優于結合放射組學的所有傳統機器學習方法。Alshammari等[13]應用VGG16 對數據庫中腦轉移病人的核磁圖像進行分類,使用函數計算輔助增強效能,最終對腦轉移圖像的分類準確率達93.74%,除此之外,VGG16 還用來輔助腰椎狹窄的影像學診斷,與其他深度學習方法相比VGG16 分類成功率最高,為 87.70%[14]。可見,VGG16 與影像學的結合應用比較靈活,且結果良好。本研究首先選用VGG16 網絡模型來構建訓練超聲圖像診斷模型,最后VGG16 模型的準確率為80.00%,靈敏度為80.67%,特異度為79.33%。鑒于VGG16 模型驗證數據未達到筆者對CNN 鑒別附件包塊超聲圖像良惡性的預期,因此本研究選用MobileNet-V2 模型進行新一輪搭建。MobileNet-V2 神經網絡是輕量化卷積神經網絡中表現較為優秀的網絡,它不僅保留了VGG 網絡堆疊小卷積層以提高準確度的結構,還創新性地運用線性函數及反向殘差模塊來減少運算量,隨著巨型網絡一步步演變為輕量化網絡,模型準確率也越來越高[15-16]。近年來MobileNet-V2 廣泛運用于醫學影像輔助診斷,Palczynski 等[17]應用MobileNet-V2 協助白血病診斷,其分類平均準確率超過90%。Srinivasu 等[18]利用MobileNet-V2 模型對皮膚病進行分類,該模型比其他經典CNN 模型有更高的準確性。臺北大學學者[19]選擇MobileNet-V2 分析患者腹部超聲圖像對膽囊炎進行分類,最終曲線下面積分別達0.92 和0.94。本研究搭建MobileNet-V2 網絡模型驗證集最后準確率為91.33%,靈敏度為89.33%,特異度為93.33%。再選取本院1 名高年資超聲醫生、1 名低年資超聲醫生對驗證集數據進行獨立診斷,比較診斷結果顯示MobileNet-V2 診斷性能最優,VGG16、MobileNet-V2 模型診斷的準確率,靈敏度、Kappa 值均高于高、低年資超聲醫生(P<0.05)。這與Martinez-Mas 等[20]基于機器學習技術建立的卵巢腫瘤超聲圖像診斷模型準確率相當。
本研究證明了利用卷積神經網絡實現對卵巢癌腫瘤分類的可行性,有望應用于臨床輔助卵巢癌的診斷、改善預后。但本研究模型訓練的圖像數據偏少,在下一步的工作中,將逐漸擴大樣本量,改善優化算法模型,發展基于超聲影像的卵巢癌自動檢測方法,以期為卵巢癌早期診斷困難尋求新的解決辦法。