

摘要:目的 探討基于V-Net的深度卷積神經網絡模型在胰腺及其腫瘤自動識別和分割任務中的有效性和可行性。方法 回顧性分析2012年5月~2019 年11月于上海交通大學醫學院附屬第一人民醫院就診且經病理證實為胰腺癌的186例患者的增強CT影像資料,經過篩選,共納入108例胰腺癌病例,隨機搜集同期37例正常胰腺病例用于對照,最終共納入145例數據,構成本研究的數據集。采用五折交叉驗證方法,在動脈期CT圖像上進行人工標注感興趣區域(ROI),包括胰腺頭頸部、體尾部和腫瘤,通過計算敏感度、特異度、F1分數等指標評估模型對胰腺腫瘤的識別能力,并進行Kappa一致性驗證。采用Dice系數定量評估模型的分割能力,并獲取可視化結果進一步評估。結果 基于V-Net的模型識別胰腺腫瘤的敏感度為0.852、特異度為1.000、陽性預測值為1.000、陰性預測值為0.698,F1分數高達0.920。一致性驗證顯示,Kappa系數為0.746(Plt;0.05)。在分割任務中,胰腺腫瘤、胰腺體尾部和胰腺頭頸部的Dice系數分別為0.722±0.290、0.602±0.175、0.567±0.200。結論 本研究構建基于V-Net的深度卷積網絡模型,有效完成了胰腺及其腫瘤自動識別與分割,驗證了該方法的有效性和可行性,為探索胰腺腫瘤領域人工智能應用提供有力支持。
關鍵詞:胰腺腫瘤;V-Net;深度學習;卷積神經網絡;人工智能;自動分割
A deep convolutional network model based on3D V-Net can automatically recognize and
segment pancreas and its tumors
CHEN Fei 1 , LI Maolin 1 , JIANG Yuting 2 , LI Kang'an 1
1 Department of Radiology, First People's Hospital Affiliated to Shanghai Jiaotong University Medical College, Shanghai 201620, China;
2 Department of Radiology, Jintan First People's Hospital, Changzhou 213200, China
Abstract: Objective To explore the effectiveness and feasibility of the deep convolutional neural network model, based on V-Net, for automatic recognition and segmentation of the pancreas and its tumors. Methods A retrospective analysis wasconducted on the enhanced CT imaging data of 186 patients with pathologically confirmed pancreatic cancer who visited FirstPeople's Hospital Affiliated to Shanghai Jiaotong University Medical College from May 2012 to November 2019. Afterscreening, a total of 108 cases of pancreatic cancer were included, and 37 cases of normal pancreas during the same periodwere randomly collected for comparison, resulting in a final dataset of 145 cases for this study. This paper employed a five-foldcross-validation method and manually annotated regions of interest on arterial phase CT images, including the pancreatichead and neck, body and tail, and tumors. The model's ability to identify pancreatic tumors was evaluated by calculatingmetrics such as sensitivity, specificity, F1 score, and Kappa consistency verification was performed. Dice coefficient was used toquantitatively assess the model's segmentation capability, and visual results were obtained for further evaluation. Results TheV-Net based model for identifying pancreatic tumors has a sensitivity of 0.852, a specificity of 1.000, a positive predictive valueof 1.000, a negative predictive value of 0.698, and an F1 score as high as 0.920. The consistency verification shows that theKappa coefficient is 0.746 (Plt;0.05). In the segmentation task, the mean Dice for pancreatic tumors, pancreatic body and tail,pancreatic head and neck were 0.722±0.290, 0.602±0.175, 0.567±0.200, respectively. Conclusion We constructed a deepconvolutional network model based on V-Net, which successfully achieved automatic identification and segmentation of thepancreas and tumors. Our findings demonstrated the effectiveness and feasibility of this approach, offering robust support forthe exploration of artificial intelligence applications in the field of pancreatic tumor research.
Keywords: pancreatic tumor; V-Net; deep learning; convolutional neural network; artificial intelligence; automaticsegmentation
胰腺癌預后較差,總體5年相對生存率約10%[1] 。研究數據顯示,TNM I期(T 1-2 N 0 M 0 )或直徑lt;1 cm的胰腺癌患者5年生存率可達75%[2] ,目前臨床普遍認為,早期診斷與及時手術干預是改善胰腺癌患者預后的唯一有效途徑[3] 。胰腺癌疑似病例首選的影像學檢查方法是多排螺旋CT薄層掃描,最好為亞毫米級[4, 5] 。影像診斷依賴于醫師的視覺評估,存在差錯與觀察者間差異,亟需建立精準穩定的診斷與預測手段。近年來,人工智能憑借其強大的計算能力和卓越的學習能力在臨床實踐中展現出顯著優勢[6] 。器官和病變的精準分割,對于人工智能進一步輔助疾病診斷、明確病情分期以及精準制定治療計劃來說,具有至關重要的意義[7]。但在胰腺CT分割研究中,準確性相較于其他腹部器官仍顯不足[8] 。胰腺分割研究主要分為基于傳統方法和基于深度學習卷積神經網絡兩類。既往研究提出了基于殘差的多尺度感受野網絡,并采用了多尺度跨域的信息融合策略,有效解決了過分割、欠分割及形狀不一致等問題;但其屬于傳統方法,需依賴人工設定參數和手動提取圖像特征,自動化程度低[9] 。鑒于醫學圖像數據龐大且分割受操作者影響大,基于深度學習卷積神經網絡的自動分割算法可以提高效率和準確性,如有研究提出了創新的深度學習網絡,該網絡基于可形變U-Net架構,結合了Q學習算法,通過充分考慮上下文信息,實現精確的胰腺分割[10]。目前,無論是基于傳統方法還是深度學習卷積神經網絡的半自動及自動分割算法,其結果仍然未能完全滿足臨床的實際需求。V-Net可以看作是3D U-Net的變體,是三維醫學圖像分割卷積神經網絡[11] ,它基于全卷積網絡,接受端-到-端訓練,是一種全自動識別系統。已有研究將其應用于3D前列腺圖像的分割任務中,成功實現了對整個前列腺MRI圖像的一次性精準分割。本文擬構建基于V-Net先進深度學習技術的分割模型,應用于胰腺及其病灶的精確分割。既往研究普遍采用監督學習方法,即需要對每一份輸入數據進行標注。深度學習在醫學圖像處理中的應用高度依賴于高質量、充足且多樣化的標注數據[12] 。然而,醫學圖像的人工標注成本高昂,需醫生及專家具備豐富知識與經驗,尤其三維醫學圖像的體素標注尤為耗時;加之患者群體與采集參數的差異性,醫學影像標注數據的稀缺性問題日益顯著,成為制約深度學習分割方法發展的一大瓶頸[13]。本研究嘗試采用人工稀疏三維標注方法,縮減標注成本同時提升數據利用效率。本研究擬構建并優化一種基于3D V-Net架構的深度卷積神經網絡模型,旨在驗證其在胰腺及其腫瘤自動識別與分割任務中的有效性與可行性。模型在V-Net架構中創新性地融入了CoordConv層[14],實現圖像信息與對應坐標信息的深度融合。此外,本研究采用人工稀疏三維標注方法并引入Mean Teachers[15] 半監督學習 [16] 策略,使模型能夠充分利用未標記數據進行學習,提升其泛化性能。
1 資料與方法
1.1 研究對象
本研究采用連續性入組方式,回顧性分析2012年5月~2019年11月于上海交通大學醫學院附屬第一人民醫院接受診治且經病理證實為胰腺癌的186例患者的增強CT影像資料。納入標準:年齡≥18歲;病史記錄詳實,經病理證實確診為胰腺癌,檢查前未行胰腺切除手術,胰腺大體解剖位置正常;重建圖像層厚需≤3 mm,確保圖像清晰、完整,質量滿足胰腺及腫瘤輪廓勾畫需求。排除標準:曾接受胰腺相關手術,致胰腺結構或位置改變;大量腹水,影響臟器對比度;圖像偽影多,影響診斷;圖像層厚gt;3 mm。最終納入108例胰腺癌病例。另隨機選取同期37例正常胰腺病例作為對照,半年后電話隨訪,均未發生胰腺相關疾病,且血生化指標(CA199)均在正常值范圍內。本研究最終納入145例數據用于胰腺及腫瘤識別和分割,包括108例病變胰腺和37例正常胰腺。本研究已獲得倫理委員會批準(審批號:2020-044),患者信息均經匿名化處理。
1.2 CT影像采集方法
本研究采用16排及以上多排螺旋CT進行上腹部動態增強掃描,數據采集源自 Siemens(SomatomForce、Somatom Definition Flash),GE(Discovery、Revolution)及Philips的CT掃描儀。實施了統一掃描方案:動態、無間隔螺旋掃描,管電壓120 kV,管電流采用自動毫安秒技術。患者仰臥,先行平掃,后靜脈注射90~100 mL含碘造影劑(濃度gt;300 mgI/L,注射速率3~5 mL/s)進行增強掃描。大部分病例采用動靜脈期延遲掃描(動脈期25~30 s,門靜脈期60~70 s),少部分采用胰腺期延遲掃描(35~50 s)。圖像重建層厚≤3 mm。掃描范圍主要為上腹部膈頂至雙腎下極,可擴展至胸部和骨盆,少部分病例以包含胰腺為主,從肝門至腎門水平。
1.3 數據標注
本研究選擇在動脈期CT圖像上進行人工稀疏三維標注,輔以平掃、靜脈期及三維重建圖像作為參考。首先由具有3年以上診斷經驗的放射科醫師沿著胰腺及腫瘤邊緣手動勾畫感興趣區(ROI),ROI標注分為胰腺頭頸部、體尾部及胰腺腫瘤。稀疏三維標注策略即靈活選取代表性層面進行標注,避免連續且相似層面重復標注,來平衡標注工作量與數據代表性。標注結果經過高年資主治及以上級別醫師的嚴格審閱與修正,以確保標注質量。整體標注策略靈活自由,符合用戶習慣,確保胰腺所在總層面中至少有10%的數據被標注,同時保留90%的未標注數據,可提升用戶標注效率。
1.4 數據預處理
對于胰腺腫瘤的多模態醫學圖像進行圖像配準和標準化處理。采用隨機裁剪數據增強技術增加數據多樣性,提升模型泛化能力。使用Normalize函數進行歸一化處理,統一樣本統計分布。圖像數據采用雙線性插值,標簽數據采用最近鄰插值,以保留圖像細節并保持標簽數據類型一致。通過上述預處理步驟,得到了處理后的圖像數據及其對應的掩膜圖像。在導入網絡訓練前,需對數據集進行隨機化分配。
1.5 基于V-Net的改進模型
本研究基于V-Net模型進行改進,通過在卷積層前加入 CoordConv 層來增強坐標信息的學習,并引入Mean Teachers算法以提升在少量標注數據下的分割效果。實驗采用kernel_size為(1,1,4)、stride為(1,1,4)的卷積層,縮減輸入尺寸至(128,128,80)后輸入V-Net。研究中運用了Dropout層、批量歸一化和L2正則化等多種正則化技術,旨在應對數據不平衡與未標記數據所帶來的挑戰。同時,采用基于Dice系數的損失函數和SGD優化函數優化模型參數。
采用五折交叉驗證評估模型,數據集內病變與正常胰腺隨機分布,以提高訓練準確性及泛化能力。使用TensorBoard工具,可視化跟蹤準確率和損失函數,提升評估效率。實驗環境基于Anaconda創建的Python 3.8環境,并安裝了 PyTorch、Pillow 和 OpenCV 庫,使用PyTorch DataLoader進行數據加載訓練參數設置為:初始學習率為0.01,每1500次迭代學習率衰減10倍,訓練總迭代次數為6000,Dropout率為0.5,動量值為0.9。
1.6 統計學分析
采用SPSS27.0統計軟件進行數據分析和處理,計算敏感度、特異度、陽性預測值、陰性預測值和F1分數,評估基于V-Net深度卷積神經網絡模型對胰腺腫瘤的識別性能。采用Kappa一致性驗證和Dice系數的計算與定量評估,分析模型的準確性和穩定性。
2 結果
2.1 訓練有效性評估結果
在訓練過程中,本模型共進行了6000次迭代,其性能通過訓練準確率和訓練熵損失2個關鍵指標得到了全面評估。隨著迭代次數的增加,訓練準確率穩步上升,并在大約2000次迭代后趨于穩定(圖1A)。訓練熵損失的下降趨勢顯示,初期迅速降低,大約在2000次迭代后整體仍呈下降趨勢(圖1B)。模型在訓練過程中的動態性能提升,訓練準確率有所下降,而熵損失上升,模型仍正常收斂,當熵損失不再持續下降時,準確率開始穩定,模型權值逐漸穩定。
2.2 分割可視化結果
分割結果與原圖中的手工標注的對比,依次為胰腺頭部的分割結果(圖2A)、胰腺體尾部的分割結果(圖2B~C)以及胰腺腫瘤的分割結果(圖2D)。
2.3 腫瘤識別評估
模型識別結果顯示,本模型腫瘤識別敏感度為0.852,特異度為1.000,陽性預測值與F1分數分別為1.000、0.920,陰性預測值為0.698。Kappa一致性驗證顯示,Kappa系數為0.746(Plt;0.05)。
2.4 自動分割定量評估
采用Dice系數對腫瘤及胰腺分割進行定量評估,結果顯示,胰腺腫瘤的Dice系數為0.722±0.290,胰腺體尾部為0.602±0.175,胰腺頭頸部為0.567±0.200。
3 討論
近年來,胰腺癌的發病率和死亡率逐年遞增[17, 18] 。目前,醫學影像領域還存在醫療資源不足、專業醫生缺口巨大、誤診率偏高、診斷效率低等痛點[19] 。傳統影像學診斷胰腺癌受醫師水平影響,而人工智能有望打破此限,并提升效率,減輕醫師壓力[20] 。目前,胰腺人工智能應用的研究仍然相對較少,大多數早期研究主要集中于圖像采集與優化[21] 。胰腺獨特的解剖結構使其成為腹部分割的難點,加之醫學圖像中胰腺及病灶標注數據稀缺,導致胰腺自動分割面臨諸多挑戰。既往人工智能在胰腺研究中主要聚焦正常胰腺[21],建模數據主要來自歐美人群的公開數據集[22, 23] 。本研究聚焦深度卷積神經網絡在胰腺及病灶分割中的應用,訓練數據集全部來源于國內本土人群,充分代表我國人群特征。
本研究旨在開發一種針對胰腺及其病灶的自動分割算法,并深入探索及實現一種靈活、自由且高效的標注方法策略。模型構建設計遵循影像科醫生診斷的核心原則“先定位后定性”。本研究旨在完成兩項任務:其一,識別腫瘤的存在與否。鑒于正常胰腺圖像中不存在腫瘤,模型僅能觀察到背景信息,因此本研究納入了正常病例,可通過對背景數據進行表征學習,使模型明確在正常影像中不應檢測出腫瘤,從而對其學習進行約束;正常胰腺影像亦可用于檢驗模型的準確度,若模型在正常影像中錯誤地檢測到腫瘤,則表明其泛化能力尚待提升。其二,模型需按照解剖位置將胰腺分割為頭頸部和體尾部,以便于后續更深入的研究,并實現對病變位置的精準定位。本研究有望提高模型的診斷效率及準確性,為醫師檢測與識別病灶提供有力輔助,有效減輕醫生的工作負擔,并減少漏診情況。
本文在 V-Net 中創新性地引入 CoordConv 和Mean Teachers,這些技術增強了V-Net模型的特性和性能,使其能更準確地捕捉到圖像中的細節和結構信息。V-Net采用體積卷積(3D卷積)作為輸入,使模型能夠同時處理3個空間維度的數據,從而更有效地學習切片間的上下文信息,這也使得V-Net在處理三維醫學圖像數據時表現出顯著的優勢。坐標卷積是一種新型的卷積方式,通過在卷積操作中引入額外的坐標通道,將圖像與坐標信息融合,增強了模型的空間感知力,從而更精準地分割和識別圖像目標。Mean Teachers是一種半監督學習算法,通過設立教師和學生2個模型,教師模型權重為學生模型的時間加權平均,提升了半監督學習性能,使模型在部分標記數據下也能取得良好效果。胰腺癌病灶在動脈期多呈乏血供狀態,有助于區分腫瘤/非腫瘤。有團隊在構建深度學習胰腺自動分割模型時發現,靜脈期的Dice相似系數略高于動脈期,但差異無統計學意義[24]。有研究提出了一種新的深度學習框架,該框架結合了體素分類和邊界重建兩種方法,以迭代的方式共同提高器官分割的性能;還引入了一種標簽完善策略,以補全大量未標記體素的標簽,進而將這些數據嵌入到訓練集中,以增強模型的性能[25]。基于上述理論和研究,鑒于大部分胰腺癌在動脈期強化程度通常弱于正常胰腺實質,呈相對低密度改變這一特點,本研究選擇嘗試僅在動脈期進行稀疏人工標注,同時結合平掃和靜脈期圖像作為輔助判斷手段。研究表明,在人工智能應用于胰腺癌及其癌前病變的診斷與預測方面,其AUC為 0.790~0.999,準確度為 77.66%~99.20%,敏感度為76.64%~100%,特異度為85.59%~98.50%[26] 。有學者提出了多尺度分割分類網絡,該網絡采用由粗到細的分割策略,在303例PDAC患者和136例健康對照的CT掃描中,識別腫瘤敏感度為 94.1% 的,特異度為98.5%[27] 。有研究通過篩選222例胰腺癌患者和190例胰腺正常者的CT圖像,訓練了一個卷積神經網絡模型,其二分類模型在診斷平掃圖像時,準確率達95.47%,敏感度為91.58%,特異度為98.27%,與放射科醫師的診斷準確率相當[28] 。也有研究利用319例患者的腹部增強CT圖像,經過手動篩查確保圖像質量后,訓練出一種深度學習模型應用于腫瘤診斷,表現優異,AUC達0.871,F1分數為88.5%[29] 。這些研究共同展示了人工智能在胰腺癌診斷中的潛力和價值。但上述研究均基于卷積神經網絡,并逐步由二維圖像處理向三維卷積方法演進,或嘗試將兩者融合,且訓練時均要求對每份輸入數據進行詳盡標注。與之不同的是,本研究完全基于三維卷積神經網絡構建模型,并采用了一種高效的稀疏三維標注策略,僅在動脈期進行標注,顯著減少了標注工作量。通過這一方法,本研究在腫瘤識別上取得了較好成果:敏感度為 0.852,特異度為 1.000,陽性預測值為1.000,陰性預測值為 0.698,且 F1分數達到了 0.920。與既往上述研究相比,本研究的結果不僅處于較高水平,而且充分驗證了所提模型算法框架的高效性和實用性。另外,本文還進行了一致性檢驗,Kappa系數為0.746(Plt;0.05),說明模型分類結果與金標準之間具有良好的一致性。
本研究使用Dice系數定量評估腫瘤及胰腺分割的準確性,將胰腺分割為腫瘤、體尾部和頭頸部3部分分析。剔除Dice系數lt;0.1的樣本后,胰腺腫瘤、胰腺體尾部、胰腺頭頸部的Dice系數分別0.722±0.290、0.602±0.175、0.567±0.200。Dice系數作為衡量分割準確性的重要指標,其值越高表示分割結果與真實情況越接近。所有類別的Dice系數均數gt;0.5,表明分割方法準確,尤其在復雜腫瘤結構分割上性能優越。較低Dice系數的胰腺部分可能與病變胰腺高比例相關,因其結構和形態變化增加分割難度。有研究提出了腹盆19個正常組織的自動勾畫(其中胰腺DSC=0.62)[16] ,以及有研究提出了腹部8個正常組織自動勾畫的V-Network(其中胰腺DSC=0.75)[30] ,本研究聚焦病變胰腺,驗證了本研究模型在胰腺腫瘤分割上的優越性,凸顯了算法的魯棒性和泛化能力。
本研究存在一些不足之處,可能導致偏倚:樣本量差異(正常與病變胰腺),盡管通過統計模擬驗證未發現顯著差異;樣本不平衡,早期胰腺癌病例較少;樣本量較少,可能引發過擬合或欠擬合問題,影響模型識別準確性。另外,本研究使用Labelme軟件進行標注,該軟件僅支持jpg格式,因此采用無損jpg格式數據,雖滿足本研究需求,但相比DICOM格式,jpg在醫學圖像處理中存在一定壓縮和失真,數據精確性和完整性相對較低,給本研究帶來一定的局限性。采用高精度的深度學習模型有望在一定程度上彌補這一不足。綜上,本研究通過多維度全面評估了所構建的基于改進V-Net模型,包括訓練有效性、分割結果的可視化展示,以及定性與定量的綜合分析。研究結果表明,該模型在胰腺及其腫瘤的識別與分割方面展現出優異性能,有效性和可行性得到充分驗證。這一成果為胰腺腫瘤的計算機輔助診斷開辟了新途徑,有望提升早期胰腺癌的診斷效率,推動精準醫療的進步,具有廣闊的應用前景。未來研究將從標注比例探索、算法優化、數據增強與后處理技術改進,以及擴充高質量、標準化的標注數據集等多方面努力,旨在持續提升模型性能,實現更精準、更高效的醫療影像分析,為胰腺癌等疾病的計算機輔助診斷提供更強支持。
參考文獻:
[1] National Cancer Institute. Pancreas cancer[EB/OL]. [2021-02-18]https://seer.cancer.gov/statfacts/html/pancreas.html.
[2] 孔祥毓. 胰腺癌早期篩查中的問題和進展[J]. 中華胰腺病雜志,2021, 21(1): 16-9.
[3] Cai J, Chen HD, Lu M, et al. Advances in the epidemiology ofpancreatic cancer: trends, risk factors, screening, and prognosis[J].Cancer Lett, 2021, 520: 1-11.
[4] Tempero MA, Malafa MP, Al-Hawary M, et al. Pancreaticadenocarcinoma, version 2.2021, NCCN clinical practice guidelinesin oncology[J]. J Natl Compr Canc Netw, 2021, 19(4): 439-57.
[5] 中華醫學會外科學分會胰腺外科學組. 中國胰腺癌診治指南(2021)[J]. 中國實用外科雜志, 2021, 41(7): 725-38.
[6] Holmes JH, Sacchi L, Bellazzi R, et al. Artificial intelligence inmedicine AIME 2015[J]. Artif Intell Med, 2017, 81: 1-2.
[7] Barat M, Chassagnon G, Dohan A, et al. Artificial intelligence: acritical review of current applications in pancreatic imaging[J]. JpnJ Radiol, 2021, 39(6): 514-23.
[8] 李慶勃, 蘇 丹. 基于V-Net的腹部多器官圖像分割[J]. 數字技術與應用, 2019, 37(1): 89, 91.
[9] Li FY, Li WS, Shu YC, et al. Multiscale receptive field based onresidual network for pancreas segmentation in CT images[J].Biomed Signal Process Contr, 2020, 57: 101828.
[10]Man YZ, Huang Y, Feng JY, et al. Deep Q learning driven CTpancreas segmentation with geometry-aware U-net[J]. IEEE TransMed Imaging, 2019, 38(8): 1971-80.
[11]Milletari F, Navab N, Ahmadi SA. V-net: fully convolutional neuralnetworks for volumetric medical image segmentation
[C]//2016Fourth International Conference on 3D Vision (3DV). Stanford, CA,USA. IEEE, 2016: 565-71.
[12]Kleppe A, Skrede OJ, De Raedt S, et al. Designing deep learningstudies in cancer diagnostics[J]. Nat Rev Cancer, 2021, 21(3):199-211.
[13]Peng J, Wang Y. Medical image segmentation with limitedsupervision: a review of deep network models
[J/OL]. IEEE Access,2021. doi:10.1109/ACCESS.2021.3062380.
[14]Liu R, Lehman J, Molino P, et al. An intriguing failing ofconvolutional neural networks and the CoordConv solution
[EB/OL].
[2018-12-03]. http://arxiv.org/abs/1807.03247
[15]Tarvainen A, Valpola H. Mean teachers are better role models:Weight-averaged consistency targets improve semi-supervised deeplearning results
[EB/OL].
[2018-04-16]. https://doi. org/10.48550/arXiv.1703.01780
[16]Zhou XR, Takayama R, Wang S, et al. Deep learning of the sectionalappearances of 3D CT images for anatomical structure segmentationbased on an FCN voting method[J]. Med Phys, 2017, 44(10):5221-33.
[17]McGuigan A, Kelly P, Turkington RC, et al. Pancreatic cancer: a review of clinical diagnosis, epidemiology, treatment and outcomes[J]. World J Gastroenterol, 2018, 24(43): 4846-61.
[18]Chen X, Yi B, Liu Z, et al. Global, regional and national burden ofpancreatic cancer, 1990 to 2017: Results from the Global Burden ofDisease Study 2017[J]. Pancreatology, 2020, 20(3): 462-9.
[19]陳校云, 張旭東, 舒 婷. 中國醫療人工智能發展報告(2020)
[M]. 北京: 社會科學文獻出版社, 2020.
[20]田永剛, 曹貞子, 白飛虎, 等. 人工智能在消化系腫瘤的研究進展[J]. 中華胃腸內鏡電子雜志, 2019, 6(2): 82-5.
[21]Zheng H, Chen Y, Lu J, et al. Deep pancreas segmentation withuncertain regions of shadowed sets[J]. Magn Reson Imaging, 2020,68:45-52.
[22]Fu M, Wu WM, Hong XF, et al. Hierarchical combinatorial deeplearning architecture for pancreas segmentation of medicalcomputed tomography cancer images[J]. BMC Syst Biol, 2018, 12(Suppl 4): 56.
[23]Oliveira B, Queirós S, Morais P, et al. A novel multi-atlas strategywith dense deformation field reconstruction for abdominal andthoracic multi-organ segmentation from computed tomography[J].Med Image Anal, 2018, 45: 108-20.
[24]王希恒, 薛華丹, 曲太平, 等. 基于深度學習胰腺分割算法在雙期CT上提升胰腺臨界區域分割能力分析[J]. 中華醫學雜志, 2021, 101(7): 470-5.
[25]Sheng T, Mathai TS, Shieh A, et al. Weakly-supervised detection ofbone lesions in CT[J]. Proc SPIE Int Soc Opt Eng, 2024. doi:10.1117/12.3008823.
[26]Huang BW, Huang HR, Zhang ST, et al. Artificial intelligence inpancreatic cancer[J]. Theranostics, 2022, 12(16): 6931-54.
[27]Zhu Z, Xia YD, Xie LX, et al. Multi-scale coarse-to-finesegmentation for screening pancreatic ductal adenocarcinoma
[M]//Lecture Notes in Computer Science. Cham: Springer InternationalPublishing, 2019: 3-12.
[28]Ma H, Liu Z, Zhang J, et al. Construction of a convolutional neuralnetwork classifier developed by computed tomography images forpancreatic cancer diagnosis[J]. World J Gastroenterol, 2020, 26(34): 5156-68.
[29]Si K, Xue Y, Yu X, et al. Fully end-to-end deep-learning-baseddiagnosis of pancreatic tumors[J]. Theranostics, 2021, 11(4):1982-90.
[30]Gibson E, Giganti F, Hu YP, et al. Automatic multi-organsegmentation on abdominal CT with dense V-networks[J]. IEEETrans Med Imaging, 2018, 37(8): 1822-34.(編輯:張庭玉)