999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于U-net33+的宮頸癌后裝治療中靶區和危及器官位置的預測

2023-06-14 08:36:36楊日贈吳德華
分子影像學雜志 2023年3期
關鍵詞:醫院模型

李 霞,楊 磊,楊日贈,吳德華

1南方醫科大學南方醫院放療科,廣東 廣州 510515;2贛州市人民醫院(南方醫院贛州醫院)腫瘤科,江西 贛州341000

宮頸癌是全球發病率第4位的惡性腫瘤,嚴重威脅女性健康[1]。國際婦產科聯盟推薦外照射結合后裝治療作為宮頸癌的重要的治療手段[2-4]。在精準放療的大背景下,三維后裝治療計劃的應用進一步提高了宮頸癌患者的療效,而精準的靶區和危及器官的輪廓勾畫是三維后裝治療計劃的基本要求[5]。但在實際工作中,放療醫生常常使用手工勾畫的方式,費時費力,且一致性差[6]。靶區勾畫階段在醫生給患者實施施源器植入術后進行,患者需等待較長時間方可進入治療階段,并在此期間盡量保持體位不變,縮短患者的等待時間尤為迫切,進一步縮短模型訓練及預測時間十分必要。深度學習[7]作為人工智能[8]中非常重要的一種方法,廣泛應用于自動勾畫及位置預測中,并取得良好的效果。在近距離放射治療中,已有學者將深度學習應用于前列腺惡性腫瘤的相關研究[9],但在宮頸癌的研究中,大多數應用外照射治療[10],或聚焦于近距離治療的劑量學研究[11-13],同時存在病例較少和使用較舊的網絡架構等問題。將最新深度學習網絡架構應用于后裝治療中靶區和危及器官的位置預測研究未見報道。本研究擬通過構建基于最新的U-net3+架構的端到端自動分割框架,降低模型參數量,提高運行效率,縮短患者等待時間,使用雙中心數據進行模型構建和驗證,并對人工及自動勾畫結果進行對比,探討U-net3+架構自動位置預測模型在臨床中的應用價值。

1 資料與方法

1.1 一般資料

本研究回顧性收集了南方醫科大學南方醫院放療科及贛州市人民醫院(南方醫院贛州醫院)腫瘤科2017年4月~2022年8月的共213例宮頸癌患者的CT圖像,其中南方醫科大學南方醫院159例,贛州市人民醫院(南方醫院贛州醫院)54例。納入標準:均為接受后裝治療插植針植入術的宮頸癌患者。排除標準:只使用單一宮腔管或者穹窿管進行后裝治療的宮頸癌患者。213例患者的年齡為42~77歲,平均56.9歲;均經病理證實,根據國際婦產科聯盟分期原則,分別有ⅡA期30例,ⅡB期51例,ⅢB期102例,ⅣA期30例。本研究獲得了醫院醫學倫理委員會的批準,并免除患者知情同意。

1.2 施源器置入、CT圖像獲取

放療醫生根據患者初步獲取的CT圖像進行宮腔管的選取,確定適當的插植針數量,并以徒手的方式進行宮腔管置入及插植針的植入。本研究采用飛利浦Brilliance型號大孔徑16排CT模擬定位機進行圖像采集,掃描電壓為140 kV,掃描電流為250 mAs,掃描層厚及層距為3 mm,所有建模及測試的CT圖像均統一為DICOM格式,圖像分辨率為512×512。所有CT圖像均使用直方圖均衡化預處理程序將亮度分布進行一致化處理。在獲取CT圖像時,醫生會根據患者膀胱充盈情況,通過提前插好的導尿管注入50~200 mL加有造影劑的生理鹽水。為了更好地顯示膀胱輪廓,將無菌造影劑與生理鹽水以3:100的比例配比,均勻混合后通過留置尿管注入患者膀胱內。最終將獲取的CT影像傳輸至計劃系統(瑞典Oncentra)。

1.3 圖像勾畫

特征輪廓由具有5年以上宮頸癌后裝治療經驗的臨床醫生進行手動勾畫,根據歐洲放射治療與腫瘤學學會臨床指南中3D圖像引導后裝治療工作組的推薦[14]分別進行高危臨床靶區(HRCTV)和危及器官的勾畫(圖1)。本研究中包含的危及器官主要有膀胱、直腸、小腸。

圖1 后裝放射治療結構輪廓圖Fig.1 Contouring of the structures of after-loading radiation therapy

1.4 自動預測模型構建

U-net[15]廣泛應用于圖像分割、位置預測等圖像處理任務,特別是醫學圖像處理。U-net3+是U-net的最新改進框架,在多個數據集中均顯示出性能上的優勢[16]。本研究使用U-net3+深度神經網絡作為框架(圖2),通過下采樣并增加通道使數據量保持一致,最后通過反向的上采樣和縮減通道,最終輸出和輸入矩陣一致的圖像。由于U-net3+可將特征圖進行融合,增加了圖像通道,從而進一步提高了分割精度[17]。

圖2 U-net3+網絡框架Fig.2 U-net3+network framework.

1.5 模型訓練

隨機從贛州市人民醫院的54例數據中抽取21例作為最終測試集,在其余數據隨機抽取訓練集149例,驗證集43例,以實現訓練集、驗證集和測試集為7:2:1的比例。訓練的內容包括HRCTV、膀胱、直腸、小腸4個部分。實驗使用基于Python的Keras框架[18]來進行模型的構建。訓練Epoch為200,batch_size為16。使用Adam作為優化器,learning rate[19]為0.0001,使用戴斯相似系數(DSC)作為損失函數。硬件平臺采用Intel Xeon E5@3.20GHz處理器,內存為64 GB,2塊NVIDIA GeForce RTX?3080 Ti GPU。

1.6 評估方法

使用豪斯多夫距離(HD)[20]和DSC[21]來評估模型。HD的公式如下:

其中h(A,B)表示來自A集合中任意每一個點,到B集合中的最小距離的最大值。HD越小,表示位置預測模型預測效果越好。

DSC的公式如下:

其中A是醫生勾畫部分,B是模型預測部分,分子是醫生勾畫部分與模型預測部分的2倍,分母是醫生勾畫部分與模型預測部分兩者的并集。DSC越大,模型效果越好。

2 結果

2.1 訓練結果

繪制訓練過程曲線可見模型在經歷200 個批次Epoch 訓練之后,逐漸收斂并趨于穩定(圖3)。位置預測模型中驗證集損失函數[22-23]分別為:膀胱0.05、直腸0.03、小腸0.06。位置預測模型中HRCTV模型驗證集損失函數最終收斂值為0.06。

圖3 損失值隨訓練次數變化曲線Fig.3 Loss value changing with the times of training.A:Bladder;B:Rectum;C:Small intestine;D:HRCTV.

2.2 模型自動預測位置結果

在對危及器官的位置預測中,平均DSC 值為0.898,平均HD值為5.4 mm,位置預測模型對危及器官及靶區的預測結果顯示(表1),膀胱的DSC值為0.953,直腸和小腸的DSC 值分別為0.885 和0.857。在對HRCTV的訓練中,DSC值為0.869,HD值為8.1 mm。自動勾畫結果(圖4)。

表1 位置預測準確性結果Tab.1 Quantification of the accuracy of automatic segmentation

圖4 自動勾畫結果Fig.4 Automatic segmentation results.A and E,B and F,C and G,D and H indicated the bladder,rectum,small intestine and HRCTV outline results respectively,while A and E indicated the bladder outline results of case 1 and case 2 respectively,B and F indicated the rectum outline results of case 1 and case 2 respectively,C and G indicated the small intestine outline results of case 1 and case 2 respectively,D and H indicated the HRCTV outline results of case 1 and case 2 respectively.The yellow line indicated the manually outlined contour line,and the red line indicated the automatically outlined result.

3 討論

本課題基于新型的U-net3+神經網絡,構建了宮頸惡性腫瘤患者在接受后裝放射治療時HRCTV和周圍危及器官膀胱、直腸、小腸的自動位置預測模型并進行驗證。針對傳統的U-net神經網絡訓練工作量大、數據集訓練耗時較長等問題,U-net3+神經網絡對特征信息的提取更加敏感,分割更加精準,加上其先進的網絡構架,使得訓練時間進一步下降。

本研究采用了雙中心數據,使用一個中心的數據進行建模,使用另一個中心的數據進行測試。雙中心數據的使用和相應的實驗設計提高了模型的泛化能力和魯棒性[24-26]。實驗結果表明,在這個模型下,所研究的各輪廓特征信息提取結果較好,達到了預期效果,其中膀胱的位置預測準確性較高,DSC值達0.953,優于其他研究結果[10],而因患者腸道準備情況不同,加上腸道本身的蠕動,高危臨床靶區的位置和大小都有一定差別,直腸、小腸和HRCTV的結果相對較低。腸道中存在的氣體以及尿管氣囊中的氣體在CT圖像想表現為低密度區域,這都對實驗結果的準確性產生一定影響。

本研究在數據處理時,用于訓練集的輪廓信息來源于人工勾畫,雖然選擇了有經驗的臨床醫生進行勾畫,但是仍可能存在一定主觀偏差,我們將在未來的工作中繼續深入挖掘,進一步改進方法,提高算法的泛化能力、準確率和魯棒性。

綜上所述,本研究所采用的深度學習模型對特征部位的分割結果良好,位置預測準確性較高,且模型訓練耗時少,大大縮短了患者治療前的等待時間,提高患者依從性,為腫瘤患者進一步實現精準放射治療打下了堅實的理論基礎,有望應用于臨床,對臨床工作有一定的指導作用。但在實際臨床工作中,因為腸道蠕動等多種因素使得自動勾畫結果會有一定偏差,這就要求臨床醫生在使用自動勾畫初步獲得對應解剖結構輪廓以后做出評估和適當修改。

猜你喜歡
醫院模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
我不想去醫院
兒童繪本(2018年10期)2018-07-04 16:39:12
3D打印中的模型分割與打包
萌萌兔醫院
帶領縣醫院一路前行
中國衛生(2015年8期)2015-11-12 13:15:20
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
看不見的醫院
中國衛生(2014年11期)2014-11-12 13:11:28
減少對民營醫院不必要的干預
中國衛生(2014年8期)2014-11-12 13:00:54
主站蜘蛛池模板: 91视频青青草| 美女啪啪无遮挡| 国产成人a在线观看视频| 国产亚洲精品自在久久不卡| 91亚洲精选| 91色综合综合热五月激情| 欧美、日韩、国产综合一区| 欧美h在线观看| 在线视频亚洲欧美| 国产成人艳妇AA视频在线| 999国产精品| 超碰精品无码一区二区| 亚洲国产中文精品va在线播放| 天堂在线www网亚洲| 国产人成在线观看| Aⅴ无码专区在线观看| 国产内射在线观看| 国产精品制服| 91九色国产porny| 久久a级片| 国产精品无码AV中文| 免费 国产 无码久久久| 欧美激情综合| 国产18在线| 精品福利国产| 九色综合伊人久久富二代| 玩两个丰满老熟女久久网| 国产精品夜夜嗨视频免费视频| 欧洲亚洲一区| 亚洲婷婷六月| 一级毛片在线播放免费| 大乳丰满人妻中文字幕日本| 亚洲开心婷婷中文字幕| 草草影院国产第一页| 亚洲伊人天堂| 成人一区专区在线观看| 鲁鲁鲁爽爽爽在线视频观看| 久久精品66| 熟妇人妻无乱码中文字幕真矢织江| 欧美精品另类| 伊人久久婷婷| 精品福利视频导航| 日韩中文字幕亚洲无线码| 日韩国产亚洲一区二区在线观看| 亚洲 日韩 激情 无码 中出| 亚洲黄网在线| 国产精品不卡片视频免费观看| 色婷婷亚洲十月十月色天| 久久精品亚洲热综合一区二区| 永久免费av网站可以直接看的| 欧美精品在线免费| a级毛片免费网站| 性做久久久久久久免费看| 欧美激情一区二区三区成人| 久久精品人人做人人| 又爽又大又黄a级毛片在线视频| 国产经典三级在线| 全部免费特黄特色大片视频| 中国国产A一级毛片| 久久国产精品77777| 日韩少妇激情一区二区| 另类重口100页在线播放| 亚洲欧州色色免费AV| 99久久精品久久久久久婷婷| 日韩在线第三页| 国产成人精品高清在线| 国产流白浆视频| 亚洲愉拍一区二区精品| 国产精品自在在线午夜区app| 亚洲系列中文字幕一区二区| 久久免费精品琪琪| 在线观看国产精美视频| 四虎成人精品| 国产精品亚洲一区二区在线观看| 99精品国产自在现线观看| 又污又黄又无遮挡网站| 毛片卡一卡二| 欧美日本视频在线观看| 国内精品自在自线视频香蕉| 91视频区| 午夜毛片免费看| 一级在线毛片|