999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

電子密度模體插件自動定位方法

2019-03-25 03:46:08,
中國醫學影像技術 2019年3期
關鍵詞:精確度區域

(江西理工大學信息工程學院,江西 贛州 341000)

錐形束CT(cone-beam CT, CBCT)在三維適形放射治療(three-dimensional conformal radiotherapy,3D-CRT)、強調放射治療(intensity-modulated radiotherapy, IMRT)和影像學引導放射治療(image-guided radiotherapy, IGRT)等精確放射治療技術[1]中均發揮著重要作用,已廣泛用于臨床放射治療前擺位誤差糾正。CT值的精度直接影響自適應放射治療劑量的準確性[2],故計算CBCT放射治療劑量[3]前應先校正CT值,即建立標稱CT值和衰減系數之間的轉換關系[4],標稱CT值和衰減系數均由手動選取重建后三維數據的ROI求平均值所得,而手動選取ROI增加了校正過程的復雜性。有研究[5]采用電子密度模體(electron density phantom;型號 CIRS062)校正CBCT的CT值。CIRS062內部為頭部模體,直徑180mm,厚50mm,共8種組織等效插件,插件直徑30mm、厚50mm,分別為呼氣態肺、吸氣態肺、脂肪、乳腺、水、肌肉、肝、松質骨和密質骨。

自動選取ROI的前提是分割圖像中的目標區域。傳統圖像分割方法包括基于閾值的分割、基于區域提取的分割、基于邊緣檢測的分割和結合特定理論工具的分割等。隨著技術的發展,卷積神經網絡已廣泛用于檢測、分割和物體識別等計算機視覺的各個領域,特別是深度卷積神經網絡[6](deep convolution neural network, DCNN)推動了圖像語義分割的發展[7]。語義分割是指將圖像中相同對象的像素分成同一類,并將不同對象分割出來。本研究采用CIRS062校正CBCT的CT值,以基于DCNN[8]的方法對CIRS062進行分割,先分割出呼氣態肺、吸氣態肺、松質骨和密質骨4個插件,再采用摩爾鄰域追蹤算法[9]處理分割目標的邊緣獲得精確的分割結果,最后根據幾何特征定位每個插件的位置而獲得每個插件的ROI,并與參考區域進行比較,以判斷定位區域是否在插件上。

1 設計與方法

1.1 實驗數據

1.1.1 圖像數據 采用中國科學院深圳先進技術研究院自行搭建CBCT系統(由Toshiba E7242X X線球管、Varian PaxScan 4343CB平板探測器與Indico IQ 50KW高壓發生器等設備搭建),管電流0.6 mA,重建矩陣512×512×512,不同管電壓(80、100、125 kV)條件下掃描CIRS 062,實物圖見圖1A,訓練圖像見圖1B~1D。數據樣本過少可導致網絡模型泛化能力不足,易陷入過擬合等[10]問題;而數據間的線性關系過多易造成模型在局部最優值上收斂。為增加數據樣本,從三維圖像中選擇10張中間插件(水)不同形態的切片圖像,經Average、Disk、Gaussian、Motion濾波器[11]處理獲得160張濾波圖像,故數據集是三維圖像中10張切片圖像和160張濾波圖像,隨機選取20張作測試集,剩余150張再進行數據增強處理,最終產生訓練集。

1.1.2 標簽數據 標簽勾畫工具采用ITK-SNAP軟件。ITK-SNAP可用于分割三維醫學圖像的結構,并將外部或不相關的特征保持在最低限度。標注對象為呼氣態肺、吸氣態肺、松質骨和密質骨,其他插件和圓盤均視為背景。實驗數據運行軟件采用Matlab R2018a,硬件配置采用Win 7系統,8核Intel(R)Core(TM)i7-6700 CPU@3.40 GHz的處理器,NVIDIA GeForce GTX 1080的顯示適配器。

1.2 網絡架構 DCNN架構由編碼層和其相對的解碼層及分類層組成,核心是編碼層和其相對的解碼層。網絡架構圖見圖2,不同顏色表示操作不同,相同顏色塊的個數表示操作次數相同。將大小為512×512的圖像數據和標簽數據均處理為大小256×256的圖像輸入網絡,網絡編碼層遵循典型的卷積網絡體系結構,由2個3×3卷積濾波重復應用組成,批量歸一化(batch normalized, BN)[12]后傳至非線性激活函數(rectified-linear non-linearity, ReLU)[13],再行大小為2×2步長為2的最大池化(max-pooling)[14]完成下采樣,其中池化層能記錄其在原圖中的空間位置,使在解碼層中進行上采樣操作時能將相應的值映射到對應位置。每個編碼層有相對應的解碼層,對解碼層進行大小為2×2的反卷積操作,利用編碼層記錄的空間位置填充相應位置的值進行圖像恢復。將最后1個解碼層輸出的值傳至Softmax分類器,獲得每個像素的類別完成像素級分類和語義分割,其中加入BN層可提高網絡泛化能力和模型精度、加快收斂速度及降低網絡初始化的敏感度。

1.3 摩爾鄰域追蹤算法 由于DCNN分割結果邊緣不夠精確,選用摩爾鄰域追蹤算法處理邊緣。摩爾鄰域是指像素共享頂點或邊緣8個像素的集合,即八連通區域的像素;基本思想是:當前像素P為白色,并規定為“起始”像素,一般P沿順時針方向逐像素訪問摩爾鄰域的每個像素,遇到下一個白色時同樣訪問摩爾鄰域每一個像素,直至遇到“起始”像素停止訪問;停止標準為Jacob's停止標準(Jacob's stopping criterion, Gonzalez, R. C., 2010)[11]。

圖1 CIRS 062實物圖與三維圖像切片圖 A.實物圖; B~D.第200層切片(B)、第222層切片(C)、第270層切片(D)三維圖像切片圖

1.4 數據訓練 數據訓練過程中對目標損失函數求得最小值,采用自適應矩估計(adaptive moment estimation, Adam)優化算法[15]對其進行迭代收斂。Adam是通過計算梯度的一階矩估計和二階矩估計的變化而改變學習率的方法,一階矩估計是梯度的帶權平均,計算公式為:ml=β1ml-1+(1-β1)E(θl);二階矩估計是梯度的帶權有偏方差,計算公式為:vl=β2vl-1+(1-β2)[E(θl)]2;二者初始均為0向量,但當衰減因子β1、β2接近于1時,ml與vl均傾向于0向量(接近于0向量),則對ml與vl進行偏差修正,其公式分別為:/、/,故Adam的公式為/ε)。

分割結果有多類,故采用Softmax分類器預測每個類所屬類別的概率,其公式為:

(1)

1.5 評估方法

1.5.1 戴斯相似性系數(Dice similarity coefficient, DSC) 采用DSC[17]量化分析分割結果。DSC的計算公式為:DSC(A,B)=(2|A∩B|)/(|A|+|B|),其中A代表參考分割區域,B代表結果分割區域,|A∩B|代表A和B的交集。DSC的數值范圍是[0,1],數值越高分割效果越好,0代表兩者無交集,1代表兩者完全重合。根據文獻[17]的方法,DSC>0.7表示參考分割區域和實際分割區域重復度高,分割結果好。

1.5.2 精確度、召回率和綜合評價指標(F1-measure) 計算語義分割邊緣匹配度的關鍵思想是F1-measure[18],指在給定像素容忍距離情況下預測圖像與真實圖像之間的精確度與召回率。精確度反映被分類器判定的正例中真正的正例樣本比重,計算公式為:P=TP/(TP+FP),其中TP為陽性,預測為陽性;FP為陰性,預測為陽性,P值范圍為[0,1],P值越接近于1精確度越高。召回率反映被正確判定的正例占總正例的比重,計算公式為R=TP/(TP+FN),其中FN為陽性,預測為陰性,R值范圍為[0,1],R值越接近于1召回率越高。

某些情況下精確度與召回率相互矛盾,如極端情況下預測結果只有1個且準確,則精確度為1,而召回率較低;反之,若所有結果都返回,則召回率是1,但是精確度又較低。評價時應綜合考慮精確度和召回率2種評價指標。F-measure是綜合精確度和召回率的整體領域指標,表示預測圖像與參考圖像的邊緣匹配度,計算公式為:F=(a2+1)PR/a2(P+R),當a=1時,即為F1-measure,計算公式為:F1=2PR/(P+R),當較高時,則說明分割結果較好;本研究中采用圖像對角線0.75%的值作為容忍距離。

2 結果

基于DCNN分割結果見圖3A,由于網絡中解碼層上采樣后與編碼層融合時出現誤差,分割的插件邊緣含有不屬于此插件類的信息,圖3中綠色框內放大的密質骨邊緣有其他插件類的信息;同樣,圖像中四角和中心區域均有此種情況(箭示區域)。為獲得更精確的分割結果,先將四角和中心區域的其他類設置為背景類,再采用摩爾鄰域追蹤算法處理插件邊緣,獲得結果見圖3B。與圖3A相比,圖3B中綠色框放大的密質骨邊緣消除了其他插件類的信息。圖3C為參考圖像。測試集圖像分割結果與參考圖像所求的DSC、精確度、召回率及F1-measure見表1。定位CIRS 062插件ROI的結果見圖4,紅色圈為本方法定位的區域,綠點圈為參考區域。多閾值分割結果見圖5。

表1 測試集圖像分割結果量化分析

3 討論

CIRS 062插件定位是CBCT系統中校正CT值的關鍵步驟。插件定位的準確性決定是否能合理選取插件ROI,為校正CBCT系統的CT值奠定基礎。本研究提出基于DCNN模型的定位,分割結果中,不同標注對象的DSC均>0.85,精確度均>0.81,F1-measure均>0.61,表明分割結果較好,可實現自動定位CIRS 062插件ROI,相比于人工手動選取ROI更人性化。CIRS 062插件由不同密度的物質材料組成,多閾值分割一次只能分割2個固定插件(吸氣態肺和密質骨);利用分割的2個插件,再根據幾何特征定位其他6個插件。受CBCT散射偽影[19]的影響,部分層插件吸氣態肺分割結果不完整,故無法定位。

圖2 CIRS 062插件定位的網絡架構圖

圖3 分割結果圖與參考圖像 A.DCNN分割圖,箭示分割結果中不屬于此標簽類的信息; B.本研究算法分割圖; C.參考圖像 (綠色框內為密質骨放大圖) 圖4 定位結果圖 紅色圈為本文方法定位區域,綠點圈為參考區域

圖5 閾值分割結果 A~C.分別為第200(A)、222(B)、270(C)層切片原始圖像; D~F.分別為第200(D)、222(E)、270(F)層閾值分割圖像

本研究提出一種基于深度學習的CBCT圖像分割,完成自動定位CIRS 062插件ROI。利用DCNN對圖像進行像素級分割,分割結果較好;但缺點是分割的目標邊緣不是很精確,不能一次精確定位,需要進一步研究。

猜你喜歡
精確度區域
永久基本農田集中區域“禁廢”
今日農業(2021年9期)2021-11-26 07:41:24
分割區域
研究核心素養呈現特征提高復習教學精確度
“硬核”定位系統入駐兗礦集團,精確度以厘米計算
放縮法在遞推數列中的再探究
關于四色猜想
分區域
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
區域
民生周刊(2012年10期)2012-10-14 09:06:46
易錯題突破:提高語言精確度
主站蜘蛛池模板: 欧美福利在线| 国内a级毛片| 亚洲欧美色中文字幕| 成人综合在线观看| 国产一区二区三区视频| 国产精品lululu在线观看| 亚州AV秘 一区二区三区| 波多野结衣一区二区三区四区| 国产一级片网址| 国产免费精彩视频| 午夜视频免费试看| 中文字幕亚洲第一| 制服丝袜亚洲| 在线精品亚洲一区二区古装| 精品国产成人国产在线| 日本91在线| 国产精品免费露脸视频| 亚洲AⅤ永久无码精品毛片| 中文无码日韩精品| 精品国产三级在线观看| 欧美一区二区精品久久久| 91国内在线视频| 国产又粗又猛又爽视频| 狼友视频一区二区三区| 国产综合精品日本亚洲777| 狠狠色综合网| 国产成人精品男人的天堂下载| a级毛片一区二区免费视频| 香蕉国产精品视频| 国产又粗又爽视频| 免费毛片在线| 色AV色 综合网站| 亚洲国产日韩在线成人蜜芽| 中国一级特黄大片在线观看| 99精品国产电影| 久久国产精品夜色| 亚洲精品国产精品乱码不卞| 中文字幕欧美成人免费| 99re66精品视频在线观看 | 91精品啪在线观看国产91九色| 一级毛片免费观看久| 亚洲AV无码精品无码久久蜜桃| 欧美日韩亚洲综合在线观看| 午夜激情福利视频| 欧美国产在线看| 日日碰狠狠添天天爽| 久夜色精品国产噜噜| 久久婷婷六月| 亚洲IV视频免费在线光看| 精品久久久久无码| 国产制服丝袜无码视频| 亚洲伊人天堂| 97亚洲色综久久精品| 91色综合综合热五月激情| 日韩中文无码av超清| 日韩av在线直播| 亚洲三级影院| 99精品视频在线观看免费播放| 这里只有精品国产| 亚洲成网站| 无码一区二区三区视频在线播放| 麻豆精品在线播放| 女人18毛片久久| 国产一级在线观看www色| 国产99视频免费精品是看6| 国产精品一区二区无码免费看片| 在线观看国产精品一区| 区国产精品搜索视频| 一区二区欧美日韩高清免费| 99久久国产自偷自偷免费一区| 中文字幕不卡免费高清视频| 一级全黄毛片| 国产欧美亚洲精品第3页在线| 中文字幕亚洲综久久2021| 国产区精品高清在线观看| 夜夜高潮夜夜爽国产伦精品| 免费三A级毛片视频| 69av在线| 精品人妻无码区在线视频| 91青青草视频| 久久久久国产精品熟女影院| 制服丝袜 91视频|