999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合密集連接與自適應加權損失的血管壁圖像分割

2022-01-01 00:00:00高紅霞郜偉
計算機應用研究 2022年6期

收稿日期:2021-09-28;修回日期:2021-11-07

基金項目:河南省高等學校青年骨干教師培養計劃資助項目

作者簡介:高紅霞(1978-),女,河南開封人,講師,碩士,主要研究方向為圖像處理與多媒體技術(hxgao78@126.com);郜偉(1977-),男,河南沁陽人,副教授,碩士,主要研究方向為圖像處理與多媒體技術.

摘 要:針對傳統深度神經網絡在對血管壁圖像分割中難以提取具有針對性有效特征的問題,提出一種融合密度連接與自適應加權損失的血管壁圖像分割方法。首先通過構建密集連接的分割網絡學習更多的邊界和輪廓表征以促進特征復用融合;然后設計了改進的自適應加權損失和邊界緊湊性損失約束訓練網絡,利用自適應加權損失自動調整不同區域分割產生的損失比例來引導網絡向最佳方向學習;同時引入邊界緊湊性損失約束以充分利用邊界信息,提升對血管壁圖像的分割精度;最后對包含2 544張MRI的MERGE血管壁數據集進行了驗證實驗。結果表明,提出的改進方法能夠有效提取血管壁圖像的特征信息,在管腔和外壁輪廓分割中的Dice分別達到了93.65%和95.81%,設計的消融實驗也充分證明了所提各個模塊和網絡的有效性,能夠更好地實現高精度的圖像分割。

關鍵詞:血管壁圖像分割; 深度神經網絡; 密集連接結構; 自適應加權損失; 邊界緊湊性約束

中圖分類號:TP37"" 文獻標志碼:A

文章編號:1001-3695(2022)06-053-1905-06

doi:10.19734/j.issn.1001-3695.2021.09.0440

Vessel wall image segmentation based on dense connection and adaptive weighted loss

Gao Hongxia1, Gao Wei2

(1.School of Software, Henan University of Engineering, Zhengzhou 451191, China; 2.Institute of Sciences, Information Engineering Univer-sity, Zhengzhou 450001, China)

Abstract:Aiming at the traditional deep neural network is difficult to extract effective features from vessel wall image segmentation, this paper proposed a vascular wall image segmentation method combining dense connection and adaptive weighted loss. Firstly, it constructed a densely connected segmentation network to learn more boundary and contour representations to promote feature reuse and fusion, and then designed an improved adaptive weight loss and boundary compactness loss constraint trai-ning network. It used the adaptive weighted loss to automatically adjust the loss ratio of different regions to guide the network to learn in the best direction. At the same time, it introduced the boundary compactness loss constraint to make full use of the boundary information and improve the segmentation accuracy of the blood vessel wall image. Finally, this paper performed vali-dation experiments using the MERGE blood vessel wall dataset containing 2 544 MRI. The results show that the proposed improved method can effectively extract the feature information of the vessel wall image, segmentation Dice reaches 93.65% and 95.81% in the segmentation of the lumen contour and the outer wall contour, respectively. The ablation experiment also fully proves the effectiveness of the various module, which can better achieve high-precision image segmentation.

Key words:vessel wall image segmentation; deep neural network; dense connection module; adaptive weighted loss; boun-dary compactness constraint

0 引言

動脈粥樣硬化是造成人類死亡的主要原因之一[1],主要表現為缺血性心臟病和缺血性中風[2]。由于動脈粥樣硬化碎片在血管內膜和中層的積聚,動脈壁會增厚,造成患病風險。目前,評估動脈粥樣硬化疾病的主要診斷標準是管腔狹窄的嚴重程度,而中風的風險與血管狹窄的嚴重程度密切相關[3]。

動脈粥樣硬化發生在動脈壁(血管壁)中,測量血管壁的厚度以區分正常和患病的血管是非常重要的措施,因而需要對血管壁進行準確和完整的分割。在實際臨床應用中,通常由經驗豐富的醫學專家手動勾畫頸動脈成像中的內、外壁,手動完成分割處理,逐像素的勾畫過程非常煩瑣且耗時,并且手動分割具有一定的主觀性和個體差異[4]。因此,快速、全自動的精準分割頸動脈血管壁,可以極大輔助醫生實施更為準確的診斷,然而復雜的動脈粥樣硬化病變和動脈幾何形狀的多樣性使得這一任務具有較大挑戰。

早期關于頸動脈血管壁分割的方法主要是一些基于數學模型和傳統圖像處理的方法[5, 6]。Mao等人[7]提出基于單個種子點初始化的可變形模型,結合全局幾何約束、圖像梯度和對比度特征來優化動脈血管壁分割結果。Gill等人[8]提出基于動態氣球模型的半自動方法來逼近血管壁,進一步使用基于邊緣的能量準則來細化管腔內膜,然而此方法無法實現外壁輪廓的分割。金嬌英等人[9]基于活動形狀模型(active shape model,ASM)和活動表觀模型(active appearance model,AAM)分別實現了頸動脈血管內外輪廓的分割。李國寬等人[10]提出一種基于活動輪廓模型的頸動脈超聲圖像內外膜檢測方法,利用血管圖像的灰度分布和形態信息確定分割內膜的初始輪廓,使用新的外部能量函數促使邊界點收斂到內膜邊緣,然后進一步使用各向異性擴散濾波器對外輪廓增強以及引入GVF外力場來提取外壁輪廓,取得了較好的結果。然而,由于斑塊的存在,管腔內膜的形狀是不規則的,尤其是在分叉處,這就導致上述基于幾何先驗的方法具有較差的泛化性能,而基于活動模型的方法對不同灰度特性的血管圖分割效果具有明顯差異,在實際應用中也很難輔助專業醫師進行分析診斷。

近些年,深度學習技術在醫學圖像分析領域的應用也越來越成熟,而且表現出強大的優越性[11~13]。通過深度學習技術可以自動捕獲圖像中具有代表性的高層語義特征,從而有效避免早期頸動脈血管壁分割方法中的手動設計模型和灰度敏感問題,進一步提升模型的泛化性能。因此,通過深度學習技術提取頸動脈血管成像中的特征,實現自動化分割的問題被廣泛研究。Zhou等人[14]通過提出的一種動態卷積神經網絡對滑動窗口生成的切片進行分類,對于管腔輪廓采用U-Net模型[15]來進行分割,從而實現血管壁的自動分割。劉瓊等人[16]采用基于Faster R-CNN實現血管區域的自動檢測,提出將Faster R-CNN與U-Net相結合以實現頸動脈血管的完全自動分割模型。Chen等人[17]從血管中心線中提取圖像塊并在極坐標系中轉換以進行血管壁分割,并且擯棄傳統的笛卡爾坐標系,采用極坐標信息,有效克服了輪廓不連續、血管幾何形狀復雜以及相鄰血管干擾等問題。Kong等人[18]通過使用全局金字塔模塊捕獲更廣泛的語義特征以提高模型的類間識別和類內聚合的能力,獲得較好的實驗結果。

目前基于深度神經網絡的頸動脈血管壁分割任務主要是通過一些基礎分割網絡及其變體實現,利用Dice損失、交叉熵" 損失等點對點單像素約束進行監督學習。然而,在磁共振圖像(magnetic resonance imaging,MRI)中,由于血管壁周圍對比度低,與鄰域組織缺乏明顯的邊界差異,傳統網絡的損失約束只是對單點像素計算反饋,大多忽略其不同區域點對整體的差異性作用,以及來自邊界點所包含的重要信息。

血管壁分割的關鍵點就在于精確的分割管腔輪廓和血管外壁輪廓。傳統分割網絡[15]采用U型編解碼結構,由于網絡結構單一,難以捕獲豐富的特征表示,在解碼階段也會伴隨較多的分割誤差,加之常用損失函數多為單像素約束,缺乏目標區域的結構信息。

基于此,本文提出了一種融合密度連接與自適應加權損失的血管壁圖像分割方法。通過融合密度連接以促進特征復用融合,從MRI中學習更多血管的邊界和輪廓表征;同時提出了一種新的自適應加權損失,利用距離、面積和邊界信息計算損失,并且針對目標邊緣區域分割差問題,引入包含結構先驗的邊界緊湊性損失約束,從而全面有效地提升血管壁的分割精度,實現精準完整的分割目標。

1 融合密集連接與自適應加權損失的血管壁分割模型

由于傳統深度神經網絡模型在結構設計和損失約束中的局限性,往往難以獲取血管壁圖像的特征表示和損失約束中有效的監督反饋。所以,本文提出了一種融合密度連接與自適應加權損失的分割網絡(fusion dense connection and adaptive weighted loss network,DCAW-Net)。DCAW-Net由三部分組成,包括捕獲圖像特征的編碼器,而解碼器部分則包含兩個分支,分別作用于分割血管壁掩模和重建原始圖像,其中額外的變分自動編碼器分支(variational auto encoder,VAE)被設計為向共享編碼器部分添加額外的引導和正則化。本文方法的框架如圖1所示。

1.1 密集連接網絡結構

由于網絡結構層次的不斷加深,提取的特征信息會越來越抽象,從而容易遺漏圖像的細節信息,并增加運算耗時。所以,密集連接網絡被提出以解決這一問題,通過密集連接網絡提升特征的重復利用及信息融合。U-Net是基于醫學影像分割而設計的經典編解碼網絡,在其不斷發展和改進過程中,UNet3+[19]以跨尺度的密集連接實現更大范圍內的信息融合和流通,在醫學圖像分割上產生了較強的性能。因此,本文借鑒UNet3+網絡結構,通過設計新的損失約束以及結合VAE模塊實現對血管壁的高精度分割。本文引入的密集連接網絡結構(densely connected network,DCN)主要包含以下幾個模塊:

a)全尺寸跳躍連接。經典U-Net[15]和嵌套密集連接的UNet++[20]網絡都缺乏從全尺度探索圖像所包含的信息,無法明確學習目標的位置和邊界。為了彌補這一缺陷,UNet3+采用全尺寸跳躍連接,轉換了編碼器和解碼器間的互連方式和解碼器子網間的內部連接,主要表現在每個解碼器層都結合了來自其他編碼器的不同尺度和相同尺度的所有特征圖,將所有特征圖進行有效融合后,在全尺度特征表示中捕獲圖像中具有血管壁區分度的細粒度細節和粗粒度語義。特征圖X3De的構建過程如圖2所示。

對于同尺度編碼器層的特征X3En,在解碼器階段直接融合;對于那些從較小尺度的編碼器層傳遞低級精細化信息X1En和X2En特征圖,通過應用非重疊的最大池化操作將其尺度與X3En保持一致;然而,跳躍連接階段來自更大尺度解碼器層的高級語義信息,如X4De、X5De特征圖,則使用雙線性插值方法將其尺度進行擴增。在獲得5個相同尺度的特征圖基礎上,需要進一步統一通道的數量,以便于減少冗余信息。對于每個跳躍連接支路,本文采用64個大小為3×3的濾波器進行卷積。

為了無縫融合淺層的精細信息和深層的語義信息,本文進一步從5個尺度對級聯的特征圖進行特征聚合,該機制由320(64×5)個3×3的濾波器、1個批歸一化和1個ReLU激活函數組成。將跳躍連接描述如下:i表示沿著編碼器索引下采樣層,N指編碼器的總數。由XiDe表示的特征圖可以計算如下:

XiDe=

XiEn""""""""""""""""""" i=N

HC(D(XkEn))i-1k=1,C(XiEn)

scales:1th~ith,

C(U(XkDe))Nk=i+1

scales:(i+1)th~Nth

i=1,…,N-1(1)

其中:函數C(·)表示卷積運算;H(·)表示特征聚集機制,卷積之后是批量歸一化和ReLU激活函數;D(·)和U(·)分別表示上采樣和下采樣操作;[·]表示連接。

b)類別指導模塊。在大多數醫學圖像分割中,預測階段的假陽和假陰的問題很難完全消除。這常常是因為來自背景噪聲,滯留于較淺的層中,從而出現過分割或者欠分割的情況。為了實現更精確的分割效果,在網絡中通過增加一個額外的類別指導模塊來緩解這個問題,即網絡旨在預測輸入圖像是否存在目標,以此約束模型學習更有效的特征表示。類別指導模塊的內部結構如圖3所示。

對于網絡的編解碼階段的所有特征圖,本文從編碼器最深層中抽取X5En特征,經過隨機dropout、1×1卷積、最大池化和sigmoid激活等一系列操作,獲得最終的一個二維張量,每一個維度代表有或者沒有目標的概率,即一個二分類問題。借助豐富的語義信息,分類結果能進一步指導每個分割支路的輸出。主要分為兩步:先利用argmax函數把二維張量轉換為{0,1}的單個輸出,來表征有/無目標;再將單個分類輸出與每個支路的分割輸出相乘。由于二分類任務簡單,該模塊在二值交叉熵損失函數的優化下,可以獲得準確的分類結果,對血管壁分割中存在的過、欠分割問題提供了良好的指導。

1.2 基于自適應加權損失的深監督模塊

在血管壁分割任務中,管腔和外壁輪廓的準確分割對動脈粥樣硬化的診斷至關重要。為了從全尺度聚集特征圖中學習分層表示,本文提出一種基于自適應加權損失的深監督模塊(adaptive weighted loss deep supervision,AWL)。從每個解碼器階段產生一個由分割金標準監督的支路輸出,每個解碼器的最后一層饋入一個3×3卷積層后,利用雙線性插值上采樣并進行sigmoid激活操作。為了進一步增強目標的邊界,在深監督模塊的損失函數采用本文所提出的自適應加權損失約束,提高分割結果的有效性。

目前,在分割任務中最常用的評估指標之一是Dice分數,它應用于模型輸出Ppred,以匹配真實分割掩碼Ptrue,較高的Dice分數也就意味著更好的分割性能。其損失函數可定義為

Dice score=2×∑Ptrue×Ppred∑p2true+∑P2pred(2)

Ldice=∑1-Dice score(3)

在實際應用中,眾多方法使用上式的Dice損失來優化網絡,但由于其只對單個像素計算反向傳播,忽略其不同區域點對整體的差異性作用。同時,也有研究者嘗試在Dice 損失中為每個子區域的損失系數增加權重,通過權重的設置反映不同區域對整體區域的影響系數,有效提升模型的性能。然而,這些權重的設置需要不斷的手動嘗試,也有可能陷入局部最優解的困境。所以,手動設置有效的權重是非常困難的,而且也不能適應不同的訓練數據集。基于此,本文提出了一種自適應加權損失來解決上述問題,在實際分割中包含血管的管腔輪廓(lumen contour,LC)和外壁輪廓(outer wall contour,OC)兩個分割任務。故損失函數定義為

LAW-dice=∑i1+Ldice-iLdice-sum×Ldice-i i∈{LC,OC}(4)

其中:Ldice-i對應于每個子區域的Dice損失;Ldice-sum是{LC,OC}子區域的Dice損失的總和。

1.3 融合VAE模塊的密集連接網絡

密集連接網絡模塊中所使用的跳躍連接作用是將編碼器部分得到的淺層、低級、細粒度的特征表示與解碼器部分得到的深層、語義、粗粒度的特征表示有效地融合在一起,有助于網絡在輸出端能夠恢復完整的空間分辨率,使得全卷積的方法更適用于語義分割。

自編碼器是通過編—解碼結構找到低維表示來實現數據壓縮,一個訓練好的解碼器應該能夠將特征表示重建出輸入圖像,這也就意味著那些不必要的信息或噪聲將在重建過程中被去除。因此,可以認為隱藏在解碼器中的特征與編碼器中的特征是類似的,甚至更具有魯棒性。

綜上所述,本文在提出的密集連接網絡的末尾處添加了一個VAE分支[21],如圖1所示。首先將輸入映射到一個256維的特征向量空間(前128維代表平均值,后128維代表標準差);然后,從高斯分布中采樣具有給定均值和標準差的樣本,并將其輸入到VAE分支部分,以輸出與原始圖像大小相同的重建圖像。VAE部分的結構如表1所示。

對于VAE分支,本文采用經典的LL2和KL散度監督網絡訓練,如式(5)(6)所示。LL2是VAE分支輸出Ipred上的L2損失,以匹配輸入圖像輸入Iinput; LKL是標準的VAE懲罰項,通過估計正態分布和先驗分布之間的KL散度,達到引導網絡學習的目標,其公式可表示為

LL2=‖Iinput-Ipred‖22(5)

LKL=1N∑μ2+σ2-log σ2-1(6)

其中:N是圖像體素的總數;μ和σ分別為預測分布的均值和標準差。

1.4 邊界緊湊性損失約束

血管壁分割需要識別定位動脈位置,然后通過管腔和管外壁的分割,進一步計算血管壁厚度(管腔和外壁輪廓之間的差異),完成血管壁的分割任務,如圖4所示。

從圖4可以看出,待分割的管腔和血管外壁區域都呈現出緊湊的類圓形狀,然而傳統的分割損失函數,例如 Dice 損失和交叉熵損失,通常評估像素精度,對分割形狀沒有全局約束。以這種方式訓練后,網絡模型在分布偏移下通常無法產生完整的分割結果。

基于管腔和血管外壁區域通常呈現出緊湊的外部輪廓形狀,且這種形狀先驗與觀測區域無關。對于緊湊的對象,約束邊界緊湊性有助于促進完整的形狀分割,因為不規則形狀的不完整分割通常都會反映在其較差的緊湊性約束不足方面。所以,本文在損失監督階段引入緊湊形狀約束的邊界緊湊性損失函數(boundary compactness loss function,BC),以強化網絡在感興趣區域分割中能夠良好地保持形狀的緊湊性和完整性。具體來說,本文采用周長與面積的比值來量化待分割區域的形狀緊湊性,其定義為

LBCLoss=C24πS=∑i∈Ω(pxi)2+(pyi)2+ε4π(∑i∈Ω|pi|+ε)(7)

其中:C是網絡輸出的預測概率圖;Ω是圖中所有像素的集合;pxi和pyi是每個像素i在水平和垂直方向上的概率梯度;ε是保持網絡訓練穩定的超參數,取值ε=1E-5。總體來說,周長C可以表征為所有像素i∈Ω在水平和垂直方向上的梯度之和;面積S通過計算預測概率圖p的絕對值之和獲得。即通過在等周長條件下,約束待分割區域近似于圓形,提高分割的性能指標。

前文所提出自適應加權損失LAW-dice、VAE部分的LL2和LKL損失以及約束邊界緊湊性的損失LBCLoss,共涉及四個損失函數。因為在圖像重建的起始過程中,算法模型往往會產生較大的損失值,而不希望LL2和LKL湮沒自適應加權損失LAW-dice和LBCLoss邊界緊湊性損失,所以實驗中它們的系數均為0.1,總損失函數描述為

L=LAW-dice+LBCLoss+λ1LL2+λ2LKL,λ1=λ2=0.1(8)

2 實驗與結果分析

2.1 數據集

實驗中,使用的數據集為頸動脈血管壁分割挑戰賽[22]公開數據集。數據的采集使用快速3D頸動脈黑血MRI序列(3D motion sensitized driven equilibrium prepared rapid gradient echo,MERGE),其可在冠狀位以亞毫米同性分辨率采樣,范圍大,能夠完全覆蓋頸動脈區域,同樣能夠描述動脈粥樣硬化病變的負荷、嚴重程度和管腔狹窄。

由于冠狀位掃描,每張切片的圖像質量各不相同,通常只有中間幾百個切片的圖像質量滿足血管壁分割任務的需要,其余切片均為冗余部分,醫生并未標記。整個數據集共提供25例病例數據,每個樣本中又有大量冗余切片,如果直接進行3D血管壁分割,目前數據量過少,難以得到令人滿意的效果。所以,本文將25例病例的3D切片全部拆分成2D 切片,并剔除未標記的數據,共獲得2 544張切片。

在數據集劃分階段,考慮到如果將所有數據共2 544張切片,按照8∶2的比例隨機劃分,在訓練集和測試中有可能出現同一個病例的不同切片,這樣會給分割結果帶來一定的干擾。因此,本文將拆分好后的2D切片按照病例存儲,并隨機選擇25個病例中的20個作為訓練集,5個作為測試集,進而能夠獲得不受數據劃分影響所帶來的有效結果。

2.2 評價指標及模型參數

本文評價指標采用Dice系數,它能夠將真陽性的數量歸一化到兩個分割區域的平均大小。其計算公式為

Dice=2|A1∩A2||A1|+|A2|(9)

其中:A1和A2分別為圖像中金標準的標志區域和網絡輸出的預測區域;Dice的取值在0~1,當為1時,即為完全重疊。實驗環節是在PyTorch中實現本文所提的網絡結構,并在NVIDIA RTX2080Ti 11 GB GPU上進行訓練。實驗中,模型使用Adam優化器,初始學習率0.000 1,epoch設置成300。同時,遵循學習率降低策略,當驗證錯誤率不隨學習率增加時,將學習率衰減為原來的0.1倍,以此更好地訓練網絡獲得全局最優解。

2.3 對比驗證

為了驗證所提算法的識別和分割效果,利用1.1節中數據劃分方式,將本文模型與現有的公開方法進行對比。表2展示了四種方法在官腔輪廓和外壁輪廓分割中的定量結果,圖5在四個樣本數據上形象地可視化了四種方法的對比結果,更好地凸顯了不同算法在待分割區域的優缺點。

從表2可以看出,本文算法與其他三種最新的分割方法在管腔輪廓和外壁輪廓的分割中都能取得較好的性能結果。Polar-Seg利用一些幾何形狀信息約束,Dice得分分別達到87.10%、90.28%;UNet3+由于引入密集連接和深監督模塊,性能有一定的提升;GWVSeg網絡提出一個全局金字塔模塊和構建新的損失約束,分割結果進一步提升約2%;本文算法通過特殊的模塊涉及以及損失約束,獲得了最好的結果,在管腔輪廓分割中Dice達到93.65%,外壁輪廓分割中同樣達到最高的95.81%的指標。

從圖5可視化分割結果可看出,在四個不同的樣本數據上形象展示了不同方法與ground truth之間的差異,可以看出Polar-Seg和UNet 3+方法均會出現過分割和欠分割以及預測分割區域與金標準有較大的差異;MGWSeg方法盡管過、欠分割現象不明顯,但是預測的分割邊界區域不夠平滑,然而本文算法由于自適應加權損失的深監督和VAE模塊,以及專為邊界區域分割設計的邊界緊湊性損失,不僅保證主體區域分割結果的準確性,也確保了邊界區域獲得有效的特征學習,以此獲得了較好的分割性能。

2.4 消融實驗

為了測試本文所提的自適應加權損失(AWL)、融合VAE模塊的密集連接網絡以及邊界緊湊性損失約束(BC)的有效性,本文以UNet3+作為baseline骨干網,不包含其深監督損失約束,只采用Dice損失,記為bNet。為了比較密集連接模塊對算法的影響,將bNet中密集連接塊去除,記為bNet_O。

在損失函數設計方面,為了更好地凸顯本文所提AWL損失的有效性,將UNet3+固定的深監督模塊記為bNet_DS,與之對應,將本文所提AWL損失,記為bNet_AWL。在bNet_AWL基礎上,本文進一步加入VAE分支,記為bNet_AWL_VAE,能夠挖掘編解碼階段的豐富特征表示。最后,為了提高網絡在邊界區域的分割性能,引入邊界緊湊性損失約束,記為bNet_AWL_VAE_BC。實驗數據的劃分和設置與2.3節方式完全一致,實驗結果如表3所示。

從表3可以看出,在MERGE公開數據集中,通過在baseline網絡基礎上增加各個網絡模塊約束,本文提出的方法對分割指標均能起到一定的提升作用。通過bNet_O與bNet對比可以看出,密集連接模塊對分割結果至少提升了1.15%;在bNet_DS、bNet_AWL與bNet對比中,可以明顯看出添加深監督損失能夠有效提升分割,并且文章所提自適應加權損失(AWL)針對目標問題所設計,因而取得了更優的性能,平均分割Dice系數分別達到90.08%和91.78%。

在上述基礎上,通過在網絡中引入VAE分支,通過多任務策略,旨在促使網絡學習更豐富的特征表示,進一步提升分割性能;最后,針對神經網絡在邊界區域的誤差分割,根據其結構先驗,提出邊界緊湊性損失約束(BC)去優化邊界區域,使其滿足文中設計的結構約束,平均Dice分別達到最高的93.65%和95.81%。通過對比不同參數變化,消融實驗部分充分證明本文所提各個模塊的有效性,網絡能夠更好地實現分割任務。

3 結束語

針對傳統方法在血管壁圖像分割任務中難以獲得令人滿意結果的問題,提出一種基于融合密度連接與自適應加權損失的分割算法。通過融合密度連接的分割網絡模塊促進特征復用融合,從MRI中學習更多血管的邊界和輪廓表征。不同于現有的分割方法的監督模式,本文采用改進的自適應加權損失和邊界緊湊性損失約束進行網絡監督,充分利用邊界點的不同權重信息以及結構性先驗約束,實現了有效的邊界精準分割。最后通過實驗驗證表明:所提出的方法在管腔輪廓分割中Dice達到93.65%,外壁輪廓分割中達到95.81%,充分展現了本文算法的性能。盡管本文取得了目前的最好性能,但文中BC損失根據結構先驗所設計,僅適應于類圓形目標區域的分割,難以推廣到其他不同的應用中,因此在接下來的工作中,探索更具通用性的結構損失約束損失具有重要的研究意義。

參考文獻:

[1]倪金金,唐曉笛,樊瑛.動脈粥樣硬化性心血管疾病殘余炎癥風險研究新進展[J].心肺血管病雜志,2021,40(7):758-760,764.(Ni Jinjin, Tang Xiaodi, Fan Ying. New progress in the risk of resi-dual inflammation in atherosclerotic cardiovascular disease[J].Journal of Cardiovascular and Pulmonary Diseases,2021,40(7):758-760,764.)

[2]Wang Wenzhi, Jiang Bin, Sun Haixin, et al. Prevalence, incidence, and mortality of stroke in China clinical perspective: results from a nationwide population-based survey of 480687 adults[J].Circulation,2017,135(8):article No.759.

[3]Baligh E, Abdallah F, Shamloul R M, et al. The impact of vascular risk factors multiplicity on severity of carotid atherosclerosis—a retrospective analysis of 1969 Egyptian subjects[J].World Journal of Cardiovascular Diseases,2013,3(6):414-418.

[4]崔浩龍.基于深度學習的椎管分割、重建與疾病診斷[D].吉林:吉林大學,2018.(Cui Haolong. Spinal canal segmentation, reconstruction and disease diagnosis based on deep learning[D].Jilin:Jilin University,2018.)

[5]曾雅潔,楊鑫,徐紅衛,等.基于局部Chan-Vese模型的超聲頸動脈圖像水平集分割方法研究[J].計算機科學,2013,40(z2):304-308.(Zeng Yajie, Yang Xin, Xu Hongwei, et al. Research on ultrasound carotid image segmentation methods based on local Chan-Vese model using level set method[J].Computer Science,2013,40(z2):304-308.)

[6]施昭,張龍江.人工智能在腦血管病影像學中的應用[J].中華放射學雜志,2021,55(8):793-798.(Shi Zhao, Zhang Longjiang. Artificial intelligence in cerebrovascular disease imaging[J].Chinese Journal of Radiology,2021,55(8):793-798.)

[7]Mao Fei, Gill J, Downey D, et al. Segmentation of carotid artery in ultrasound images[C]//Proc of International Conference of IEEE Engineering in Medicine amp; Biology Society.2000:1734-1737.

[8]Gill J D, Ladak H, Steinman D A, et al. Accuracy of a semi-automatic technique for segmentation of the carotid arteries from 3D ultrasound images[C]//Proc of the 1st Joint BMES/EMBS Conference.Piscataway,NJ:IEEE Press,1999:1146.

[9]金嬌英,王龍會,丁明躍.兩種超聲頸動脈血管斑塊圖像分割方法比較與改進[J].計算機科學,2012,39(S1):485-488.(Jin Jiao-ying, Wang Longhui, Ding Mingyue. Comparing and improvement of two carotid ultrasound image vascular plaque segmentation methods[J].Computer Science,2012,39(S1):485-488.)

[10]李國寬,程新耀,周淵,等.超聲圖像中頸動脈血管內外膜分割[J].華中科技大學學報:自然科學版,2010,38(6):75-79.(Li Guokuan, Cheng Xinyao, Zhou Yuan, et al. Intima and adventitia segmentation of the common carotid artery in ultrasound images based on active contour model[J].Journal of Huazhong University of Science and Technology:Natural Science Edition,2010,38(6):75-79.)

[11]楊培偉,周余紅,邢崗,等.卷積神經網絡在生物醫學圖像上的應用進展[J].計算機工程與應用,2021,57(7):44-58.(Yang Peiwei, Zhou Yuhong, Xing Gang, et al. Applications of convolutional neural network in biomedical image[J].Computer Engineering and Applications,2021,57(7):44-58.)

[12]楊兵,劉曉芳,張糾.基于深度特征聚合網絡的醫學圖像分割[J].計算機工程,2021,47(4):187-196.(Yang Bing, Liu Xiaofang, Zhang Jiu. Medical image segmentation based on deep feature aggregation network[J].Computer Engineering,2021,47(4):187-196.)

[13]王卓英,童基均,蔣路茸,等.基于U-Dense-net網絡的DSA圖像冠狀動脈血管分割[J].浙江理工大學學報:自然科學版,2021,45(3):390-399.(Wang Zhuoying, Tong Jijun, Jiang Lurong, et al. Coronary artery segmentation of DSA images based on U-Dense-net network[J].Journal of Zhejiang University of Technology:Natural Science Edition,2021,45(3):390-399.)

[14]Zhou Ran, Fenster A, Xia Yujiao, et al. Deep learning based carotid media-adventitia and lumen-intima boundary segmentation from three-dimensional ultrasound images[J].Medical Physics,2019,46(7):3180-3193.

[15]Ronneberger O, Fischer P, Brox T. U-Net:convolutional networks for biomedical image segmentation[C]//Proc of International Conference on Medical Image Computing and Computer-Assisted Intervention.Berlin:Springer,2015:234-241.

[16]劉瓊,戴柯,周然,等.超聲圖像中頸動脈血管自動識別算法研究[J].生命科學儀器,2019,17(6):109-112,108.(Liu Qiong, Dai Ke, Zhou Ran, et al. Object detection of the carotid artery in the ultrasound image[J].Life Science Instruments,2019,17(6):109-112,108.)

[17]Chen Li, Sun Jie, Canton G, et al. Automated artery localization and vessel wall segmentation using tracklet refinement and polar conversion[J].IEEE Access,2020,8:217603-217614.

[18]Kong Xieting, Cheng Lu, Si Peng, et al. GWVSeg-Net: an efficient method for gastrointestinal wall vascular segmentation[C]//Proc of the 10th IEEE Data Driven Control and Learning Systems Conference.Piscataway,NJ:IEEE Press,2021:72-76.

[19]Huang Huimin, Lin Lanfen, Tong Ruofeng, et al. UNet 3+: a full-scale connected UNet for medical image segmentation[C]//Proc of ICASSP-IEEE International Conference on Acoustics,Speech and Signal Processing.Piscataway,NJ:IEEE Press,2020:1055-1059.

[20]Zhou Zongwei, Siddiquee M, Tajbakhsh N, et al. UNet++: a nested U-Net architecture for medical image segmentation[C]//Proc of the 4th Deep Learning in Medical Image Analysis Workshop.Cham:Springer,2018:3-11.

[21]Cao Feidao, Zhao Huaici.Automatic lung segmentation algorithm on chest X-ray images based on fusion variational auto-encoder and three-terminal attention mechanism[J].Symmetry,2021,13(5):article No.814.

[22]Carotid artery vessel wall segmentation challenge[EB/OL]. https://vessel-wall-segmentation. grand-challenge.org/Data.

主站蜘蛛池模板: 国产黑丝一区| 中文字幕在线一区二区在线| 最新亚洲人成网站在线观看| 国产高清又黄又嫩的免费视频网站| 亚洲人免费视频| 亚洲天堂日本| 国产成人亚洲综合A∨在线播放| 久久狠狠色噜噜狠狠狠狠97视色 | 99精品伊人久久久大香线蕉| 欧美视频在线不卡| 日韩精品少妇无码受不了| 手机看片1024久久精品你懂的| 麻豆国产在线不卡一区二区| 免费看美女自慰的网站| 精品欧美视频| 二级特黄绝大片免费视频大片| 精品欧美视频| 欧美日韩在线观看一区二区三区| 国产精品第一区在线观看| 日日拍夜夜操| 免费xxxxx在线观看网站| 亚洲国产清纯| 女高中生自慰污污网站| 四虎永久免费网站| 在线免费无码视频| 国产人成在线观看| 婷婷午夜影院| 欧美专区日韩专区| 91成人精品视频| 色噜噜狠狠色综合网图区| 国产理论最新国产精品视频| 亚洲久悠悠色悠在线播放| 天堂中文在线资源| 一本大道无码高清| 亚洲一区二区日韩欧美gif| 国产尤物在线播放| 国产成人精品免费av| 欧美成人午夜视频免看| 国产福利大秀91| 91丝袜乱伦| 日韩色图区| 国产h视频免费观看| 久久这里只有精品66| 黄片一区二区三区| 中文字幕在线永久在线视频2020| 女人18一级毛片免费观看| 天堂成人av| 激情综合婷婷丁香五月尤物| 欧美日韩v| 专干老肥熟女视频网站| 日本欧美午夜| 9966国产精品视频| 亚洲乱强伦| 超清无码熟妇人妻AV在线绿巨人| 国产理论精品| 在线无码私拍| 欧美性猛交一区二区三区| 久久77777| 99er这里只有精品| 午夜视频免费试看| 亚洲视频在线青青| 国产人人射| 国产欧美日韩综合一区在线播放| 亚洲码一区二区三区| 伊人久久综在合线亚洲2019| 久久国产精品国产自线拍| 人人看人人鲁狠狠高清| 国产裸舞福利在线视频合集| 狠狠色噜噜狠狠狠狠奇米777 | P尤物久久99国产综合精品| 亚洲一区二区约美女探花| 国产福利微拍精品一区二区| 色国产视频| 香蕉综合在线视频91| 无码高潮喷水在线观看| 欧美成人亚洲综合精品欧美激情| 亚洲日韩每日更新| 久久性妇女精品免费| 高h视频在线| 久久国产精品嫖妓| 99热国产这里只有精品无卡顿"| 午夜不卡福利|