







摘" 要:超聲圖像作為目前常用的醫(yī)療診斷手段之一,人工判讀超聲圖像很大程度上依賴于醫(yī)生主觀經(jīng)驗知識,耗時耗力,難以滿足快速、批量的臨床診斷需求,因此提出了一種基于深度學習和可變形卷積U-Net的圖像分割模型SED-UNet。用可變形卷積結(jié)合BN和Dropout層對原網(wǎng)絡(luò)的卷積運算進行優(yōu)化改進,提升網(wǎng)絡(luò)收斂性、增加網(wǎng)絡(luò)模型的魯棒性、提升模型的訓練效率, 用SENet模塊在解碼階段的跳躍連接處進行優(yōu)化改進,提升分割準確率,進而構(gòu)建適用于頸部超聲圖像分割的卷積神經(jīng)網(wǎng)絡(luò)模型。測試結(jié)果表明,提出的 SED-UNet 模型在頸部超聲圖像的自動分割方面性能良好,F(xiàn)1系數(shù)、精確率、MIoU參數(shù)相比傳統(tǒng)U-Net結(jié)構(gòu)分別提升了3.94%、7.61%、7.15%,從客觀評價指標上達到了較好的分割效果。
關(guān)鍵詞:SENet模塊;U-Net;可變形卷積;圖像分割
DOI:10.15938/j.jhust.2024.02.002
中圖分類號: TP391.4
文獻標志碼: A
文章編號: 1007-2683(2024)02-0007-09
Research on SED-UNet Segmentation Method for Neck Ultrasound Image
LIU Mingzhu," FU Cong," SONG Shijie," ZHAO Shoubo
(Heilongjiang Provincial University Key Laboratory of Measurement and Control Technology
and Instruments, Harbin University of Science and Technology, Harbin 150080, China)
Abstract:Ultrasound image is one of the commonly used medical diagnosis methods. Manual interpretation of ultrasound image largely depends on doctors′ subjective experience and knowledge, which is time-consuming and labor-consuming, and is difficult to meet the needs of rapid and batch clinical diagnosis. Therefore, this paper proposes an image segmentation model SED-UNet based on deep learning and deformable convolution U-Net. The deformable convolution combined with BN and Dropout layer is used to optimize and improve the convolution operation of the original network, improve the network convergence, increase the robustness of the network model and improve the training efficiency of the model. The senet module is used to optimize and improve the jump connection in the decoding stage, improve the segmentation accuracy, and then construct a convolution neural network model suitable for neck ultrasound image segmentation. The test results show that the SED-UNet model proposed in this paper has good performance in the automatic segmentation of neck ultrasound images. The F1 coefficient, accuracy and MIoU parameters are improved by 3.94%, 7.61% and 7.15% respectively compared with the traditional U-Net, and achieve a better segmentation effect from the objective evaluation index.
Keywords:SENet module; U-Net; deformable convolution; image segmentation
收稿日期: 2022-06-09
基金項目: 國家自然科學基金青年基金(61801148).
作者簡介:
付" 聰(1998—),男,碩士研究生;
宋詩杰(1997—),男,碩士研究生.
通信作者:
劉明珠(1973—),女,博士,副教授,E-mail:lmz@hrbust.edu.cn.
0" 引" 言
隨著人工智能在圖像處理領(lǐng)域的廣泛應(yīng)用和不斷發(fā)展,醫(yī)學圖像處理領(lǐng)域中的圖像分割技術(shù)研究也成為有效提取醫(yī)學圖像特征的重要環(huán)節(jié)之一,頸部超聲圖像分割目前在醫(yī)學上也被廣泛應(yīng)用。頸部超聲圖像會存在旁瓣偽像、聲影、折射聲影、鏡面?zhèn)蜗竦龋@會對頸部超聲圖像神經(jīng)和血管信息的提取和后續(xù)的分割帶來極大的干擾,目前常用的分割網(wǎng)絡(luò)如U-Net、FCN、PSP-Net、SegNet和DeeplabV2、R2-UNet等[1],都無法對回波偽影、旁瓣偽像、折射聲影、鏡面?zhèn)蜗窈吐曈拜^強的超聲圖像達到精確的分割,無法將圖像信息進行最大化處理,從而造成分割的局限性和不準確性,如出現(xiàn)灰度不均勻、個體差異大、偽影加重和噪聲大等情況,為此有必要提出一種新的網(wǎng)絡(luò)來提高頸部超聲圖像的分割準確性。
U-Net網(wǎng)絡(luò)自提出以來,由于其分割小目標效果好、結(jié)構(gòu)具有可擴展性,從而在醫(yī)學圖像分割領(lǐng)域得到廣泛應(yīng)用[2-5]。為此,本文在傳統(tǒng)U-Net網(wǎng)絡(luò)模型的基礎(chǔ)上結(jié)合SE模塊和可變形卷積運算改善其網(wǎng)絡(luò)結(jié)構(gòu),以此來提高頸部超聲圖像分割的準確性。本文針對頸部超聲圖像進行分割方法研究。
1" U-Net網(wǎng)絡(luò)模型及數(shù)據(jù)預(yù)處理
目前,用于醫(yī)學圖像分割的經(jīng)典模型有FCN、PSP-Net、SegNet和DeeplabV2、R2-UNet等,但是對于一些圖像質(zhì)量不佳、偽影嚴重的頸部超聲圖像來說,這些網(wǎng)絡(luò)模型分割方法無法較好地獲得圖像的全局信息,從而造成分割的局限性和不準確性。由于以上問題的出現(xiàn),U-Net網(wǎng)絡(luò)結(jié)構(gòu)應(yīng)運而生。許多文獻表明,U-Net網(wǎng)絡(luò)模型因其在圖像分割方面優(yōu)勢明顯、結(jié)構(gòu)具有可擴展性,在醫(yī)學圖像分割領(lǐng)域被廣泛應(yīng)用[6]。
U-Net 的網(wǎng)絡(luò)結(jié)構(gòu)采用了多層左右布局結(jié)構(gòu),包含用于從圖像中提取特征的編碼器(對應(yīng)U-Net的U形結(jié)構(gòu)的左側(cè)部分),以及從特征圖中提取信息的解碼器(對應(yīng)U-Net的U形結(jié)構(gòu)的右側(cè))[7]。由于U-Net網(wǎng)絡(luò)這種獨特的多層左右布局的編解碼器結(jié)構(gòu),使得U-Net網(wǎng)絡(luò)在處理頸部超聲圖像分割應(yīng)用中,相對于FCN和R2-UNet網(wǎng)絡(luò)結(jié)構(gòu)具有更為有效的分割效果。但是,由于頸部超聲圖像信息較為復(fù)雜,如神經(jīng)、血管的圖像模糊、有偽影,以及其他周邊神經(jīng)和血管的干擾等,使得采用基本U-Net網(wǎng)絡(luò)結(jié)構(gòu)對分割特征目標的分割精確度和準確率都僅在85%左右[8],對頸部特定目標的分割處理能力仍然較低,因此本文在傳統(tǒng)U-Net網(wǎng)絡(luò)模型的基礎(chǔ)上,引入注意力機制(AM, attention mechanism),以達到對頸部超聲圖像全局和局部目標信息提取與有效分割。
本文的頸部結(jié)節(jié)超聲圖像數(shù)據(jù)集在訓練前先進行去噪。常用去噪方法有均值濾波去噪、高斯濾波去噪、小波閾值去噪等。本文通過實驗測試得出小波閾值方法去噪效果較好,適宜于頸部超聲圖像,如圖1所示。
2" 融合注意力機制與可變形卷積的U-Net結(jié)構(gòu)構(gòu)建與性能分析
2.1" SED-UNet網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)建
本文提出了一種結(jié)合注意力機制、可形變卷積和U-Net架構(gòu)的SED-UNet模型, SE為SENet模塊,D為可變形卷積。SED-UNet主要結(jié)構(gòu)也由編碼階段和解碼階段構(gòu)成。
本文提出的SED-UNet結(jié)構(gòu)主要從兩方面對原U-Net結(jié)構(gòu)[10]進行改進,如圖2所示。一是在編碼方面用可變形卷積替換原U-Net的3×3卷積[11],并且將原有的每次降采樣[12]之后的兩次3×3卷積變?yōu)橐淮慰勺冃尉矸e運算,
提升訓練效率。二是對原U-Net中的解碼部分[13-15]引入注意力機制模塊,以達到提升分割精度的目標。本文將上采樣之后的特征圖與編碼部分相對應(yīng)的具有相同分辨率的有效特征層進行跳層拼接,并且在上采樣和跳層連接之中加入SE模塊。SE模塊能獲得每個特征通道的重要程度,賦予特征圖的各通道不同的權(quán)值,這樣可以最大程度地提取頸部超聲圖像標注區(qū)域內(nèi)的神經(jīng)血管等有效特征,抑制模糊不清、陰影等無關(guān)特征,從而提升分割精度。
最后通過 1×1 的全連接層[16]以及Softmax激活函數(shù)對頸部超聲圖像進行分類,獲得分割結(jié)果。
2.2" 雙線性插值可變形卷積
本文引入雙線性插值可變形卷積[17]來替換傳統(tǒng)卷積運算以進一步優(yōu)化網(wǎng)絡(luò)。傳統(tǒng)卷積操作運算都是2維且在同一通道上進行的[18],對于在輸出的特征圖上的每個位置p0其特征值y(p0),通過式(1)進行計算,即:
y(p0)=∑pn∈Rw(pn)x(p0+pn)(1)
可變形卷積操作[19-20]對卷積采樣點增加一個偏移量{Δpn|n=1,2,…,N},其中N=|R|。R定義了感受野的大小,代表步長為1的3×3卷積的采樣網(wǎng)絡(luò),如式(2)所示。經(jīng)偏移后的采樣點特征值y(p′0)如式(3)所示:
R={(-1,-1),(-1,0),…,(0,1),(1,1)}(2)
y(p′0)=∑pn∈Rw(pn)x(p0+pn+Δpn)(3)
其中:x(p0+pn+Δpn)為采樣偏移位置的輸入特征值;Δpn為相對采樣點位置的偏移量。
x(p0+pn+Δpn)的計算采用雙線性插值法,求得偏移之后采樣點的輸入特征值如式(4)所示[21]:
x(p)=∑q∈RG(q,p)x(q)(4)
式中:p=p0+pn+Δpn,表示位置偏移后的新位置;q為特征圖中的感受野區(qū)域R的整數(shù)點采樣位置;x(q)為該位置對應(yīng)的特征值;G(·,·)為雙線性插值核[22]。二維卷積可分解為2個一維卷積內(nèi)核,如式(5)所示:
G(q,p)=g(qx,px)g(qy,py)(5)
其中g(shù)(a,b)=max(0,1-|a-b|);qx、qy為采樣點整數(shù)位置的橫縱坐標,px、py為偏移之后采樣點位置的橫縱坐標。
如上所述,結(jié)合了卷積、池化、上采樣和雙線性插值可變形卷積的U-Net網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。
2.3" SED-Unet結(jié)構(gòu)中的注意力機制
為了關(guān)注通道與通道間的信息,在U-Net網(wǎng)絡(luò)中加入通道注意力機制SENet模塊,SENet組成單元如圖4所示[23-24]。
本文的注意力機制采用通道SENet模塊,它包含3個單元結(jié)構(gòu)[25],分別為:壓縮(Squeeze)、激勵(Excitation)和加權(quán)(Scale)。首先將輸入神經(jīng)網(wǎng)絡(luò)的頸部超聲圖像的尺寸從H′×W′×C1變?yōu)镠×W×C2,如式(6)所示:
Uk=vk*x=∑C1i=1vik*xi,1≤k≤C2,k∈Z(6)
式中:*表示卷積運算。
壓縮(Squeeze)操作主要采用全局平均池化將特征圖沿著空間維度進行特征壓縮,將每一個二維特征變成一個包含全局感受野信息的實數(shù)[26]。壓縮過程可用(7)表示:
ZC2=Fsq(UC2)=1H×W∑Hm=1∑Wn=1UC2(m,n)(7)
激勵(Excitation)操作由兩個FC全連接層和兩個激活函數(shù)(Relu和Sigmoid)組成[27]。通過激勵操作可學習各個通道間的關(guān)系,同時得到不同通道間的權(quán)重,計算過程由式(8)表示為
SC2=Fex(ZC2,W)=σ(W2δ(W1ZC2))(8)
加權(quán)(Scale)操作是將激勵操作之后的輸出逐通道加權(quán)到之前每一層的特征上,以此來完成在特征通道上對原始特征的重標定[28]。將特征權(quán)重值SC2加權(quán)給UC2,F(xiàn)scale代表加權(quán)運算,如式(9)所示:
X=Fscale(UC2,SC2)=UC2SC2(9)
以上壓縮、激勵和加權(quán)3個過程就是SENet模塊的結(jié)構(gòu)原理。
4" 頸部超聲圖像分割中的收斂及優(yōu)化方法
本文在每個卷積塊和反卷積塊后添加Dropout層,以增強網(wǎng)絡(luò)模型泛化力[29]。Dropout層是在每一個batch的訓練當中隨機減掉一些神經(jīng)元,然后在訓練時更新未被刪的神經(jīng)元及其權(quán)重參數(shù),達到了提高收斂速度,防止過擬合的目的。
BN層本質(zhì)上是對輸入的圖像中每個小批量(mini-batch) 數(shù)據(jù)進行標準化處理,然后通過其均值和方差對卷積后的結(jié)果進行重構(gòu)[30-31]。
分別用xin和xout來表示BN層的n維輸入輸出特征圖,BN層標準化和重構(gòu)處理過程步驟主要包括如下兩部分:
1)對同一批次的不同特征圖的同一通道n維輸入數(shù)據(jù)xin={x1,x1,…,xn}進行標準化,即在通道維度上計算每個輸入數(shù)據(jù)的均值和方差:
Ex=1n∑ni=1xi
D2x=1n∑ni=1(xi-Ex)2(10)
其中:Ex和D2x為標準化得到的期望和方差再將之歸一化,得到均值為 0、方差為 1 的標準正態(tài)分布,其輸出xBN為
xBN=xin-ExD2x+ε(11)
2)對xBN進行重構(gòu)處理,本文引入尺度參數(shù)γ和偏移參數(shù)β來恢復(fù)網(wǎng)絡(luò)的學習能力,獲得BN層輸出xout,如式(12)所示:
xout=γxBN+β(12)
其中:尺度參數(shù)γ=Var[xi]為輸入xin中第i個數(shù)據(jù)的二階矩方差;偏移參數(shù)β=E[xi]為輸入xin中第i個數(shù)據(jù)xi的均值。
4" 實驗結(jié)果測試
4.1" 測試條件及評價指標
本文測試環(huán)境是基于深度學習框架Keras2.0和tensorflow1.14結(jié)合Python編程語言進行搭建。初始學習率設(shè)為0.004,批量訓練樣本數(shù)為400,訓練迭代次數(shù)epoch為50。試驗的數(shù)據(jù)集為kaggle競賽提供的已做標記的頸部結(jié)節(jié)超聲圖像數(shù)據(jù)集,數(shù)據(jù)集包括5000張訓練圖像和5000張測試圖像。本文采用Cosine Loss損失函數(shù)訓練SED-UNet網(wǎng)絡(luò),損失函數(shù)如式(13)所示:
Llmc=-1N∑iloges(cos(θyi,i)-m)es(cos(θyi,i)-m)+∑j≠yiecos(θyi,i) (13)
本文從主觀和客觀兩個角度來評估分割結(jié)果。主觀評價主要從視覺效果上將分割結(jié)果與原測試集圖像進行對比??陀^評價方式分別采用損失函數(shù)、平均交并比(MIoU)、F1 分數(shù)(F1-score)和精確率(Precision)等作為評價指標。
4.2" 頸部超聲圖像分割結(jié)果
圖5中選用了kaggle數(shù)據(jù)集中某頸部甲狀腺結(jié)節(jié)超聲圖像作為示例,采用本文提出的SED-UNet網(wǎng)絡(luò)模型進行訓練,并與DeeplabV2、PSP-Net、SegNet、R2-UNet、U-Net和FCN進行分割結(jié)果對比。通過主觀對比方式,從圖5(c)~(i)所示分割結(jié)果可見,本文提出的SED-UNet模型能夠充分地利用超聲圖像中的全局信息,對圖像邊緣分割更加精細化,分割效果的整體視覺效果明顯優(yōu)于其他網(wǎng)絡(luò)結(jié)構(gòu)分割結(jié)果。
4.3" 損失函數(shù)的對比及分析
本文分析了損失函數(shù)對頸部超聲圖像分割網(wǎng)絡(luò)性能的影響,選取Dice系數(shù)作為損失函數(shù)評價指標對R2-UNet、U-Net和本文提出的SED-UNet 3種網(wǎng)絡(luò)的損失函數(shù)。
Dice系數(shù)是集合相似度度量函數(shù),如式(14)所示:
Dice=2|X∩Y||X|+|Y|(14)
式中:X為分割結(jié)果圖像;Y為測試集中的預(yù)測圖像,通過計算兩集合的相似度得到Dice系數(shù),Dice系數(shù)在0到1之間,越接近1代表分割圖像越接近預(yù)測圖像,即分割效果越好。
通過實驗測試,得3種網(wǎng)絡(luò)下的Dice客觀指標如表1所示??梢钥吹奖疚奶岢龅腟ED-UNet網(wǎng)絡(luò)Dice系數(shù)達到0.9638。較FCN、U-Net、R2-UNet、SegNet、PSP-Net、DeeplabV2分別提升了6.66%、4.73%、3.75%、2.74%、1.96%、1.6%。
4.4" 不同網(wǎng)絡(luò)下分割性能對比
本文還對FCN、U-Net、R2-UNet、SegNet、PSP-Net、DeeplabV2和本文提出的SED-UNet結(jié)構(gòu)的MIoU、F1和Precision 3種評價指標進行了測試和分析,如表2所示。
通過表2所示測試結(jié)果,可以發(fā)現(xiàn)SED-UNet網(wǎng)絡(luò)在kaggle測試集的MIoU、F1、Precision分別達到了94.48%、92.84%和92.78%。
MIoU指標相比FCN、U-Net、R2-UNet、SegNet、PSP-Net、DeeplabV2分別提高了5.03%、3.94%、3.22%、2.54%、2.19%、1.12%。
F1指標相比FCN、U-Net、R2-UNet、SegNet、PSP-Net、DeeplabV2分別提升了24.07% 7.61%、6.1%、4.19%、2.28%、1.36%;
Precision指標相比FCN、U-Net、R2-UNet、SegNet、PSP-Net、DeeplabV2分別提升了25.52%、7.15%、5.25%、4.36%、2.1%、1.43%。
由此,可以得出本文提出的SED-UNet網(wǎng)絡(luò)在MIoU、F1和Precision 3個主要評價分割效果的性能指標方面均優(yōu)于其他幾種網(wǎng)絡(luò)。
4.5" 消融實驗分析
為了驗證各個模塊對整體模型的影響,對各個模塊進行消融實驗,對缺少SE模塊的SED-UNet網(wǎng)絡(luò)、缺少可變形卷積的SED-UNet網(wǎng)絡(luò)和缺少BN層+Dropout層的SED-UNet網(wǎng)絡(luò)進行對比實驗分析,實驗結(jié)果如表3所示。由表3可見,SE模塊、可變形卷積、BN層+Dropout層的缺失使得整個SED-UNet的MIoU、F1、Pricision都有所下降,其中:
1)缺少SE模塊的SED-UNet的MIoU、F1系數(shù)、Pricision分別為92.36%、90.89%、90.63%,相比于完整的SED-UNet分別降低了2.12%、1.95%、2.15%,SE模塊的缺少使得3個指標平均下降2.07%。
2)缺少可變形卷積的SED-UNet的MIoU、F1系數(shù)、Pricision分別為92.95%、91.64%、91.18%,相比于完整的SED-UNet分別降低了1.53%、1.2%、1.6%,可變形卷積的缺少使得3個指標平均下降了1.44%。
3)缺少BN層+Dropout層的SED-UNet的MIoU、F1系數(shù)、Pricision分別為93.59%、92.04%、91.93%,相比于完整的SED-UNet分別降低了0.89%、0.8%、0.85%,BN層+Dropout層的缺少使得3個指標平均下降了0.85%。
綜上可見,SE模塊對SED-UNet網(wǎng)絡(luò)模型的影響最大,可變形卷積網(wǎng)絡(luò)模型次之,BN層+Dropout層的網(wǎng)絡(luò)結(jié)構(gòu)影響最小。
4.6" 收斂性測試
將SED-UNet網(wǎng)絡(luò)下Dropout層和BN層的有無進行了對比,通過對比SED-UNet的MIoU、F1、Precision來測試Dropout層和BN層對網(wǎng)絡(luò)性能的提升情況,通過訓練時間的比較,來測試網(wǎng)絡(luò)收斂性的提升,如表4所示。由表4可以得出以下結(jié)論:
1)只加入Dropout層其MIoU、F1、Precision和訓練時間分別為94.20%、92.64%、92.37%、26′57″,較沒有加入Dropout的SED-UNet網(wǎng)絡(luò)分別提升了0.61%、0.6%、0.44%和 6′25″,可以看到只加入Dropout層會提升訓練時間和分割精度。
2)只加入BN層其MIoU、F1、Precision和訓練時間分別為93.82%、92.44%、92.14%和19′43″,較沒有加入BN層的SED-UNet分別提升了0.23%、0.4%、0.21%和13′39″,可以看到只加入BN層會提升訓練時間以及分割精度。
3)同時加入Dropout層和BN層其MIoU、F1、Precision和訓練時間分別為94.48%、92.84%、92.78%和16′28″,較兩者都沒有加入的SED-UNet網(wǎng)絡(luò)分別提升了0.89%、0.8%、0.85%和16′54″??梢钥吹酵瑫r加入dropout層和BN層對于分割精度、訓練時間和訓練速度的提升相比只加入Dropout層和只加入BN層的提升都是很客觀的,同時加入Dropout和BN層可以提高分割精度,有效提升訓練時間和訓練速度,進而提升網(wǎng)絡(luò)收斂性。
綜上,加入Dropout層和BN層可以提升分割精度、加快模型訓練時間進而提升網(wǎng)絡(luò)收斂性。
5" 結(jié)" 論
本文提出結(jié)合SENet模塊和可變形卷積下改進的U-Net網(wǎng)絡(luò),同時加入Dropout層和BN層提高網(wǎng)絡(luò)收斂性,進而實現(xiàn)對頸部超聲圖像分割過程中效率的提高和精準度的提升,并將結(jié)果與U-Net、FCN、R2 U-Net、SegNet、PSP-Net和DeeplabV2 6種網(wǎng)絡(luò)進行對比,結(jié)果表明本文所提出的結(jié)合SENet模塊和可變形卷積而改進的U-Net網(wǎng)絡(luò)的三項評價指標明顯優(yōu)于其他3種網(wǎng)絡(luò),并且Dropout層和BN層的引入提升了網(wǎng)絡(luò)的收斂性和分割精度。本文所提的網(wǎng)絡(luò)對比傳統(tǒng)的U-Net網(wǎng)絡(luò)相比整體性能優(yōu)勢明顯,且分割效果更好。
參 考 文 獻:
[1]" 畢蓉蓉,王進科.CT圖像下結(jié)合RCNN與U-Net的肺實質(zhì)自動分割方法[J].哈爾濱理工大學學報,2021,26(3):74.
BI Rongrong, WANG Jinke. Automatic Lung Segmentation Using RCNN Combing U-Net in CT [J]. Journal of Harbin University of Science and Technology, 2021, 26(3): 74.
[2]" 劉俠,余鴻波,李冰,等.基于改進U-Net模型下的椎骨CT圖像分割方法[J].哈爾濱理工大學學報,2021,26(3):58.
LIU Xia, YU Hongbo, LI Bing, et al.Vertebra CT Image Segmentation Method Based on Improved U-Net Model [J]. Journal of Harbin University of Science and Technology, 2021, 26(3): 58.
[3]" LIU Yu,F(xiàn)ANG Qiong,JIANG Anhong. Texture Analysis Based on U-Net Neural Network for Intracranial Hemorrhage Identification Predicts Early Enlargement[J]. Computer Methods and Programs in Biomedicine,2021(206):102.
[4]" CUI Hengfei,CHANG Yuwen,JIANG Lei. Multiscale Attention Guided U-Net Architecture for Cardiac Segmentation in Short-axis MRI Images[J]. Computer Methods and Programs in Biomedicine, 2021(206):44.
[5]" LI Na,REN Kai. Double Attention U-Net for Brain Tumor MR Image Segmentation[J]. International Journal of Intelligent Computing and Cybernetics, 2021,14(3):202.
[6]" QIANG Zuo, CHEN Songyu, WANG Zhifang. R2AU-Net: Attention Recurrent Residual Convolutional Neural Network for Multimodal Medical Image Segmentation[J]. Security and Communication Networks, 2021:30.
[7]" TONG Ying,LIU Yangyang,ZHAO Manxue. Improved U-net MALF Model for Lesion Segmentation in Breast Ultrasound Images[J]. Biomedical Signal Processing and Control, 2021(68):136.
[8]" WANG Zekun,ZOU Yanni,LIU Peter X. Hybrid Dilation and Attention Residual U-Net for Medical Image Segmentation[J]. Computers in Biology and Medicine,2021(134):119.
[9]" REHMAN Mobeen Ur,CHO Seung Bin,KIM Jee Hong. BU-Net: Brain Tumor Segmentation Using Modified U-Net Architecture[J]. Electronics,2020,9(12):23.
[10]YANG Yujie,YANG Pinli,ZHANG Bo. Automatic Segmentation in Fetal Ultrasound Images Based on Improved U-net[J]. Journal of Physics: Conference Series,2020,1693(1):443.
[11]HE Fei,ZHANG Gaojian,YANG Huamin,et al. Multi-scale Atten-+on Module U-Net Liver Tumour Segmentation Method[J]. Journal of Physics: Conference Series,2020,1678(1):264.
[12]田會娟,翟佳豪,柳建新.基于SRN-UNet的低質(zhì)量虹膜分割算法[J/OL].光子學報:1.
TIAN Huijuan, ZHAI Jiahao, LIU Jianxin. A Low-quality Lris Image Segmentation Algorithm Based on SRN-UNet[J/OL]. Acta Photonica Sinica: 1.
[13]PAVLO Radiuk. Applying 3D U-Net Architecture to the Task of Multi-Organ Segmentation in Computed Tomography[J]. Applied Computer Systems,2020,25(1):89.
[14]DAI Xiangkun,WANG Xiaoshen,DU Lehui. Automatic Segmentation of Head and Neck Organs at Risk Based on Three-dimensional U-NET Deep Convolutional Neural Network[J]. Journal of Biomedical Engineering,2020,37(1):205.
[15]YANG Tiejun,ZHOU Yudan,LI Lei. DCU-Net: Multi-scale U-Net for Brain Tumor Segmentation[J]. Journal of X-ray Science and Technology,2020,28(4):302.
[16]劉一璟,張旭斌,張建偉. DenseNet-centercrop:一個用于肺結(jié)節(jié)分類的卷積網(wǎng)絡(luò)[J].浙江大學學報(理學版),2020, 47(1):20.
LIU Yijing, ZHANG Xubin, ZHANG Jianwei. Dense Net-centercrop: Anovel Convolutional Network for Lung Nodule Classification[J]. Journal of Zhejiang University (Science Edition), 2020, 47(1): 20.
[17]左宗成,張文,張東映. 融合可變形卷積與條件隨機場的遙感影像語義分割方法[J]. 測繪學報,2019,48(6):718.
ZUO Zongcheng, ZHANG Wen, ZHANG Dongying. A Remote Sensing Image Semantic Segmentation Method by Combining Deformable Convolution with Conditional Random Fields[J]. Acta Geodaetica et Cartographica Sinica, 2019, 48(6): 718.
[18]阮宏洋,陳志瀾,程英升. C-3D可變形卷積神經(jīng)網(wǎng)絡(luò)模型的肺結(jié)節(jié)檢測[J]. 激光與光電子學進展,2020,57(4):144.
RUAN Hongyang, CHEN Zhilan, CHENG Yingsheng. Detectionof Pulmonary Nodules Based on C-3D Deformable Convolutional Neural Network Model [J]. Laser amp; Progress Optoelectronics,2020,57(4):144.
[19]WEI Xuan,WEI Yun,LU Xiaobo. RMDC: Rotation-mask Deformable Convolution for Object Detection in Top-view Fisheye Cameras[J]. Neurocomputing,2022(504):102.
[20]TANG Ting,LIU Jiangping,LUO Xiaoling. Triple-branch Ternary-attention Mechanism Network with Deformable 3D Convolution for Hyperspectral Image Classification[J]. International Journal of Remote Sensing,2022,43(12):45.
[21]LI Fuhao,ZHAO Ximei. MD-Unet: a Deformable Network for Nasal Cavity and Paranasal Sinus Tumor Segmentation[J]. Signal, Image and Video Processing,2022:208.
[22]GURITA Andreea,MOCANU Irina Georgiana. Image Segmentation Using Encoder-Decoder with Deformable Convolutions[J]. Sensors, 2021(21):78.
[23]劉琳琳,葉強,何靈敏.基于SENet多路網(wǎng)絡(luò)的乳腺癌轉(zhuǎn)移檢測[J].計算機工程與應(yīng)用,2021,57(16):190.
LIU Linlin, YE Qiang, HE Lingmin.Detection of Breast Cancer Metastasis Based on SENet Multi-channel Network [J]. Computer Engineering and Applications, 2021, 57(16): 190.
[24]黃毅鵬,胡冀蘇,錢旭升. SE-Mask-RCNN:多參數(shù)MRI前列腺癌分割方法[J]. 浙江大學學報(工學版),2021,55(1):203.
HUANG Yipeng, HU Jisu, QIAN Xusheng. SE-Mask-RCNN:Segmentation Method for Prostate Cancer on Multi-parametric MRI[J]. Journal of Zhejiang University (Engineering Edition), 2021, 55(1): 203.
[25]張宸嘉,朱磊,俞璐.卷積神經(jīng)網(wǎng)絡(luò)中的注意力機制綜述[J].計算機工程與應(yīng)用,2021,57(20):64.
ZHANG Chenjia, ZHU Lei, YU Lu. Review of Attention Mechanism in Convolutional NeuralNeural Networks[J]. Computer Engineering and Applications, 2021, 57(20): 64.
[26]趙庶旭,羅慶,王小龍.基于改進Mask R-CNN的牙齒識別與分割[J].中國醫(yī)學物理學雜志,2021,38(10):1229.
ZHAO Shuxu, LUO Qing, WANG Xiaolong. Teeth Recognition and Segmentation Based on Improved Mask R-CNN[J]. Chinese Journal of Medical Physics, 2021, 38(10): 1229.
[27]楊婧,耿辰,王海林,等.基于DenseNet的低分辨CT影像肺腺癌組織學亞型分類[J].浙江大學學報(工學版), 2019,53(6):1164.
YANG Jing, GENG Chen, WANG Hailin, et al.Classification on Histological Subtype of Lung Adenocarcinoma From Low-resolution CT Images Based on Dense Net[J]. Journal of Zhejiang University (Engineering Science), 2019,53(6):1164.
[28]黃毅鵬,胡冀蘇,錢旭升,等.SE-Mask-RCNN:多參數(shù)MRI前列腺癌分割方法[J].浙江大學學報(工學版),2021,55(1):203.
HUANG Yipeng, HU Jisu, QIAN Xusheng, et al. SE-Mask-RCNN:Segmentation Method for Prostate Cancer on Multi-parametric MRI[J]. Journal of Zhejiang University (Engineering Science), 2021, 55(1):203.
[29]王雪,李占山,呂穎達.基于多尺度感知和語義適配的醫(yī)學圖像分割算法[J].吉林大學學報(工學版),2022,52(3):640.
WANG Xue, LI Zhanshan, L Yingda. Medicalimage Segmentation Based on Multi-scale Context-aware Semantic Adaptor[J]. Journal of Jilin University (Engineering and Technology Edition), 2022, 52(3): 640.
[30]劉俠,匡瑞雪,王波,等.基于隱馬爾可夫場的脊柱CT圖像分割算法[J].哈爾濱理工大學學報, 2018,23(2):1.
LIU Xia, KUANG Ruixue, WANG Bo, et al. Segmentation Algorithmof Spinal CT Image Based on Hidden Markov Random Field[J]. Journal of Harbin University of Science and Technology, 2018, 23(2):1.
[31]包曉安,高春波,張娜,等.基于生成對抗網(wǎng)絡(luò)的圖像超分辨率方法[J].浙江理工大學學報(自然科學版),2019,41(4):499.
BAO Xiao′an, GAO Chunbo, ZHANG Na, et al. Imagesuper-resolution Method Based on Generative Adversarial Network[J]. Journal of Zhejiang Sci-Tech University (Natural Science Edition), 2019,41(4):499.
(編輯:溫澤宇)