摘 要:針對視網膜細小血管分割精度低的問題,提出一種融合可伸縮級聯模塊、Transformer和自校準注意力的改進U-Net算法以提高細小血管分割精度。首先在編碼階段利用可伸縮級聯模塊,先行學習復雜多變的視網膜血管拓撲結構。然后在解碼階段提出一種自校準注意力機制,利用多尺度擠壓激勵模塊,自適應對特征圖通道和空間之間特征重要性進行校準,增強目標區域特征響應,抑制背景噪聲。最后使用Transformer特征提取塊,提高特征空間映射能力。基于DRIVE和CHASEDB1數據集的實驗結果表明,所提算法準確率分別為96.49%和96.67%,靈敏度分別為83.75%和83.30%,特異性分別為98.28%和98.01%,AUC分別為0.987 1和0.987 2,所提算法的整體性能優于現有算法,各模塊能夠有效提高細小血管分割能力。
關鍵詞:視網膜分割;可伸縮級聯模塊;自校準注意力;Transformer特征提取;多尺度擠壓激勵模塊
中圖分類號:TP391.41 文獻標志碼:A
文章編號:1001-3695(2023)03-050-0943-06
doi:10.19734/j.issn.1001-3695.2022.05.0317
Based on U-Net multi-scale self-calibrating attention retinal segmentation algorithm
Liang Liming,Chen Xin,Zhou Longsong,Yu Jie
(School of Electrical Engineering amp; Automation,Jiangxi University of Science amp; Technology,Ganzhou Jiangxi 341000,China)
Abstract:Aiming at the problem of the low accuracy of fine retinal vessel segmentation,this paper proposed improved U-Net methods combining scalable cascade modules,Transformer and self-calibrated attention modules to improve the accuracy of fine retinal vessel segmentation.Firstly,this paper used scalable cascaded modules in the encoding stage to enable the learning of complex and variable retinal vessel structures.Secondly,in the decoding stage,this paper proposed a self-calibration attention mechanism,which used the multi-scale compression excitation module to adaptively recalibrate the blood vessel from channel and spatial of features,it could enhance the feature response of the target area,and suppressed the background noise.Finally,the Transformer feature extraction block improved the capability of feature space mapping.This proposed method tested on public datasets,i.e.the DRIVE and CHASEDB1.The experimental results of proposed method show that the accuracy of the retinal vessel segmentation from the two datasets reach 96.49%/96.67%,the sensitivity reach 83.75%/83.30%,the specificity reach 98.28%/98.01% and the AUC reach 0.987 1/0.987 2,respectively.The performance of proposed method is better than most of existing methods,and each modules can improve the ability of fine retinal vessel segmentation.
Key words:retinal vessel segmentation;retractable cascade module;self-calibrating attention;Transformer module;multi-scale squeeze-and-excitation
0 引言
隨著社會經濟的發展,人們面對手機電腦等電子產品的時間日趨增多,伴隨患有青光眼、白內障和動脈硬化等疾病的人數也隨之增加。這些疾病早期不易發現,晚期難以根治,嚴重可導致失明。在醫學臨床應用中,醫生可以根據視網膜血管的直徑、長度、分支模式和彎曲程度等形態學特征對這些疾病進行診斷。然而,眼底視網膜血管結構主要依靠專家手動標記,整個過程耗時耗力。所以,研究一種計算機自動診斷和分割視網膜血管的算法,對于計算機輔助診斷各種眼科疾病具有重要的應用價值。
目前國內外許多學者研究視網膜自動分割算法,從廣義上來說,這些方法主要分為無監督學習方法和有監督學習方法兩類。無監督學習方法不需要人工標注的數據集進行訓練,而是利用視網膜固有特性,直接在眼底圖片上對視網膜血管進行提取。常見的無監督學習方法根據原理分為匹配濾波方法、數學形態學方法和血管跟蹤方法等。Shao等人[1]利用Frangi濾波器提取多尺度特征,然后利用聚類和后處理的方法進行分割。Fan等人[2]利用大量邊界、凸包和骨架等區域形狀特性,將不確定區域的像素分為血管像素和背景像素。Wang等人[3]提出一種多尺度形態學和種子點跟蹤方法來增強并分割血管的方法。無監督學習方法提取的特征粗糙,進而導致血管分割精度低。
監督學習算法需要依賴人工標記的數據集引導算法不斷提高其分割能力,具有較強的穩定性和可靠性。隨著深度學習技術在計算機輔助醫療診斷的快速發展,基于深度學習神經網絡的視網膜血管分割成為研究熱點,許多工作利用深度學習方法來完成血管分割任務。Jin等人[4]將可變形卷積和注意力機制相結合,提高了算法分割準確率和抗噪能力。Zhuang等人[5]對R2U_Net進行改進,利用改進后的殘差模塊構造多對編碼器—解碼器分支,并將每對編碼器和解碼器加入跳躍連接。Alom等人[6]提出基于U-Net遞歸殘差神經網絡,利用U-Net、殘差連接和RCNN等優點,提供更好的分割性能。曹飛道等人[7]提出一種殘差空洞密集模塊和三端注意力機制,利用注意力機制自適應對空間特征進行校正,改善網絡對細小血管的分割效果。姜大光等人[8]提出骨架圖引導的級聯血管分割網絡,骨架提取的輔助任務用于提取血管中心線,極大保留了血管輪廓結構,改善血管的分割效果。
上述工作為后續醫學視網膜血管分割技術的研究提供借鑒價值,但仍有許多問題需要解決。首先,血管的分割精度低,血管和病變等形狀多樣,可能存在血管特征和病變特征相似的情況,導致網絡出現將病變誤劃分為血管的問題,影響醫生的判斷。其次,分割性能的提升往往存在著模型參數和推理時間的增加等問題。
針對上述問題,本文提出一種基于U-Net的多尺度自校準注意力視網膜分割算法(multi-scale self-calibrated attention U-Net,MSSCA-U-Net),融合可伸縮級聯模塊、自校準注意力模塊和Transformer特征提取塊來提升算法分割能力。一是將U-Net中傳統卷積替換成可伸縮級聯模塊,用來高效提取視網膜血管的多尺度特征信息。二是在跳躍連接處,使用自校準注意力機制,對血管目標區域進行自適應特征增強。三是在U-Net編碼器末端,添加Transformer特征提取塊,從全局感受野中進一步提取血管特征,提高模型對血管的識別能力。
1 本文算法
1.1 可伸縮級聯模塊
U-Net編碼解碼結構中,往往需要通過編碼器和解碼器獲取豐富特征,來實現視網膜血管精確分割,但不同區域血管尺度不同,神經網絡往往需要使用更大的卷積核增加感受野,進而提取視網膜血管多尺度特征。但同時會增加網絡參數量,導致網絡難以收斂且推理時間大大增加。在傳統U-Net中,通常用傳統連續卷積來學習視網膜多尺度特征。但傳統連續卷積學習到語義信息往往不夠充分,且存在冗余特征,無法有效地對視網膜血管實現精確分割。為解決這個問題,受文獻[9]啟發,本文設計可伸縮級聯模塊(scalable cascade modules,SCM),該模塊使用多個卷積高效提取和融合視網膜血管多尺度特征信息,從而提高血管分割精度。SCM結構如圖1所示,SCM將特征提取過程分成k步,并且使用ConvXi來表示第i步的特征提取,第i步特征提取過程具體為
xi=ConvXi(xi-1,wi)(1)
其中:xi-1和xi分別表示第i-1步與第i步的輸出;ConvX包含一層卷積層、一層批歸一化層(BN)和一層激活函數層(ReLU);wi表示第i步卷積核的大小。在SCM中,本文進行k步特征提取,第一步利用1×1卷積核來壓縮特征圖的通道數,減少網絡參數量,從第二步到k-1步利用3×3卷積核對輸入特征圖進行特征提取。每一步提取的特征通道數是前一步的二分之一,即假設SCM中最終提取特征拼接后通道數為M,則其中第i步提取特征通道數為M/2i,第k步同樣利用3×3卷積提取特征,但輸出特征圖數量與k-1步輸出特征圖數量是相同的。在視網膜分割任務中,低層特征需要使用足夠通道數來編碼細粒度信息,而大感受野關注對高層特征的歸納。如果設置與低層相同的通道數不僅會造成信息的冗余,還會造成網絡梯度消失,不可避免地造成網絡退化,網絡參數無法更新,阻礙網絡訓練。其次,通過跳躍連接方法將x,x1,x2,…,xk特征圖進行拼接操作以提高特征信息的利用率,即
xoutput=F(x,x1,x2,…,xk)(2)
其中:xoutput表示SCM模塊輸出;F表示的是拼接操作;x1,x2,…,xk表示是SCM各步輸出;x表示SCM模塊的輸入。
最后,將xoutput輸出特征圖輸入到通道注意力機制SE模塊[10],SE結構如圖2所示,通過SE模塊高效地自適應給xoutput在通道維度上賦予不同注意力權重,為下級編碼解碼器的特征提取提供權重參考,避免重要通道信息的丟失。
1.3 自校準注意力模塊
在傳統的U-Net中,將編碼器特征通過跳躍連接的方式傳遞到解碼器,實現底層特征與高級特征的融合,補充了解碼器細節特征。但由于視網膜形態復雜多樣,通過同尺度之間復制和剪切傳遞特征的方式過于簡單,無法進一步對視網膜復雜形態和分布進行有效的預測,所以在分割過程中容易出現細小血管斷裂等問題,造成真陽性低的問題。
為了解決這個問題,受到文獻[12]啟發,本文提出一種融合多尺度擠壓激勵的自校準注意力模塊(self-calibrated attention model,SCAM),該模塊充分利用自身多尺度信息增強相關特征響應。自校準注意力模塊結構如圖4所示,本文將輸入X均勻地分成X1、X2兩個部分,每個部分分別送到用于收集不同類型的上下文信息的特征提取路徑,在第一個路徑中,對X1執行簡單的卷積操作,其目的是保持原始的空間上下文信息,在第二條路徑中,對X2執行自校準操作,X2不同空間區域的通道重要性通過MSSE重新校準,然后將Y1和Y2串聯一起作為自校準注意力模塊的最終輸出Y。
本文提出的自校準操作具有兩個方面的優點:a)與傳統注意力進行比較,通過采用自校準操作,每一個空間位置不僅被允許自適應地考慮其周圍的上下文信息作為來自潛在空間的嵌入,并且可以對通道間相關性進行建模;b)保留了一部分原始特征信息,豐富特征圖的空間信息。
1.4 Transformer特征提取塊
相關實驗表明[13],如果充分利用網絡的長期依賴關系,圖片分割效果可以得到明顯提升。卷積神經網絡在提取低級特征和結構方面具有較大的優勢,但其也存在局限性,限制其對遠程依賴關系的學習,無法學習到全局特征和遠程的語義交互信息。與卷積神經網絡不同,Transformer[13]具有強大全局信息建模的能力,但將其加入每個編碼解碼中,會增加網絡參數,導致網絡訓練速度和推理速度降低,同時網絡會出現過擬合現象,需要使用大量標注數據集才能得到較好的訓練結果。所以,本文將Transformer特征提取塊放置在U型網絡結構中間部分,即編碼階段末端,代替原始卷積模塊,對視網膜血管全局信息進行建模。
由于Transformer針對自然語言處理,需要輸入序列長度為N、詞向量維度為d的二維特征信息,但編碼階段提取到的特征通道數為256,特征圖H為8,W為8的三維特征信息,所以首先需要對輸入特征圖進行線性變換,將特征圖的空間維度重塑成一維向量,得到序列長度為N=64,詞向量維度為d=256的線性特征,將變換后的線性特征輸入到Transformer進行特征提取。
經過Transformer變化后,得到特征序列向量L∈R (H×W)×2C,為了與后續解碼特征圖相匹配,需要對序列向量進行重塑,變換成高度為8,寬度為8和通道數為512的特征圖。
1.5 網絡總體結構
網絡總體框架如圖7所示。本文借鑒U-Net的編碼解碼架構,將輸入眼底視網膜圖片先經過3×3卷積初步獲取32通道粗特征。在編碼路徑和解碼路徑中,利用可伸縮級聯模塊提取更多的血管形態特征和尺度變化信息,提升網絡對血管特征的識別能力和定位能力。同時,為了減少空間特征信息丟失,本算法對輸入視網膜圖片進行三次下采樣。在U-Net編碼器末端,引入Transformer特征提取塊,利用Transformer全局關注和長遠距離的建模能力,有利于對編碼器輸出特征作進一步提取和融合,進一步提高血管分割能力。在U型網絡跳躍連接處,利用自校準注意力模塊來校準編碼部分傳遞過來的特征圖不同區域的重要程度,增強血管區域特征響應,抑制非血管部分噪聲的特征響應,同時,自校準注意力模塊融合原始的響應和注意力增強后的特征響應,實現細節信息保留和增強,提高血管分割準確率。最后利用一層1×1卷積核和softmax激活函數,以獲取最后的分割結果。
2 實驗結果分析
2.1 實驗環境
本文實驗環境基于Ubuntu 16.04操作系統,使用PyTorch 1.7.0端口進行網絡訓練,計算機配置CPU為AMD5600X,內存32 GB,顯卡為NVIDIA GeForce GTX 3060ti,顯存為8 GB。CUDA版本為11.0,采用Adam優化器,訓練總輪次設置為50輪,初始學習率為1×10-3,學習率變化為每10輪降低0.1,batchsize設置為16,權重衰減設置為1×10-4,損失函數采用交叉熵損失函數。
2.2 數據集
DRIVE和CHASEDB1是國際上公開并廣泛使用的眼底視網膜數據集,DRIVE包含40張彩色眼底視網膜圖片,分辨率為565×584,且官方將其劃分為訓練集和測試集,訓練集和測試集各包含20張圖片。CHASEDB1包含14位兒童雙眼視網膜圖片,共有28張眼底圖片,分辨率為999×960。由于官方未將其劃分訓練集和測試集,本文將該數據集的前20張用于訓練,后8張用于測試。DRIVE和CHASEDB1均提供原始彩色眼底圖片、分割金標準和掩膜如圖8所示。為了有效檢驗網絡的分割效果,本文根據官方提供的掩膜對視網膜分割效果進行測評。
2.3 預處理
由于原始視網膜圖片的對比度較低,血管紋理不明顯,如果將圖片直接輸入網絡訓練,不能得到較好的分割效果。為了提高網絡的分割性能,需要對原始圖片進行一些預處理。本文對圖片進行如下預處理:a)灰度轉換;b)圖像標準化;c)對比度受限自適應直方圖均衡化;d)伽馬校正。由于官方提供的訓練集較少,需要對圖片進行數據增強,避免模型出現過擬合的現象。本文使用64×64窗口隨機切分原始眼底圖片及其對應的金標準,并對切分好的視網膜圖片進行隨機翻轉,共切分出40 000張訓練圖片。在測試階段,使用64×64滑動窗口切分測試圖片,推理完成后將預測圖片拼接操作,得到最終分割結果。
2.4 評估指標
為了定量分析模型的分割效果,本文采用準確率(Acc)、特異性(Spe)、靈敏度(Sen)、F1-score和受試者工作特征曲線ROC下的面積(AUC)五個指標作為本文的評價指標。
其中:TP表示正確分割中血管個數;TN表示正確分割中背景個數;FN表示將血管誤分成背景的像素個數;FP表示將背景誤分割成血管的像素個數;F1衡量算法分割結果與專家分割金標準的相似性。ROC曲線下的面積AUC越接近1,表示算法的性能越好,魯棒性越強。
2.5 實驗結果
2.5.1 整體分割結果的比較
為了展示本文算法優越性,將其與其他算法在DRIVE和CHASEDB1數據集的上分割結果進行比較,所有分割結果均在相同實驗環境中得出,分割結果如圖9所示,圖(a)為原始眼底圖片;圖(b)為分割金標準;圖(c)為本文算法分割結果;圖(d)~(f)分別為原始U-Net[14]、DenseUNet[15]和UNet++[16]分割結果。其中原始U-Net編碼解碼器使用傳統連續卷積,DenseUNet是將U-Net中傳統連續卷積替換成密集卷積模塊,UNet++則將多個U-Net進行融合,并將每個U-Net提取結果進行拼接操作。第一行和第三行分別給出DRIVE和CHASEDB1健康視網膜圖片及各網絡分割結果,第二行和第四行分別給出DRIVE和CHASEDB1病變視網膜圖片及各網絡分割結果。從第一行可以看出,由于視盤附近光照不均勻,圖(d)~(f)均出現主血管斷裂的現象,且末端血管出現分割不足問題。從第二行可以看出,圖(d)雖然在細小血管分割上有較好的表現,但在視網膜邊界的地方,主血管出現斷裂問題,本文算法相比于圖(d)有效地解決邊界主血管斷裂和細小血管分割不足的問題。第三行和第四行視網膜由于受病變區域影響,圖(d)~(f)均存在欠分割和過分割的問題,本文算法利用可伸縮級聯模塊充分提取視網膜特征,能夠有效減少血管欠分割,利用自校準注意力機制抑制背景噪聲的影響,減少誤分割,相比于其他算法可以很好地解決病理區域誤分割和細小血管分割不足的問題。
2.5.2 細節對比圖
圖10選取了DRIVE和CHASEDB1在本文算法、U-Net、DenseUNet和UNet++上的分割結果在視網膜邊界、視盤、血管末端和病變區域局部細節對比圖,可以更加清晰地觀察到本文對血管分割效果的提升,第一行和第三行為健康視網膜圖片,第二行和第四行為病變視網膜圖片。圖(b)為原始細節圖;圖(c)為分割金標準;圖(d)為本文算法分割結果;圖(e)~(g)分別為U-Net、DenseUNet和UNet++分割結果。第一行中,視盤附近由于光照不均勻,圖(e)和(g)出現了主血管斷裂,圖(f)雖然在視盤附近主血管有著較好分割,但在血管末端,圖(f)出現了細小血管欠分割現象。在第二行中,由于病變區域分辨率較低,圖(f)和(g)出現不同程度的欠分割。在第三行中,在光照不均勻區域,圖(e)~(g)在微血管分割上均出現欠分割。從第四行中可以看出,由于受滲出物的影響,主血管出現斷裂,末端血管出現欠分割問題。圖(d)在邊界、視盤、血管末端和病變區域都有較好的分割結果,進一步說明本文算法可有效完成視網膜分割任務。
2.5.3 客觀數據比較
表1給出了U-Net、DenseUNet、UNet++和本文算法在DRIVE和CHASEDB1客觀評價數據上的比較,其中加粗的為該指標上最優值。在DRIVE數據集上,本文算法在各項評價指標上均達到最優,且在指標F1、Acc和AUC(ROC)比U-Net高0.004 1、0.001 0和0.001 5。在CHASEDB1數據集上,本文算法在各評價指標上均達到最優,且在指標F1、Acc和AUC(ROC)比DenseUNet高0.012 1、0.001 6和0.002 3。說明本文算法與專家分割結果具有較高的相似度、更強識別血管能力和更強的魯棒性。
2.5.4 ROC曲線與P-R曲線對比圖
為了直觀比較本文算法的性能,圖11給出本文算法和其他算法在DRIVE和CHASEDB1上ROC和PR曲線對比圖。本文算法ROC曲線更靠近左上方,PR曲線更靠近右上方,本文算法繪制的ROC和PR曲線包圍其他算法繪制的ROC和PR曲線,說明本文算法的真陽性率高,假陰性率低,血管誤分類可能性較小,本文算法對視網膜血管分割能力優于其他算法。
2.5.5 與其他算法的比較
為了進一步驗證本文算法的先進性,將本文算法與其他算法對DRIVE和CHASEDB1數據集在靈敏度、特異性、準確率和AUC四個指標上進行客觀數據對比,結果如表2所示(加粗字體為該項的最優值)。在DRIVE數據集上,除了Spe外,Sen、Acc和AUC(ROC)均達到最優,文獻[22]利用小型U-Net進行多次迭代校正生成血管分割圖,雖然其Spe高于本文算法,但若其前幾次迭代未提取到充分細小血管信息,則在之后迭代可能丟失細小血管特征信息,致使文獻[22]在Sen指標上低于本文算法。
在CHASEDB1數據集上,除了Sen和Spe外,其他指標均達到最優。文獻[21]提出一種由兩個U-Net構成由粗到細的深度監督網絡,粗分割網絡學習輸入圖片的預測概率視網膜圖,而細分割網細化預測圖,并設計一種特征細化模塊,來減少參數量同時提高特征識別能力。但該網絡較深,造成細小血管的特征提取過程中丟失,最終得不到較好的分割效果,在CHASEDB1數據集上,Spe指標雖然比本文算法高0.004 1,但文獻[21]的Sen和Acc分別低于本文算法0.038 2、0.002 1,說明該算法對于血管識別能力存在不足。文獻[26]基于殘差機制的多尺度注意力可變形M網絡,并結合改進脈沖耦合神經網絡,注意力機制和可變形卷積使網絡更加關注血管區域,在Sen指標上高于本文算法,但在病變、噪聲的區域干擾情況下,可能導致網絡出現誤分割,導致文獻[26]在Spe指標上低于本文算法,在Acc和AUC低于本文算法0.008 0和0.006 6。
2.5.6 k的取值
為了驗證k取值的多少能盡可能提高本文的分割性能,對k取值2、3、4、5分別在DRIVE數據集上進行實驗,實驗結果如表3所示。從表中可以看出,當k取4時,Acc、F1和AUC分別達到0.964 9、0.854 2和0.987 1,可以得出較好的結果。
2.5.7 算法改進前后對比
為了進一步說明本文所提出SCM、SCAM和Transformer模塊有效提升U-Net對視網膜的分割性能,本文對U-Net的結構進行改進,并在DRIVE上進行消融實驗,實驗結果如表4所示。表中,N1表示原始U-Net結構分割結果,N2和N3分別表示在U-Net結構上分別加上Transformer特征提取塊和SCAM模塊分割結果,N4表示將U-Net的傳統連續卷積替換成本文提出可伸縮級聯模塊SCM分割結果,N5和N6分別表示在N4的基礎上添加Transformer特征提取塊和SCAM。N7則是在U-Net結構上加上SCM、SCAM和Transformer模塊,即本文所提出的算法。
由表4可以看出,U-Net對視網膜的分割結果已經達到較好的分割效果,其Acc、Sen、Spe和AUC分別達到了0.963 9、0.835 5、0.981 8和0.985 6,利用SCM代替傳統連續卷積,Acc、Sen和AUC分別提升0.000 5、0.003 1和0.000 8,表明SCM提高網絡對視網膜中血管的提取能力,使得網絡的分割性能得到改善。將Transformer特征提取塊加入到N4中,Acc和Spe得到略微的提升,說明Transformer在更大感受野的情況下,進一步提高網絡對微小血管的分割能力。將SCAM加入到N4中,雖然Acc略微減少,但Sen得到較大的提高,說明SCAM加強對細小血管特征的預測能力。綜上所述,SCM具有很強的特征提取能力,能夠改善細小血管特征提取不充分的問題,SCAM能夠更加關注血管相關特征,抑制背景噪聲的影響。本文所提出的模塊能有效提升U-Net對血管分割的能力。
3 結束語
針對眼底圖片視網膜細小血管分割不足的問題,本文提出一種多尺度自校準注意力視網膜血管分割算法。首先,提出一種可伸縮級聯模塊來代替U-Net中傳統連續卷積,在學習血管特征的同時,捕獲多分辨率血管特征模式。然后,在解碼階段,設計一種自校準注意力模塊,一條路徑利用編碼器的自身特征自動生成權重分配圖,能夠增強血管細節和抑制背景噪聲,提升網絡的分割性能;另一條路徑保留未經注意力處理特征圖,豐富細節信息。最后,在U-Net中間部分,添加Transformer特征提取塊,利用Transformer具有全局特征提取功能,充分提取血管的特征信息。實驗表明,本文算法優于現有算法,能夠顯著提升U-Net分割性能,不僅可以對粗血管實現分割,而且對細小血管也有較好的分割效果。在下一步工作中,將繼續開發本文算法,將其應用在更多的醫學圖像分割任務中。
參考文獻:
[1]Shao Feng,Yang Yan,Jiang Qiuping,et al.Automated quality assessment of fundus images via analysis of illumination,naturalness and structure[J].IEEE Access,2018,6(3):806-817.
[2]Fan Zhun,Lu Jiewei,Wei Caimin,et al.A hierarchical image matting model for blood vessel segmentation in fundus images[J].IEEE Trans on Image Processing,2019,28(5):2367-2377.
[3]Wang Weihua,Zhang Jingzhong,Wu Wenyuan,et al.An automatic approach for retinal vessel segmentation by multi-scale morphology and seed point tracking[J].Journal of Medical Imaging and Health Informatics,2018,8(2):262-274.
[4]Jin Qiangguo,Meng Zhaopeng,Pham TD,et al.DUNet:a deformable network for retinal vessel segmentation[J].Knowledge-Based Systems,2019,178(7):149-162.
[5]Zhuang Juntang.LadderNet:multi-path networks based on U-Net for medical image segmentation[EB/OL].(2018)[2022-05-20].https://arxiv.org/abs/1810.07810.
[6]Alom M Z,Yakopcic C,Taha T M,et al.Nuclei segmentation with recurrent residual convolutional neural networks based U-Net(R2U-Net)[C]//Proc of IEEE National Aerospace and Electronics Confe-rence.Piscataway,NJ:IEEE Press,2018:228-233.
[7]曹飛道,趙懷慈.基于三端注意力機制的視網膜血管分割算法[J].控制與決策,2022,37(10):2505-2512.(Cao Feidao,Zhao Huaici.An improved U-Net based on three-terminal attention mechanism for retinal vessel segmentation[J].Control and Decision,2022,37(10):2505-2512.)
[8]姜大光,李明鳴,陳羽中,等.骨架圖引導的級聯視網膜血管分割網絡[J].工程科學學報,2021,43(9):1244-1252.(Jiang Daguang,LI Mingming,Chen Yuzhong,et al.Cascaded retinal vessel segmentation network guided by a skeleton map[J].Chinese Journal of Engineering,2021,43(9):1244-1252.)
[9]Fan Mingyuan,Lai Shenqi,Huang Junshi,et al.Rethinking BiSeNet for real-time semantic segmentation[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:9711-9720.
[10]Hu Jie,Shen Li,Albanie S,et al.Squeeze-and-excitation networks[EB/OL].(2017)[2022-05-20].https://arxiv.org/abs/1709.01507.
[11]Pereira S,Pinto A,Amorim J,et al.Adaptive feature recombination and recalibration for semantic segmentation with fully convolutional networks[J].IEEE Trans on Medical Imaging,2019,38(12):2914-2925.
[12]Liu Jiang Jiang,Hou Qibin,Cheng Ming Ming,et al.Improving convolutional networks with self-calibrated convolutions[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:10093-10102.
[13]Chen Jieneng,Lu Yongyi,Yu Qihang,et al.TransUNet:transformers make strong encoders for medical image segmentation[EB/OL].(2021)[2022-05-20].https://arxiv.org/abs/2102.04306.
[14]Ronneberger O,Fischer P,Brox T.U-Net:convolutional networks for biomedical image segmentation[C]//Proc of Conference on Medical Image Computing and Computer-Assisted Intervention.Berlin:Springer,2015:234-241.
[15]Huang Gao,Liu Zhuang,Van Der Maaten L,et al.Densely connected convolutional networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:2261-2269.
[16]Zhou Zongwei,Siddiquee M M R,Tajbakhsh N,et al.UNet++:redesigning skip connections to exploit multiscale features in image segmentation[J].IEEE Trans on Medical Imaging,2020,39(6):1856-1867.
[17]Mo Juan,Zhang Lei.Multi-level deep supervised networks for retinal vessel segmentation[J].International Journal of Computer Assisted Radiology and Surgery,2017,12(12):2181-2193.
[18]Yan Zengqiang,Yang Xin,Cheng K.Joint segment-level and pixel-wise losses for deep learning based retinal vessel segmentation[J].IEEE Trans on Biomedical Engineering,2018,65(9):1912-1923.
[19]Guo Song,Wang Kai,Kang Hong,et al.BTS-DSN:deeply supervised neural network with short connections for retinal vessel segmentation[J].International Journal of Medical Informatics,2019,126(5):105-113.
[20]Fu Qilong,Li Shuqiu,Wang Xin.MSCNN-AM:a multi-scale convolutional neural network with attention mechanisms for retinal vessel segmentation[J].IEEE Access,2020,8:163926-163936.
[21]Wang Kun,Zhang Xiaohong,Huang Sheng,et al.CTF-Net:retinal vessel segmentation via deep coarse-to-fine supervision network[C]//Proc of the 17th IEEE International Symposium on Biomedical Imaging.Piscataway,NJ:IEEE Press,2020:1237-1241.
[22]Li Liangzhi,Verma M,Nakashima Y,et al.IterNet:retinal image segmentation utilizing structural redundancy in vessel networks[C]//Proc of IEEE/CVF Winter Conference on Applications of Computer Vision.Piscataway,NJ:IEEE Press,2020:3656-3665.
[23]Zhou Yukun,Chen Zailiang,Shen Hailan,et al.A refined equilibrium generative adversarial network for retinal vessel segmentation[J].Neurocomputing,2021,437(4):118-130.
[24]Li Xiang,Jiang Yuchen,Li Mingle,et al.Lightweight attention convolutional neural network for retinal vessel image segmentation[J].IEEE Trans on Industrial Informatics,2021,17(3):1958-1967.
[25]Yang Lei,Wang Huaixin,Zeng Qingshan,et al.A hybrid deep segmentation network for fundus vessels via deep-learning framework[J].Neurocomputing,2021,448(8):168-178.
[26]Deng Xiangyu,Ye Jinhong.A retinal blood vessel segmentation based on improved D-MNet and pulse-coupled neural network[J].Biomedical Signal Processing and Control,2022,73(3):103467-103481.
收稿日期:2022-05-25;修回日期:2022-07-08 基金項目:國家自然科學基金資助項目(51365017,61463018);江西省自然科學基金資助項目(20192BAB205084);江西省教育廳科學技術研究重點項目(GJJ170491)
作者簡介:梁禮明(1967-),男,江西吉安人,教授,碩導,碩士,主要研究方向為醫學圖像分析與機器學習(lianglm67@163.com);陳鑫(1995-),男,廣東揭東人,碩士,主要研究方向為醫學圖像分析與機器視覺;周瓏頌(1996-),男,安徽銅陵人,碩士,主要研究方向為醫學圖像分割;余潔(1997-),男,江西撫州人,碩士,主要研究方向為醫學圖像處理.