










摘要:通過改進Swin Transformer編碼解碼網絡,結合跳躍連接和深度監督機制,針對新生兒腦部核磁共振成像(MRI)圖像分割面臨的低信噪比、組織對比度差等問題,提出一種新的基于移位窗口自注意力機制的新生兒腦區域圖像分割方法,該方法經過對MRI圖像的預處理后,能實現新生兒腦部圖像多功能區域的精確分割,并采用最大連通域算法進一步提高了分割精度,在數據集dHCP上的實驗結果表明,該方法優于現有方法,為早期發現和干預新生兒腦部損傷提供了潛在的可能性.
關鍵詞:腦部圖像區域分割;Swin Transformer編碼解碼網絡;新生兒MRI;自注意力;移位窗口
中圖分類號:TP391.4文獻標志碼:A文章編號:1671-5489(2024)05-1129-09
Image Region Segmentation of Neonatal Brain Based on Self-attention Mechanism of Shifted Windows ZHANG Xiaocheng12,WANG Tao12,TIAN Xin3,ZHANG Yonggang2.4
(1.College of Software,JilinUniversity,Changchun 130012,China;
2.Key Laboratory of Symbol Computation and Knowledge Engineering of Ministry of Education,JilinUniversity,Changchun 130012,China;
3.The Second Hospital of Jilin University,Changchun 130062,China;
4.College of Com puter Science and Technology,JilinUniversity,Changchun 130012,China)
Abstract:By improving the Swin Transformer coding and decoding network,combined with the skip-linking and depth supervision mechanisms,weproposd a new image region segmentation method of neonatal brain based on self-attention mechanism of shifted windows to address the issues of low signal-to-noise ratio and poor tissue contrast in segmentation of nuclear magnetic resonance imaging(MRI)images of the neonatal brain.The method could achieve accurate segmentation of multifunctional regions of the neonatal brain images after preprocessing the MRI images,and further improve the segmentation accuracy by using the maximum connected domain algorithm.Theexperimental results on the dHCP dataset show that the method is superior to existing methods,providing potential possibilities for early detection and intervention of neonatal brain injury.
Keywords:brain image region segmentation;Swin Transformer coding and decoding network;neonatalMRI;self-attention;shifted window
近年來,隨著新生兒護理技術的不斷發展,新生兒存活率顯著提高,但臨床研究顯示新生兒仍有發育遲緩和腦損傷等問題[-2],研究新生兒大腦發育,旨在了解新生兒獨特能力的獲得方式以及早期腦損傷對新生兒發育的影響[3-]
目前,核磁共振成像(MRI)技術廣泛應用于神經系統研究中,但手動標記腦部結構耗時且較難.神經網絡在醫學圖像分割領域可取代手動勾畫,加快精準器官圖像區域劃分研究[-6],不同器官圖像自動化分割難度不同,新生兒腦部圖像分割尤具挑戰,需考慮低信噪比和組織對比度.
Swin Transformer模塊2]作為一種高效網絡模塊,將Transformer[8]結構用于計算機視覺,降低了網絡的復雜度和內存消耗,其移位窗口模塊與傳統滑動窗口模塊不同,減少了硬件需求,提高了運行速度,擴大了感受野,提升了模型精度
本文沿用移位窗口方法,加入深度監督機制,并配合全尺度的跳躍連接,搭建出一個全新的網絡模型,其中,全尺度跳躍連接技術是通過在網絡各層次之間建立跳躍連接,將低層的特征圖與高層的特征圖進行連接,從而使模型可同時考慮不同層次的特征信息,有效提高了模型性能.深度監督機制通過在深度神經網絡的不同層級間進行監督訓練,將底層網絡的輸出與標簽進行對比,使梯度可以在底層網絡中進行有效傳遞,從而解決了梯度消失及過擬合等問題,并提高了網絡的收斂速度,此外,本文提出了一個端到端的新生兒腦部圖像多功能區域分割框架,主要包括醫學影像預處理、網絡模型訓練、模型預測及預測結果后處理等模塊,可替代傳統的手工勾畫流程,得到新生兒腦部圖像各區域分割模型,以協助醫生或研究人員做進一步的新生兒腦部發育研究.
1本文方法
圖像分割算法在醫學圖像分析上具有重要意義,目前已從傳統的基于閾值、基于區域的分割算法,發展到基于神經網絡的卷積算法及Transformer算法,醫學圖像分割精度不斷提高,特征表達能力不斷增強,但對應用廣泛的卷積神經網絡,其自身不可避免地存在感受野低的問題,無法捕獲遠距離的特征,同時由于需要Pooling層進行下采樣,導致丟失了圖像的位置及細節信息,而這些問題Transformer網絡能解決,由于Transformer網絡本身來自于自然語言任務,雖然已經開發出了適應視覺任務的ViT0版本,但由于它的全局自注意力機制導致其學習能力較弱,需要大量數據訓練,計算復雜度較高,因此不適合小數據量的醫學數據集.本文使用移位窗口自注意力模塊,其是由SwinTransformer網絡提出,區別于傳統的多頭自注意力(MSA)模塊,其由兩個模塊構成,分別為基于窗口的多頭注意力(W-MSA)模塊和基于移位窗口的多頭自注意力(SW-MSA)模塊,基于此模塊本文提出基于移位窗口自注意力模塊的新生兒腦部圖像多功能區域分割網絡,該網絡以移位窗口自注意力模塊作為主要模塊,搭建出類似Swin-Unet[10]的網絡結構,同時結合深度監督技術以及全尺度的跳躍連接技術優化網絡模型,提高網絡精度,增強其特征提取能力.此外,本文還提出一個端到端的腦部圖像區域分割框架,包括新生兒腦部MIR圖像預處理、訓練、后處理等措施,進一步完成分割操作,同時在公開數據集dHCP上評估了其對新生兒腦部圖像區域分割的性能,得到了優于UNet[11],TransUnet[12]和Swin-Unet的結果.
1.1框架設計
端到端的新生兒腦部MRI影像分割框架主要分為數據預處理,網絡模型訓練和分割結果后處理3個階段,如圖1所示,第一階段為圖像預處理,由于采集到的圖像因采集機器、環境、個人技術等因素會使采集磁場發生變化,導致MRI圖像采集強度不均勻,從而導致成像可能會出現忽明忽暗的現象,這種變化稱為偏置場,這樣的圖像可能會影響網絡性能,所以需要用N4偏置場矯正技術糾正磁場.為增強MRI影像中各部分區域的差異化,提高各部分區域的辨識度,可使用平衡對比度增強技術(BCET)[3]增強影像的對比度,從而達到提高圖像分割精度的目的,第二階段為模型訓練部分,本文基于移位窗口自注意力模塊設計一個新的Transformer網絡,網絡主體結構與Swin-Unet類似,同時結合深度監督機制和全尺度跳躍連接技術提高網絡模型能力,第三階段為分割結果后處理,由于腦部圖像區域存在相似性,可能會導致錯誤分割出部分不正確區域的問題,因此為提高模型精度,在得到分割結果后還會經過后處理階段,通過最大連通域算法,將存在誤差的區域去除,以提高預測結果精度.
1.2圖像預處理
1.2.1圖像裁剪
由于醫學圖像的特殊性,需要針對其特性做一些預處理,從而幫助模型更好地捕獲圖像特征,本文預處理方法主要有圖像裁剪、N4偏置場校正[15]和平衡對比度增強.
圖像裁剪是圖像分割最常用的預處理措施,其目的首先是為保證輸入網絡的圖像符合網絡要求,其次是對醫學圖像這種感興趣區域基本在相同位置的圖像進行圖像裁剪,去除一些明顯不感興趣的區域,從而增大感興趣區域所占圖像的百分數,有利于網絡捕獲圖像特征.最后,當訓練數據匱乏時,進行一些隨機的裁剪可以增強數據,有益于幫助網絡收斂,防止過擬合,增強網絡穩定性。
1.2.2N4偏置場矯正
N4偏置場校正是提高MRI圖像質量的重要方法,主要用于避免環境或人為因素導致的MRI磁場分布不均勻現象,如果不對這種現象做修正,將會降低圖像質量,干擾網絡特征捕獲能力,降低網絡分割精度.N4偏置場校正算法是專門針對該現象的圖像校正技術,是對N3校正技術的改進,效果如圖2所示.
1.2.3平衡對比度增強技術
平衡對比度增強技術是在不改變圖像直方圖分布的情況下提高圖像的對比度,從而使計算機更好地捕獲到圖像特征.該技術有兩種實現方式,分別是基于二次函數的BCETP及基于三次函數的BCETC,本文主要使用二次函數對圖像進行預處理,公式如下:
其中y為輸出圖像,x為輸入圖像,該二次函數通過a,b,c3個系數控制.a由x中的最大灰度值h、最小灰度值l及想要得到的y中的最大灰度值H、最小灰度值L決定,公式如下:
系數b和c為二次函數的轉折點,計算公式如下:
通過BCET技術對圖像進行預處理,提高圖像對比度,使圖像獲得更具表現力的細節,效果如圖3所示.
1.3網絡模型
1.3.1模型結構
在網絡結構部分,本文針對新生兒腦部MRI影像特點設計一個全新的網絡結構,使用移位窗口自注意力模塊作為主要模塊,搭建出類似Swin-Unet的網絡結構,通常增加神經網絡的深度可在一定程度上提高網絡的特征提取能力,所以為增強網絡的特征學習能力,本文將網絡深度定為4層,同時為防止由于網絡深度過深而導致的梯度爆炸和梯度消失等問題,本文還加入了全尺度的跳躍連接以及深度監督機制,具體結構如圖4所示,其中:紫色箭頭即為深度監督機制,從上采樣的圖像中選出3層,通過Patch ExPanding和Linear Projection層直接產生分割結果,用于計算相應的損失;黑色箭頭為全尺度跳躍連接,通過傳入不同尺度的特征,提高深層網絡的感受野,進一步優化網絡.
網絡仍采用經典的U型結構,即編碼器-解碼器結構構成.編碼器部分的輸入圖像需先經過一個Patch Partition層,該層主要將輸入圖像轉換為4×4的patches分辨率圖像,每個patch視為一個token,其中Token_feature為48,經過本層處理即將圖像分辨率編碼為H/4×W/4×48,再經過Linear Embedding將Token_feature轉換為需要的維度96,至此得到需要輸入網絡的圖像編碼.網絡的主要特征編碼模塊由4層相同的移位窗口和Patch Merging模塊構成,移位窗口為網絡的主要特征提取模塊,Patch Merging模塊主要進行圖像的下采樣操作,將圖像最終編碼為H/64×W/64×16C,其中C為所需的通道數.下采樣后會經過一個瓶頸結構,由4層移位窗口模塊構成,之后不再進一步下采樣.解碼器部分與編碼器部分基本相同,使用Patch ExPanding模塊進行圖像的上采樣操作,將圖像逐步恢復為原來大小,最后經過Linear Projection輸出分割結果.
1.3.2移位窗口模塊
移位窗口模塊由Swin Transformer提出,主要在降低計算復雜度的同時提高窗口之間的相互通信能力,從而解決了普通窗口自注意力模塊限制了自注意力只能覆蓋局部而忽略了全局信息,導致精度降低的問題,但移位窗口模塊自注意力計算的過度不平滑,所以本文在Swin Transformer的基礎上改進圖像特征捕獲過程,在Swin Transformer先經過W-MSA再經過SW-MSA特征捕獲過程的基礎上增加兩個移位窗口模塊,如圖5所示,其中:Layerl表示常規的窗口劃分方式,相當于移位窗口的初始狀態,類似于ViT中的劃分,將特征圖劃分大小相同的4個窗口,在每個窗口內進行單獨的自注意力計算;Layer2是將原始狀態的窗口以步長為2向右滑動,此時針對分割后的窗口分別計算即得到左右兩個窗口間的通信信息;Layer3和Layer2相似,是將原始狀態的窗口以步長為2向下滑動,此時針對分割后的窗口分別計算即得到上下兩個窗口間的通信信息;Layer4將所有窗口中的特征相融合,窗口以步長為2向右下方移動,分別計算各窗口.從而使整幅圖像的各位置信息都得到良好的通信.
1.3.3深度監督模塊
深度監督模塊可提高網絡中隱藏層學習過程的直接性和透明度[17-18],可在網絡早期階段提高特征學習的辨別力以及學習的穩健性,同時面對網絡中可能出現的梯度消失及梯度下降等問題有很好的抑制作用.
深度監督模塊的核心思想是為隱藏層提供一個直接監督層,用來引導網絡的訓練,而不是僅監督最后的輸出層,這種監督同樣通過反向傳播達到優化網絡的目的.通常情況下,使用更多的特征判別分類器將具有更高的性能,因此,可利用深層次隱藏層輸出的特征圖訓練判別分類器,以評估這些隱藏層的質量,并不斷優化,從而實現全局優化的目標,同時能有效提高神經網絡的訓練速度和準確性.對于小型訓練數據和相對較淺的網絡,針對分類準確性和學習特征問題,深度監督可以提供強大的糾正以及加速特征學習的能力,通過改善深層次有問題的收斂行為提升網絡的性能.
2實驗設計
2.1數據集
數據集dHCP提供了目前最新并且龐大多樣的新生兒腦部區域MRI影像分割數據,該數據集中的圖像是從24~45周出生的嬰兒腦部區域成像獲得的.
2.2評價指標
本文使用Dice系數和95%Hausdorff距離(95%Hausdorff distance,95HD)[20]兩個指標從不同的角度評估模型的精度,Dice系數是基于區域重合度進行評價,主要評估分割區域的相似程度,取值范圍為0~1,數值越大分割效果越好,表示其結果與目標區域相似度越高.95HD是基于兩個點云之間距離進行評價,它將一個點云的每個點與另一個點云中的所有點計算距離,并選擇距離最近那個點的距離值,然后取這些距離值中的最大值.在此基礎上,選擇95%分位數獲得一個較穩健的距離值.
Dice系數是一種根據交并集衡量集合相似度的度量函數,常被用于衡量圖像分割算法中分割結果與真實標注之間的相似度,其取值范圍為0~1,計算公式為
其中:“X∩Y”表示目標區域X和分割結果Y之間的交集;“X”和“Y”分別表示其中非零元素個數,因為分母存在重復計算X和Y之間共同元素的行為,所以分子系數為2.Dice損失計算方式為1-s,比較適合正負樣本嚴重不平衡的場景,這種情形在醫學圖像中較常見,所以Dice損失在醫學圖像分割模型中經常使用,效果相比于其他的損失函數也相對較好.
95HD是用于比較兩組點集相似度的一種度量方式,其描述了兩個點集之間距離的定義形式,即假設兩個集合A={a1,a2,·,ap},B={b1,b2,··,b4},則這兩個點集之間的Hausdorff距離定義為
其中‖·‖是點集A和點集B之間的距離范式.95HD就是取兩個點集之間最大距離的95%的量化值,在模型中一般都使用95%最大距離表示,這是為避免可能出現的少數極端異常值的影響,有利于提高系數的說服力.
2.3環境及訓練參數
為避免實驗設備或環境導致的誤差,本文對比的所有模型都在同一環境下完成.不同模型的訓練參數也進行了統一:批處理大小為24,優化器為Adam,初始化學習率為1×10~3,輸入圖像大小為256×256×203,最大迭代次數(epoch)為50.
3實驗結果與分析
3.1多功能區域分割結果
本文選取幾種目前較流行的卷積神經網絡以及Transformer結構網絡在數據集dHCP上對9個不同的腦部區域圖像分割結果進行定量比較,分別對分割結果的Dice-Similarity coefficient(DSC)以及95HD系數做出比較,綜合評估網絡性能.實驗結果列于表1和表2.由表1可見,本文方法在多區域分割任務中的DSC和95HD評價指標都有提升,特別在95HD上提升更明顯.由DSC系數可見,相比于卷積網絡Unet,Unet++和Unet3P,TransUnet和Swin-Unet這種Transformer結構網絡在多區域分割上性能更優.本文網絡相比于卷積神經網絡中效果最好的Unet++在DSC上提升1.31個百分點,在HD95上提升2.86mm,相比于Transformer網絡中效果最好的Swin-Unet在DSC上提升0.42個百分點,在HD95上提升5.34mm.實驗結果表明,無論是在區域還是在邊緣上,本文提出的網絡均能達到更好的效果.
表2為對單個區域分別進行分析所得的結果.表2中共劃分9個區域,分別為Cerebrospinal fluid(CSF),Cortical Gray matter(cGM),White matter(WM),Background,Ventricle,Cerebellum,Deep Grey Matter(GM),Brainstem和Hippocampus.由表2可見,本文網絡在大多數的區域中分割效果最好.卷積神經網絡相比于Transformer結構網絡在一些小目標的分割上精度更準確,而在一些大目標的分割效果不如Transformer結構網絡,這可能是其結構特性所致,卷積神經網絡獲取全局信息能力較差,感受野也層層遞減,導致其分割大目標時邊界確定不好,而Transformer結構網絡更注重全局注意力信息的提取,更容易確定大的邊界信息,如Cortical Gray matter(cGM)區域分割精度.對于一些小目標,由于Transformer結構網絡的注意力機制過多地關注了全局信息,而丟失了局部細節,從而使一些小目標特征區域能力不如卷積神經網絡,如Hippocampus區域分割精度,本文方法由于加入了全尺度跳躍連接機制以及深度監督機制,其性能無論是在小目標還是大目標的分割精度上都較均衡,在大目標的任務上精度仍優于卷積神經網絡,在小目標任務上其精度比Swin-Unet這類Transformer結構網絡更優.
3.2消融實驗
為確定本文方法的有效性,本文進行一系列的消融實驗從多方面驗證各結構的有效性,其中包括是否添加全尺度的跳躍連接、是否加入深度監督機制以及各種不同的移位窗口模塊.
表3列出了針對是否添加全尺度跳躍連接模塊以及深度監督機制所得的實驗結果,其中:SW表示僅使用本文提出的移位窗口模塊,其他兩者都未添加;SW+SC表示僅添加全尺度跳躍連接;SW-DS表示僅添加深度監督機制.
由表3可見,僅添加全尺度跳躍連接有效,使模型可同時考慮不同層次的特征信息,從而提高網絡的特征提取能力,優化模型效果。由僅添加深度監督機制的模型結果可見,深度監督機制單獨使用的效果提升較小,主要解決深層次神經網絡訓練時可能出現的梯度消失及收斂速度過慢等問題,提高了網絡效率,將全尺度跳躍連接和深度監督機制相結合可以使網絡從全尺度的聚合特征圖中學習層次信息,融合低層的特征信息和高層的特征信息,效果得到進一步提高。
表4列出了移位窗口模塊的消融實驗結果,本文針對3種不同的移位窗口模塊對比做出分析,其中窗口表示僅使用圖4所示的Layer1×4進行實驗,Swin-W是Swin Transformer中提出的移位窗口,即圖4中(Layerl+Layer4)×2.分別將這兩種移位窗口模塊與本文提出的移位窗口模塊進行對比.由表4可見:使用窗口模塊的網絡精度較低,主要因為其丟失了部分全局注意力,將圖片窗口化后,各窗口之間缺少聯系;Swin-W優于加入了Layer4方法,加強了各窗口之間的聯系,彌補了窗口的缺點,效果較好.但Swin-W中各窗口之間的聯系不太緊密,且窗口之間的注意力過度不平滑,所以本文加入了Layer2和Layer3使各窗口之間的注意力過渡更平滑,增強窗口之間的聯系,實驗結果表明該方法有效,可以提高網絡精度.
綜上所述,本文提出了一個端到端的新生兒腦部圖像多功能區域分割框架,該框架包含預處理、網絡訓練及后處理三部分.在預處理階段分別使用了圖像裁剪、N4偏置場校正和平衡對比度增強技術(BCET)增強圖像的可訓練性,同時加速網絡收斂提高后續步驟的可靠性.網絡訓練階段使用Transformer結構的網絡,以Swin Transformer模型為基礎,創建一個全新的移位窗口模塊,用4個層層遞進的移位窗口平滑窗口之間的注意力過渡,增強各窗口之間的聯系,同時加入多尺度跳躍連接和深度監督機制,幫助網絡快速收斂,可在網絡的每層都獲取到全尺度的特征信息,后處理階段使用最大連通域算法,幫助糾正一些分割錯誤的區域,進一步提高框架的分割精度.在數據集dHCP上實驗評估了本文提出的框架,分析了新生兒腦部圖像9個區域的分割結果在DSC和95HD兩個評估指標上的精度,同時對比了Unet,Unet++,Unet3P,TransUnet和Swin-Unet5個網絡.實驗結果表明,本文提出的網絡得到了較好的分割結果。最后為證明網絡中各結構的有效性,進行了消融實驗評估對網絡改進的效果,包括添加全尺度跳躍連接和深度監督機制的必要性以及不同的移位窗口模塊的有效性.實驗結果表明,添加全尺度跳躍連接和深度監督機制有效,同時本文提出的4層移位窗口模塊優于原有的兩層結構,實驗結果更優.
參考文獻
[1]ZHANG Y G,LIU J Y,YANG W H,etal.Image Super-resolution Based on Structure-Modulated Sparse Representation[J].IEEE Transactions on Image Processing,2015,24(9):2797-2810.
[2]DUBOIS J,ALISON M,COUNSELL S J,etal.MRI of the Neonatal Brain:àReview of Methodological Challenges and Neuroscientific Advances[J].Journal of Magnetic Resonance Imaging,2021,53(5):1318-1343.
[3]FRANKE K,LUDERS E,MAY A,etal.BrainMaturation:Predicting Individual Brain Age in Children and Adolescents Using Structural MRI[J].Neuroimage,2012,63(3):1305-1312.
[4]COLE J H,LEECH R,SHARP D J,etal.Prediction of Brain Age Suggests Accelerated Atrophy after Traumatic Brain Injury[J].Annals of Neurology,2015,77(4):571-581.
[5]ZHANG Y,CHENG J Z,XIANG L,etal.Dual-domain Cascaded Regression for Synthesizing 7T from 3T MRI[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention.Berlin:Springer,2018:410-417.
[6] SULTANA F,SUFIAN A.DUTTA P.Evolution of Image Segmentation Using Deep Convolutional Neural Network:A Survey[J].Knowledge-Based Systems,2020,201:106062-1-106062-25.
[7]LIU Z.LIN Y T.CAO Y,etal.SwinTransformer:Hierarchical Vision Transformer Using Shifted Windows[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE,2021:10012-10022.
[8]VASW ANI A,SHAZEER N,PARMAR N,etal.Attention Is All You Need[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems.New York:ACM,2017:6000-6010.
[9]DOSOVITSKIY A,BEYER L,KOLESNIKOV A.et al.An Image Is Worth 16 X16 Words:Transformers for Image Recognition at Scale[EB/OL].(2020-10-22)[2023-03-10].https://arxiv.org/abs/2010.11929.
[10]CAO H,WANG YY,CHEN J,etal.Swin-Unet:Unet-Like Pure Transformer for Medical Image Segmentation[EB/OL].(2021-03-12)[2023-04-01].https:/arxiv.org/abs/2105.05537.
[11]RONNEBERGER O,FISCHER P.BROX T.U-net:Convolutional Networks for Biomedical Image Segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention.Berlin:Springer,2015:234-241.
[12]CHEN J N,LU Y Y,YU Q H,etal.Transunet:Transformers Make Strong Encoders for Medical Image Segmentation[EB/OL].(2021-02-08)[2023-01-10].https:/arxiv.org/abs/2102.04306.
[13]GUO L J.Balance Contrast Enhancement Technique and Its Application in Image Colour Composition[J].Remote Sensing,1991,12(10):2133-2151.
[14]ZHENG X,LEI Q Y,YAO R,etal.Image Segmentation Based on Adaptive K-Means Algorithm[J].EURASIP Journal on Image and Video Processing,2018,2018(1):1-10.
[15]TUSTISON N J,AVANTS BB,COOK P A,et al.N4ITK:Improved N3 Bias Correction[J].IEEE Transactions on Medical Imaging,2010,29(6):1310-1320.
[16]SUN B Y,WEI X H,CUI J X,etal.Social Activity Matching with Graph Neural Network in Event-Based Social Networks[J].International Journal of Machine Learning and Cybernetics,2023,14(6):1989-2005.
[17]LEE C Y,XIE S,GALLAGHER P,etal.Deeply-Supervised Nets[C]//Artificial Intelligence and Statistics.[S.1.]:PMLR,2015:562-570.
[18]WANG L W,LEE C Y,TU Z W,etal.Training Deeper Convolutional Networks with Deep Supervision[EB/OL].(2015-03-11)[2023-02-15].https:/arxiv.org/abs/1505.02496.
[19]HUGHES E J,WINCHMAN T,PADORMO F,etal.A Dedicated Neonatal Brain Imaging System[J].Magnetic Resonance in Medicine,2017.78(2):794-804.
[20]SETIAWAN A W.Image Segmentation Metrics in Skin Lesion:Accuracy,Sensitivity,Specificity,DiceCoefficient,JaccardIndex,and Matthews Correlation Coefficient[C]//2020 International Conference on Computer Engineering,Network,and Intelligent Multimedia(CENIM).Piscataway,NJ:IEEE,2020:97-102.
(責任編輯:韓嘯)