999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

雙態(tài)形狀重構及其在前列腺超聲圖像分割中的應用

2023-01-01 00:00:00石勇濤高超李偉尤一飛
計算機應用研究 2023年3期

摘 要:前列腺超聲圖像在臨床中的準確分割對于后續(xù)診斷具有重要的影響,而當前已有研究結論無法精確分割各個部分。提出了一種基于點分布模型和流形學習的雙態(tài)形狀重構的方法,并對前列腺超聲圖像進行分割:通過隨機森林指示隱態(tài)表達進行目標初定位;改進邊界算子以改善粗分割準確性;使用顯態(tài)表達與噪聲部分相鄰的部分灰度顯著點來進行插值計算,從而恢復整體形狀。該分割方式不僅減少了數(shù)據(jù)計算量,還增加了分割可靠性。實驗表明,該方法的DSC指標為97.38%,mIoU指標為95.24%,精度強于當前熱門分割神經(jīng)網(wǎng)絡。

關鍵詞:超聲圖像分割;醫(yī)學圖像分割;流形學習

中圖分類號:TP391.4 文獻標志碼:A

文章編號:1001-3695(2023)03-052-0954-07

doi:10.19734/j.issn.1001-3695.2022.06.0339

Dual-state shape reconstitution and its application in TRUS segmentation

Shi Yongtaoa,b,Gao Chaoa,b,Li Weia,b,You Yifeia,b

(a.College of Computer amp; Information Technology,b.Hubei Key Laboratory of Intelligent Vision Based Monitoring for Hydroelectric Enginee-ring,China Three Gorges University,Yichang Hubei 443002,China)

Abstract:Accurate segmentation of prostate ultrasound images in the clinic has an important impact on the subsequent diagnosis,and the currently available research findings cannot accurately segment each part.This paper proposed a bimodal shape reconstruction method based on the point distribution model and stream shape learning and segmentation of prostate ultrasound images:target initial localization by random forest indication of the hidden state expression,improvement of the boundary operator to improve the coarse segmentation accuracy,interpolation computation using some gray significant points adjacent to the noisy part of the explicit state expression to recover the shape as a whole.This segmentation method not only reduced the data computation amount,but increased the segmentation reliability.Experiments show that the DSC of the proposed method is 97.38% and the mIoU is 95.24%,and the accuracy is stronger than the current popular segmentation neural networks.

Key words:ultrasound image segmentation;medical image segmentation;manifold learning

0 引言

在臨床實踐過程中,經(jīng)直腸超聲(transrectal ultrasonography,TRUS)檢查由于其改進的檢查方式,和傳統(tǒng)的經(jīng)腹部超聲相比,具有其不可比擬的優(yōu)點,已經(jīng)成為臨床中廣泛采用的檢查手段。但是不論采用何種成像技術(比如B超、經(jīng)直腸超聲、核磁等),由于超聲成像固有的成像原理,導致其最終的成像效果都存在不同程度的問題。因為聚焦深度、掃描方向等成像參數(shù)的不同,不同超聲圖像呈現(xiàn)不同的強度分布。超聲圖像自身信噪比很低,包括在拍攝過程中信號消失、散斑噪聲、偽影等原因?qū)е虑傲邢龠吔缒:⒛芤姸炔睿行┑胤缴踔翛]有邊界;其次,不同患者的前列腺在外觀、形狀和大小上都存在著不同程度的差異,即使是屬于同一前列腺的組織也存在著嚴重的異質(zhì)性[1]。

作為臨床上定量分析的需要,往往需要對前列腺的邊界進行分割,分割的精度會對后續(xù)治療方案的制定造成影響[2]。然而,醫(yī)生手工標注前列腺邊界往往會有兩個方面的問題,一是由于需要醫(yī)生在前列腺的邊界上自己標注邊界點,為了保證精度,往往對標注點的密度有一定的要求,這就導致醫(yī)生在描繪前列腺邊界時標注邊界點的注意力和時間都需要有一定的保障。同時,由于采集到的前列腺圖像中有的部分邊界很模糊,導致在這種區(qū)域中肉眼都很難分辨出邊界。在此種情況下,醫(yī)生一般需要憑經(jīng)驗將該處的邊界描繪出來,這就會造成由于醫(yī)生經(jīng)驗不同,同一幅圖像人工標注的部分會有一定的差異,不具備一致性。

為了解決上述人工分割存在的問題,計算機分割應運而生。不少研究者提出了各式各樣的分割算法,總的說來,這些算法分為兩大類。一是根據(jù)人工設計的邊界算子搭配事先設計好的先驗形狀,針對分割問題設計出一個目標函數(shù),采用活動輪廓的形式對邊界進行逐步求精的方式進行優(yōu)化,從而實現(xiàn)對圖像的分割。Shen等人[3]提出了前列腺分割的統(tǒng)計形狀模型;Gong等人[4]使用可形變的超橢圓建立形狀先驗模型,再使用貝葉斯規(guī)則進行搜索,尋找邊界描述最佳參數(shù)向量,對前列腺邊界分割;Yan等人[5]提出了一種局部主動形狀模型方法來解決超聲陰影區(qū)邊界缺失的問題。這些方法雖然取得良好的結果,但其缺陷在于初始化時都需要專業(yè)人士在其中提供手工的初始化點或是其他的高級處理方法才能生效。二是近幾年由于深度學習方向研究的深入而出現(xiàn)的基于深度學習分割算法[6~11]。Yang等人[7]提出邊界完整性循環(huán)神經(jīng)網(wǎng)絡(boundary completion recurrent neural network,BCRNN)模型結構方法,利用循環(huán)神經(jīng)網(wǎng)絡實現(xiàn)特征提取和形狀先驗的結合,在應對邊界模糊和缺失方面有著較好的表現(xiàn);Wang等人[8]提出深度注意力特征(deep attention feature,DAF)模塊結合(convolutional neural network,CNN)網(wǎng)絡方法,充分利用邊界細節(jié)信息和高層語義信息,實現(xiàn)端到端的TRUS圖像分割。兩種技術流派都取得了不錯的分割結果。U-Net和SegNet廣泛地應用在醫(yī)學圖像分割領域,如Alqazzaz等人[9]同時使用了四個SegNet用以MR圖像不同位置的檢測及分割; Almotairi等人[10]使用SegNet檢測肝臟CT中的腫瘤,使其在訓練集中的準確率Acc指標高達99%,但70張圖片的mIoU指標僅有91.26%;Wang等人[11]提出了HRNet,認為降低分辨率會有損神經(jīng)網(wǎng)絡的預測精度,從而在網(wǎng)絡框架中保持了圖像傳遞的分辨率,使分割效果更加準確。但當前神經(jīng)網(wǎng)絡的分割方法都是直接應用于整張圖像,其在噪聲大、數(shù)據(jù)少的數(shù)據(jù)集上訓練變得異常困難。利用全卷積神經(jīng)網(wǎng)絡(fully convolutional network,F(xiàn)CN)[12]通過學習自動組合出精巧復雜的邊界算子來分割TRUS圖像,會使得神經(jīng)網(wǎng)絡更加容易陷入其特有的過擬合狀態(tài)。其原因在于醫(yī)學圖像的噪聲特性一方面需要神經(jīng)網(wǎng)絡更深層更大量的參數(shù)去學習其表達,另一方面少量的數(shù)據(jù)集在大量參數(shù)上的訓練輪次越大,其過擬合的程度也越嚴重。神經(jīng)網(wǎng)絡盡管在很多領域取得魔術般的效果,但常常會出現(xiàn)mIoU、DSC指標不能表述的誤差,本文將在實驗部分對其進行介紹。

總的來說,通過前列腺邊界處的灰度變化,人工設計出的邊界算子就可以比較理想地找出相應的邊界點。本文首先通過機器學習方案實現(xiàn)目標自動定位,再通過對傳統(tǒng)的法向量輪廓邊界算子[13]進行改進,通過加入鄰域的邊界信息組成聯(lián)合邊界算子,其結果相比于傳統(tǒng)的邊界算子,檢測效果更加理想,不僅邊界更加光滑,而且更多真實邊界點被檢測出來,最后將剩余的邊界點進行修正,以符合相應的形狀空間的要求即可。受到Yan等人[5]提出的離散可變性模型(discrete deformable model,DDM)和近年來各種流形學習方案,本文提出一種雙態(tài)形狀重構方法和鄰域點重構形狀的局部主動輪廓方法來實現(xiàn)從定位到粗分割,再到精確邊界點的重構過程。這個方案的優(yōu)越性在于它避免了神經(jīng)網(wǎng)絡直接學習語義特征的困難,轉(zhuǎn)而學習形狀特征,再結合圖像的局部像素特征與形態(tài)特征來精確定位分界點。本文的貢獻主要有以下幾點:a)提出雙態(tài)形狀重構機制,不依賴于人工手動初始化定位點即可準確定位前列腺區(qū)域;b)提出局部鄰域形狀重構,提升了噪點恢復精度和算法的時間復雜度。

1 雙態(tài)形狀表示

在圖像分割領域,某對象的邊緣形狀通常被表示為閉合曲線或是閉合曲線上采樣的點的集合,再由各點間所連線段來表述一個物體的輪廓,這種表示方式的輪廓描述精度與點集合元素的密集程度有關,當顯式地給出所有的點的位置,這種描述的點集合狀態(tài)在此被稱為是顯態(tài)的。當給定某些點,而這個點集合由于過于稀疏導致無法精確描述物體的輪廓時,需要按形狀已知各點分布情況等方式對其進行點位補充,在結合補充點位進而恢復出高精度描述形成新的點集合,那么依據(jù)某些信息補充點集合,此時所需表達的信息是隱態(tài)的。雙態(tài)形狀表示是對一個形狀同時使用兩種不同的表達形態(tài)進行表示,分別為隱態(tài)表達與顯態(tài)表達。

實際過程中的重構函數(shù)(也稱做損失函數(shù))往往采用交叉熵損失(cross-entropy loss,CE)[14]即式(7)或均方誤差(mean square error,MSE)[15]即式(9)。考慮式(1)給出的點向量x代入式(7)或(9)中具有良好的效果,但這兩種重構函數(shù)對于線性約束過于嚴格。在形狀重構過程中,由于是利用離散點描述連續(xù)曲線,往往容易造成二維平面點與點集合非位置上的完全對應,如圖2所示。顯然(a)中的到邊的距離并非原流型訓練所提出的,在這種情況下應當作出改變;圖(b)極端化了這種情況,顯然經(jīng)過移動的不再應當算做損失,而若按之前的方式計算,那顯然是不合理的。

從圖5中看到,大部分檢測到的點雖都已經(jīng)位于真實的邊界,但仍有少量比例的部分點偏離,且這部分點往往和其前后的相鄰點相差甚遠,這與前列腺的邊界特征明顯不符。造成前后邊界點不一致的原因是邊界算子c僅僅沿著各自的法向單獨移動,未考慮其鄰域點的信息,導致前后檢測出的點空間上不一致。因此,對邊界算子c進行改進,在定義邊界算子時將某個點的前后相鄰點的信息綜合考慮進來。前后鄰域點的法向量示意圖及其局部放大圖如圖6所示,其中三根法向量Ni-1,Ni,Ni+1,每根法向量都是一個num×2維的矩陣,其中num是每根法向量中點的個數(shù)。設第i根法向量上點p(x,y)在Ni中的行索引是k,那么點p(x,y)的坐標值為Ni(k,:),則該點前后鄰域點分別是Ni-1(k,:)和Ni+1(k,:),在圖6中用“→”標出。如果考慮更多的鄰域點,則只需要將相同的索引值應用到更多的法向量即可。

5 分割方案和實驗

5.1 分割方案

雙態(tài)形狀重構法(dual-state shape reconstitution,DSSR)的整個分割流程執(zhí)行前,需要首先預訓練雙態(tài)形狀重構器,使得被分割物體的形狀可以以顯態(tài)和隱態(tài)兩種形態(tài)進行表達。

整體分割流程如圖9所示。首先,將圖片表達為隨機森林輸入的數(shù)據(jù)形式,能夠確認滿足條件的部分邊界點,利用這些點作為基礎定位,利用隱式表達的神經(jīng)元恢復出完整輪廓,此時所表達的形狀是完整輪廓的粗定位。其次是在該粗定位的基礎上根據(jù)改進的邊界算子進行一次粗分割,實際上,粗分割后的結果除了少數(shù)的點外,絕大部分都已經(jīng)處于真實的邊界點,可以將粗分割的結果作為最終分割結果的噪聲版本;最后就是對噪聲版本使用本文提出的基于鄰域的局部PCA方式對噪聲區(qū)域的形狀進行重構,得到最終的分割結果。

5.2 實驗結果及分析

本次實驗的超聲圖片全部來自前列腺的臨床檢查數(shù)據(jù),共有132幅圖片,每幅圖像的分辨率是576×768像素,每個像素的大小是0.138 mm×0.138 mm。所有圖片中的目標邊界均由影像科有經(jīng)驗的醫(yī)生標出,這些標出的結果可以作為目標邊界的真值(ground truth),用于后續(xù)分割結果的性能評價。從132幅圖片中隨機地挑選75幅作為訓練用的圖片,剩余的47幅圖片用于分割測試。一些常用評價標準會用來對分割結果進行評判。

一般情況下,對第二步粗分割結果,在確定噪聲點后,會在其兩邊相鄰的鄰域集中分別取3~5個相鄰點,然后利用式(10)(11)對噪聲點進行插值恢復,也即實現(xiàn)對噪聲點的過濾,然后得到相應的真實邊界點。圖10是利用本插值方法恢復的部分圖片效果。其定量的結果如表1所示。

本文初定位過程中通過少量定位點恢復出與實際情況大致相符的輪廓曲線直接影響了最終的分割精度,進一步通過修改給神經(jīng)元送入不同偏向、不同數(shù)量的輸入來測試隱式表達的精確度,在此需要明確的是,本文的設計方案對于定位偏差具備一定的容忍度,這與第三章提到的法向量長度相關,因此,只需要保證粗定位分割線在法向量邊界算子c的活動范圍即可有效檢測。另外,在實驗中為了更好地模擬真實情況,在定位點中送入噪聲點以測試其對噪聲的容忍度。

圖11中,黑點為模擬隨機森林送入的邊界點,紅點為流形學習器的隱式表達還原點,藍色點為假邊界點。(a)~(d)為逐漸縮減送入有效點的規(guī)模進行還原,即使隨機森林給出符合其邊界條件的點特別少,依舊可以被恢復出相對正確且完整的輪廓,(e)~(f)中橙色線條為真實輪廓線條用于參照,(e)圖顯示出在少數(shù)點情況下,出現(xiàn)比例相對較大的偏差時,隱式表達器依舊具備良好效果。

卷積神經(jīng)網(wǎng)絡的監(jiān)督學習方法近年取得巨大成功,但它的成功主要依賴三個因素:容量、算力和標簽。通過實驗本文發(fā)現(xiàn),當前在醫(yī)學圖像領域,寄希望于深度學習取得高精度依舊困難重重,主要原因在于:a)當前的卷積神經(jīng)網(wǎng)絡的監(jiān)督學習方法依舊處在堆參數(shù)量的困境里,即只有巨量參數(shù)量的網(wǎng)絡才可以取得良好效果,且參數(shù)量邊際效應嚴重;b)標簽的精確程度限制了神經(jīng)網(wǎng)絡精度的提升,即使是一些公開數(shù)據(jù)集,專業(yè)人士的標注也存在顯著差異。

本文將近年熱門的神經(jīng)分割網(wǎng)絡使用同樣的數(shù)據(jù)集進行了訓練,本文該部分實驗的網(wǎng)絡框架使用了預訓練好的參數(shù),在此基礎上使用本次實驗數(shù)據(jù)集再繼續(xù)迭代訓練10 000輪,存儲在測試集上表現(xiàn)最好的模型作為最終模型。訓練的GPU使用Tesla V100 16G,CPU為AMD Ryzen 7 6800H,深度學習平臺為PaddlePaddle,推理時僅使用了CPU進行推理。

從表2中注意到,雖然HRNet[11]有與本文DSSR方法相似的精度,但是會在一些地方出現(xiàn)更大的錯誤。如圖12所示,在圖像當中的一些分割部分,HRNet與GT點位出現(xiàn)了明顯偏差,而這種偏差在DSC等指標中難以體現(xiàn)。查閱近年來的醫(yī)學圖像分割方向不難發(fā)現(xiàn),幾乎所有的文章都不會體現(xiàn)出自己的MAD指標和mIoU指標,而是偏向于使用DSC指標,DSC指標往往能有更高的數(shù)字,以體現(xiàn)出所謂的精確度。但局部的巨大偏差并不能被這個指標體現(xiàn),醫(yī)學圖像中,這種錯誤將導致診斷結果出現(xiàn)巨大偏差,因此本文給出了MAD±STD指標的結果,該指標可以體現(xiàn)出離群異常區(qū)域的重大錯誤,不會受到mIoU、DSC虛高之類的影響。

另外,在圖像多邊界處HRNet往往也會出現(xiàn)偏差,圖12左下角可以發(fā)現(xiàn)HRNet的mask覆蓋會比label更加寬泛,錯誤的分割到了下部分非前列腺邊界。對此,本文基于法向量的邊界檢測由于具備方向性,邊界特征在方向上相對容易區(qū)分,因此不會出現(xiàn)大量的誤差分割點,而個別誤差點可以通過形狀特征糾偏,所以擬合效果更加精確。圖13所示,紅色點為ground truth,白色點為HRNet分割的采樣點,綠色點為DSSR方法分割點。

本文以同樣的數(shù)據(jù)集測試了輕量級神經(jīng)網(wǎng)絡模型BiSeNetV2[19],盡管使用了對于分割問題更加友好的DiceLoss損失函數(shù),但在訓練收斂后其mIoU精度僅0.728 2,且其語義信息的表達并不可靠,如圖14所示。這可能意味著在環(huán)境噪聲較大的情況下參數(shù)量是精度的支撐。

在表2數(shù)據(jù)中,加粗字體表示所有方法中最好的情況,該表顯示輕量級模型BiSeNetV2由其參數(shù)量優(yōu)勢具備最快的推理速度,但其精準度相對于表內(nèi)其他方法是最低的;專為醫(yī)學圖像領域設計的SegNet以其龐大的參數(shù)量在耗時最長中取勝;HRNet的設計目標是以不損失分辨率而設計的,其耗時幾乎與U-Net相當,取得了所有方法中最高的精確度成績。而相比之下DSSR方法沒有直接學習圖像,而是學習的物體形態(tài),再以一種可克服噪聲的算子將形態(tài)與圖像進行匹配,使得噪聲不會直接對網(wǎng)絡學習產(chǎn)生影響,所使用的參數(shù)量也大大少于神經(jīng)網(wǎng)絡,保證了在推理時間與精確度方面有最佳的取舍。

為了測試DSSR分割的通用性,本文在cancer imaging archive(TCIA)[20]獲取了不同尺度的CT圖像數(shù)據(jù),并使用DSSR對其進行分割。得益于其在神經(jīng)元訓練階段訓練時采用的是高層語義信息,在分割其他種類圖像時無大規(guī)模參數(shù)重新訓練模型。而當前神經(jīng)網(wǎng)絡的分割方法由于沒有訓練過此類圖像而需要重新進行訓練才能正常運行,但受限于數(shù)據(jù)集過小的缺陷,本文無法有效訓練其他的神經(jīng)網(wǎng)絡方法。DSSR方法對CT圖像分割結果如圖15所示,其中紅色分割線為醫(yī)生標記,綠色分割線為本文算法分割結果。

6 結束語

醫(yī)學圖像在成像上具有低對比度、多噪聲、小數(shù)據(jù)集等特點,導致當前大多數(shù)參數(shù)量大、層數(shù)深的神經(jīng)網(wǎng)絡要么處于欠擬合狀態(tài),要么處于過擬合狀態(tài);而淺層的輕量級網(wǎng)絡無法克服圖像噪聲大的分割問題。傳統(tǒng)的醫(yī)學圖像分割方法雖然可以克服這些問題,但需要專業(yè)人士在自動化分割前手動標記。為解決這些問題,本文提出了含有兩種形態(tài)的重構器分別用于粗定位重構以及精細分割時的邊界點恢復,其分割精度優(yōu)于當前其他分割方法,相比于神經(jīng)網(wǎng)絡有競爭力的方法, 其運算速度更具優(yōu)勢。

筆者未來將會令雙態(tài)形狀重構與神經(jīng)網(wǎng)絡深度學習的方式融合,以達到在高精度的基礎之上縮減神經(jīng)網(wǎng)絡參數(shù)量,在輕量級模型中實現(xiàn)更有競爭力的分割精度。同時,也將嘗試把新的衡量尺度融入神經(jīng)網(wǎng)絡的損失函數(shù)和評價指標當中,以達到更高的分割精度的同時縮小誤差。

參考文獻:

[1]畢卉,楊冠羽,唐慧,等.基于改進主動形狀模型的前列腺超聲圖像分割算法[J].東南大學學報:自然科學版,2017,47(5):879-883.(Bi Hui,Yang Guanyu,Tang Hui,et al.Prostate ultrasound image segmentation algorithm based on improved active shape model[J].Journal of Southeast University:Natural Science Edition,2017,47(5):879-883.)

[2]Wu Pengfei,Liu Yiguang,Li Yongzhong,et al.Robust prostate segmentation using intrinsic properties of TRUS images[J].IEEE Transa on Medical Imaging,2015,34(6):1321-1335.

[3]Shen Dinggang,Zhan Yiqiang,Davatzikos C.Segmentation of prostate boundaries from ultrasound images using statistical shape model[J].IEEE Trans on Medical Imaging,2003,22(4):539-551.

[4]Gong L,Pathak S D,Haynor D R,et al.Parametric shape modeling using deformable super ellipses for" Prostate segmentation[J].IEEE Trans on Medical Imaging,2004,23(3):340-349.

[5]Yan Pingkun,Xu Sheng,Turkbey B,et al.Discrete deformable model guided by partial active shape model for TRUS image segmentation[J].IEEE Trans on Biomedical Engineering,2010,57(5):1158-1166.

[6]Milletari F,Navab N,Ahmadi S A.V-net:fully convolutional neural networks for volumetric medical image segmentation[C]//Proc of the 4th International Conference on 3D Vision.Piscataway,NJ:IEEE Press,2016:565-571.

[7]Yang Xin,Yu Lequan,Wu Lingyun,et al.Fine-grained recurrent neural networks for automatic prostate segmentation in ultrasound images[C]//Proc of AAAI Conference on Artificial Intelligence.2017.

[8]Wang Yi,Dou Haoran,Hu Xiaowei,et al.Deep attentive features for prostate segmentation in 3D transrectal ultrasound[J].IEEE Trans on Medical Imaging,2019,38(12):2768-2778.

[9]Alqazzaz S,Sun Xianfang,Yang Xin,et al.Automated brain tumor segmentation on multi-modal MR image using SegNet[J].Computational Visual Media,2019,5(2):209-219.

[10]Almotairi S,Kareem G,Aouf M,et al.Liver tumor segmentation in CT scans using modified SegNet[J].Sensors,2020,20(5):1516.

[11]Wang Jingdong,Sun Ke,Cheng Tianheng,et al.Deep high-resolution representation learning for visual recognition[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2020,43(10):3349-3364.

[12]Long J,Shelhamer E,Darrell T.Fully convolutional networks for semantic segmentation[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2015,39(4):640-651.

[13]Hodge A C,F(xiàn)enster A,Downey D B,et al.Prostate boundary segmentation from ultrasound images using 2D active shape models:Optimisation and extension to 3D[J].Computer Methods amp; Programs in Biomedicine,2006,84(2-3):99-113.

[14]Shore J,Johnson R.Axiomatic derivation of the principle of maximum entropy and the principle of minimum cross-entropy[J].IEEE Trans on Information Theory,1980,26(1):26-37.

[15]EPHRAIM.Speech enhancement using a minimum mean square error short-time spectral amplitude estimator[J].IEEE Trans on Acoust Speech Signal Processing,1984,32(6):1109-1121.

[16]Rama A,Rurainsky J,Tarrés F,et al.Partial PCA in frequency domain[C]//Proc of the 50th International Symposium ELMAR.Piscataway,NJ:IEEE Press,2008:463-466.

[17]Ahn J H,Oh J H.A constrained EM algorithm for principal component analysis[J].Neural Computation,2003,15(1):57-65.

[18]Tipping M E,Bishop C M.Probabilistic principal component analysis[J].Journal of the Royal Statistical Society,2010,61(3):611-622.

[19]Yu Changqian,Gao Changxin,Wang Jingbo,et al.BiSeNetV2:bilate-ral network with guided aggregation for real-time semantic segmentation[J].International Journal of Computer Vision,2021,129(11):3051-3068.

[20]Clark K,Vendt B,Smith K,et al.The cancer imaging archive(TCIA):maintaining and operating a public information repository[J].Journal of Digital Imaging,2013,26(6):1045-1057.

收稿日期:2022-06-25;修回日期:2022-08-18 基金項目:國家自然科學基金資助項目(61871258);湖北省中央引導地方科技發(fā)展專項資助項目(2019ZYYD007)

作者簡介:石勇濤(1978-),男(通信作者),湖北天門人,教授,碩導,博士,主要研究方向為模式識別、醫(yī)學圖像處理、最優(yōu)化方法(ytshi@ctgu.edu.cn);高超(1995-),男,湖北孝感人,碩士研究生,主要研究方向為深度學習、醫(yī)學圖像處理;李偉(1998-),男,江蘇泰州人,碩士研究生,主要研究方向為深度學習、醫(yī)學圖像處理;尤一飛(1997-),男,湖北宜昌人,碩士研究生,主要研究方向為深度學習、醫(yī)學圖像處理.

主站蜘蛛池模板: 精品视频在线观看你懂的一区| 国产欧美精品午夜在线播放| 亚洲国产中文精品va在线播放| 91极品美女高潮叫床在线观看| 九九久久精品免费观看| 亚洲香蕉久久| 亚洲成人在线网| 五月天在线网站| 国产本道久久一区二区三区| 69免费在线视频| 无码视频国产精品一区二区| 人人91人人澡人人妻人人爽 | 91色爱欧美精品www| 久久综合干| 亚洲日本中文综合在线| 亚洲日本精品一区二区| 免费人成在线观看成人片| 高潮毛片无遮挡高清视频播放| 日韩精品成人在线| 91免费国产高清观看| 国产精品lululu在线观看| 国产成人欧美| 一级一级一片免费| 亚洲美女一级毛片| 天天做天天爱夜夜爽毛片毛片| 午夜视频免费试看| 欧美日韩一区二区三区在线视频| 2019国产在线| 日韩美一区二区| 国产成人高清精品免费5388| 波多野结衣中文字幕一区二区| 婷婷六月色| 97超碰精品成人国产| 白浆免费视频国产精品视频| 成年免费在线观看| 国内丰满少妇猛烈精品播| 97视频在线精品国自产拍| 亚洲精品无码AⅤ片青青在线观看| 浮力影院国产第一页| 麻豆AV网站免费进入| 毛片久久久| 日韩欧美高清视频| 美女一区二区在线观看| 国产精品lululu在线观看 | 国产亚洲视频免费播放| 色综合热无码热国产| 无码日韩视频| 久久伊人色| 亚洲人在线| 日本尹人综合香蕉在线观看| 91无码人妻精品一区| 免费无码网站| 久久久久久久久18禁秘| 成人午夜久久| 久久国产亚洲偷自| 久久黄色一级片| 国产高颜值露脸在线观看| 玖玖免费视频在线观看| 亚洲色成人www在线观看| 亚洲成A人V欧美综合| 成人国产免费| 91欧美亚洲国产五月天| 2020亚洲精品无码| 激情综合婷婷丁香五月尤物| 亚洲男女在线| 专干老肥熟女视频网站| 亚洲欧美日韩天堂| 中国一级特黄大片在线观看| 亚洲人成网站观看在线观看| 四虎永久免费地址在线网站 | 色综合国产| 国产91久久久久久| 国产精品精品视频| 色婷婷成人网| 亚洲伊人久久精品影院| 欧美成人区| 看看一级毛片| 91久久偷偷做嫩草影院免费看| 好紧好深好大乳无码中文字幕| 欧美精品v日韩精品v国产精品| 国产在线八区| 91区国产福利在线观看午夜|