張利, 陳鶴, 邊桂彬, 李楨*
(1.河北工業(yè)大學(xué)人工智能與數(shù)據(jù)科學(xué)學(xué)院, 天津 300131; 2.中國科學(xué)院自動化研究所, 北京 100080)
隨著計算機硬件性能的提升和數(shù)據(jù)處理算法的發(fā)展,計算機輔助手術(shù)和手術(shù)導(dǎo)航在臨床上有著越來廣泛的應(yīng)用[1]。內(nèi)窺鏡、手術(shù)顯微鏡在術(shù)中為醫(yī)生提供實時、清晰的手術(shù)視野。這些影像數(shù)據(jù)也能被計算機分析,增強計算機輔助手術(shù)系統(tǒng)的場景理解能力,提供更精確的手術(shù)導(dǎo)航信息。特別是近年來深度學(xué)習(xí)在計算機視覺領(lǐng)域取得了許多進展,為臨床影像分析提供了新的方法和動力。
深度光流模型有很好的圖像運動特征分析能力。光流表示兩幅圖像上像素對應(yīng)關(guān)系,在手術(shù)場景中,它表示的是手術(shù)器械的運動和軟組織的形變信息。術(shù)中運動信息一方面可以為手術(shù)場景的語義分割、動作識別等任務(wù)提供輔助信息,也能夠被用于跟蹤軟組織的狀態(tài),以便提高手術(shù)的安全性,減少意外損傷。
光流估計算法大致可以分為基于匹配、基于變分和基于深度學(xué)習(xí)三類?;谄ヅ涞姆椒ㄒ揽績煞鶊D像上的點特征或區(qū)域特征,基于變分的光流方法通過最小化由光度誤差和平滑約束組成的能量函數(shù)來計算光流[2]。這兩種傳統(tǒng)計算機視覺方法通常要經(jīng)過長時間的在線優(yōu)化才能得到準(zhǔn)確的結(jié)果,且容易陷入局部最優(yōu)點[3]、難以保證長期的跟蹤的穩(wěn)定性,這些因素限制了在臨床中的應(yīng)用。
在深度學(xué)習(xí)時代,數(shù)據(jù)驅(qū)動的方式也能解決光流估計問題。Dosovitskiy等[4]首次提出了端對端的光流估計深度學(xué)習(xí)模型FlowNet,在性能上和傳統(tǒng)方法相近,但計算速度顯著提升。隨后,Ilg等[5]進一步提出FlowNet2,通過級聯(lián)的方式逐步優(yōu)化光流估計結(jié)果,在速度和性能上都優(yōu)于傳統(tǒng)方法。因此,FlowNet2在醫(yī)學(xué)領(lǐng)域和非醫(yī)學(xué)領(lǐng)域都被廣泛使用。之后,又有許多不同結(jié)構(gòu)的光流估計網(wǎng)絡(luò)被提出,如(pyramid-warping-cost-volume-based network,PWC-Net)[6]和(recurrent all-pairs field transforms,RAFT)[7]。其中,RAFT是一個遞歸、輕量的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),僅有27×105個參數(shù)。與之相比,FlowNet2的參數(shù)量接近8×107。RAFT的另一個優(yōu)點是在迭代更新時始終維持一個高分辨率的光流場以保持輸入信息的持續(xù)完整性,從而降低預(yù)測誤差。
由于真實光流場標(biāo)簽的稀缺,光流網(wǎng)絡(luò)主要是在合成數(shù)據(jù)集上訓(xùn)練的,如FlyingChairs[4]和FlyingThings3D[8]。研究表明,即使是在非醫(yī)學(xué)數(shù)據(jù)上訓(xùn)練的模型,也具有一定的泛化能力,因此許多研究直接將這些模型用于醫(yī)學(xué)領(lǐng)域的影像分析。利用醫(yī)學(xué)數(shù)據(jù)優(yōu)化模型,可以減小數(shù)據(jù)分布的差異,從而充分發(fā)揮深度學(xué)習(xí)模型的性能。為跟蹤眼科手術(shù)中眼底的形變,Ravasio等[9]使用合成數(shù)據(jù)集訓(xùn)練光流模型,首先分割手術(shù)器械和視網(wǎng)膜眼底,然后將它們重新組合以模擬不同的變形和場景。文獻[10]采用卷積神經(jīng)網(wǎng)絡(luò)對組織形變進行預(yù)測,使用無監(jiān)督學(xué)習(xí)的方法不需要真實光流標(biāo)簽。實驗結(jié)果表明該模型對紋理稀疏的軟組織影像有一定的魯棒性。Ihler等[11]使用一種基于教師—學(xué)生模型的學(xué)習(xí)策略,利用精度高但推理速度慢的教師模型生成大量訓(xùn)練樣本,然后訓(xùn)練輕量化的學(xué)生模型,能夠?qū)崿F(xiàn)內(nèi)窺鏡圖像的實時組織運動估計。
然而,上述研究主要存在的不足之處在于:一是大多數(shù)研究使用在非醫(yī)學(xué)或合成的醫(yī)學(xué)數(shù)據(jù)集上訓(xùn)練的模型,然而領(lǐng)域特異性使模型無法得到十分精確的運動估計結(jié)果;二是沒有充分考慮手術(shù)器械的遮擋。為實現(xiàn)更準(zhǔn)確的運動感知,現(xiàn)基于深度學(xué)習(xí)的理論和方法,針對手術(shù)場景改進光流估計模型。并結(jié)合自監(jiān)督學(xué)習(xí)的訓(xùn)練范式,在提高模型估計精度的同時加快參數(shù)的優(yōu)化速度。其中,降低手術(shù)器械遮擋對模型性能的影響是重點,以期降低光流估計的誤差。
光流估計問題的數(shù)學(xué)描述如下,神經(jīng)網(wǎng)絡(luò)對相鄰時刻的手術(shù)影像It、It+1∈RH×W×3,估計一個二維運動場F∈RH×W×2(H為圖像的高度、W為圖像的寬度)使得
(1)
式(1)中:φ(·)為用于獲得重建圖像I′t的雙線性插值運算,I′t在坐標(biāo)(u,v)的值根據(jù)I′t,(u,v)=It,(u,v)+Fu,v確定。
為解決手術(shù)影像的運動感知問題,設(shè)計如圖1所示的手術(shù)場景感知框架。運動解耦模型基于RAFT光流網(wǎng)絡(luò)的一個改進版本(recurrent all-pairs field transforms-global motion aggregation,RAFT-GMA)[12]。模型由特征提取器、上下文提取器、四維特征相似匹配模塊、卷積-門控循環(huán)單元(convolutional neural networks-gated recurrent unit,CNN-GRU)、全局運動聚合模塊(global motion aggregation,GMA)和手術(shù)器械分割子網(wǎng)絡(luò)組成。引入額外分割任務(wù)的一個原因是研究表明光流估計任務(wù)和語義分割任務(wù)可以相互提高性能[13-14]。

圖1 手術(shù)場景運動感知框架Fig.1 Motion perception framework for surgical scene
首先用基于卷積神經(jīng)網(wǎng)絡(luò)的特征提取器分別提取兩幅相鄰圖像的圖像特征。經(jīng)過下采樣,最終輸出特征圖的分辨率為輸入圖像的1/8。然后使用四維特征相似匹配模塊在不同尺度下對所有像素特征向量的組合計算特征向量的點積相似度。具體來說,計算每個位置和其鄰域內(nèi)特征向量對的點積,得到一個比較兩個輸入特征的四維相關(guān)性陣列C∈RH×W×H×W,計算公式為
(2)
式(2)中:gθ(·)為特征提取器的卷積、激活等一系列運算;I1、I2分別為參考圖像和運動圖像(或相鄰兩幀圖像);i、j分別為當(dāng)前像素在圖像空間的橫縱坐標(biāo);h為特征向量的維度。
通過計算不同尺度下的相關(guān)性矩陣,可以得到相關(guān)性金字塔。
然后用一個獨立的上下文信息提取器和全局運動聚合模塊聚合全局語義信息,上下文信息提取器和特征提取器具有相同的基本結(jié)構(gòu),主要的區(qū)別是前者使用批歸一化(batch normalization)而后者使用實例歸一化(instance normalization)。上下文信息提取器被用于提取參考圖像中的上下文信息,以便更好理解手術(shù)影像中的遮擋。全局信息聚合考慮的遮擋是指在參考圖像中可見但在運動圖像上不可見的區(qū)域。以往的研究采用CNN估計遮擋,或者需要多幀信息并使用時間平滑來推理遮擋,但效果并不顯著。GMA通過對圖像自相似性進行建模,一定程度改善遮擋問題。這是一種基于Transformer的方法,通過自注意力的方式查找參考圖像上不同像素之間的依賴關(guān)系,并對相應(yīng)的運動特征進行全局聚合。GMA在不影響非遮擋區(qū)域推理性能的情況下,顯著改善遮擋區(qū)域中的光流估計,GMA和四維相關(guān)性匹配模塊的輸出向量經(jīng)過拼接后傳遞到CNN-GRU模塊進行迭代優(yōu)化,每次獲得相對于上一輪估計光流場的殘差值ΔF,然后與上一輪迭代光流Fk相加作為補償:Fk+1=Fk+ΔF。預(yù)測的光流場只有原始圖像的1/8,CNN-GRU模塊利用卷積層學(xué)習(xí)一組權(quán)重,用于上采樣低分辨率光流場到與輸入圖像相同的分辨率。本文的網(wǎng)絡(luò)使用兩個CNN-GRU模塊分別估計軟組織和器械的運動。
為了不影響模型的整體推理速度,設(shè)計了輕量化的器械分割子網(wǎng)絡(luò),如圖2所示。包括4層以conv-batchnorm-ReLU為基本單元的跳級連接層和1層conv-sigmoid預(yù)測層。該模塊輸出手術(shù)器械的分割概率圖Mins∈[0,1]H×W。

圖2 器械分割子網(wǎng)絡(luò)的結(jié)構(gòu)Fig.2 Structure of the instrument segmentation sub-network
運動解耦估計模型將相鄰兩個時刻的手術(shù)圖像作為輸入,估計相應(yīng)的運動場。雖然無法獲得真實運動場標(biāo)簽直接計算誤差,但考慮到光流場和圖像之間的約束,可以根據(jù)估計的光流場,對運動圖像進行插值,重建出上一時刻的影像。然后基于亮度恒定假設(shè),將模型優(yōu)化目標(biāo)變?yōu)樽钚』亟▓D像和真實圖像之間的差異。
使用包含4項的聯(lián)合損失函數(shù),可表示為
Ljoint=λpLp+λsLs+λcLc+λsegLseg
(3)
式(3)中:Lp、Ls、Lc、Lseg分別為光度損失、平滑損失、雙向一致性損失和分割損失;λp、λs、λc、λseg為權(quán)重系數(shù)。
光度損失用于衡量真實圖像和重建圖像之間的差異,最常用的度量方式有L1損失、L2損失、像素普查(Census)損失和結(jié)構(gòu)相似性(structure similarity index measure,SSIM)損失等。通用誤差損失[15]可以被視為L1、L2損失的推廣,其數(shù)學(xué)表達式為
(4)
該誤差函數(shù)具有良好的誤差表征能力,當(dāng)α=1,c=1時,它是L1損失的平滑形式,當(dāng)α=2時,又具有L2損失的特征。但在零點附近具有更強的魯棒性。通過大量實驗,發(fā)現(xiàn)同時使用通用誤差損失和Census損失能取得更好的性能。在實驗中,參數(shù)設(shè)置為α=0.9,c=1.1。
平滑損失用于約束光流場的局部連續(xù)性,使用光流的二階導(dǎo)數(shù),并用圖像的梯度加權(quán),圖像梯度小的區(qū)域通常是一個連續(xù)的整體,因此運動也應(yīng)該具有連續(xù)性。帶權(quán)重的平滑損失定義為

(5)
式(5)中:u、v分別為圖像像素的橫坐標(biāo)和縱坐標(biāo);σ為權(quán)重調(diào)節(jié)系數(shù),設(shè)置為16。
雙向一致性損失用來保證前向光流和后向光流具有一致性,定義為
(6)
式(6)中:φ為雙線性插值操作;Ff、Fb分別為前向運動估計函數(shù)和逆向運動估計函數(shù)。
對手術(shù)器械分割子網(wǎng)絡(luò)的輸出,使用全局最大池化操作得到手術(shù)器械的二分類估計概率,然后和真實的二分類標(biāo)簽計算交叉熵。基于如下規(guī)則獲取偽分割標(biāo)簽進行像素級監(jiān)督。
|Fglobal(u,v)-Ftis(u,v)|>T1
(7)
|?Fglobal(u,v)| (8) 式中:T1、T2為閾值;Fglobal、Ftis分別為全局運動場和軟組織運動場;?Fglobal為全局運動場的梯度。 為了提高模型的魯棒性,同時加快模型的學(xué)習(xí)速度,使用了雙向估計的策略。也就是通過改變圖像序列的順序,同時利用前向光流估計和逆向光流估計的誤差優(yōu)化模型。進行雙向估計時,模型共享權(quán)重,然后將兩個方向的損失函數(shù)相加。 為進一步提高為提高模型的最終推理準(zhǔn)確性并加速收斂速度,使用圖3所示的自監(jiān)督策略,對文獻[11]的方法進行了改進。自監(jiān)督學(xué)習(xí)不需要標(biāo)簽,通過數(shù)據(jù)的內(nèi)部聯(lián)系構(gòu)造有監(jiān)督的代理任務(wù)來學(xué)習(xí)運動的特征表示。 圖3 自監(jiān)督運動估計Fig.3 Self-supervised motion estimation 構(gòu)造參數(shù)化的隨機平移運動場、仿射變換場和二階導(dǎo)為常數(shù)的拉伸運動場,作為偽運動標(biāo)簽Fps。然后選取數(shù)據(jù)集中的影像重采樣,得到一組運動前后的新樣本,用于自監(jiān)督學(xué)習(xí)。由于有偽標(biāo)簽,直接使用均方根誤差(mean squared error,MSE)作為訓(xùn)練的目標(biāo)函數(shù)。隨機運動場的參數(shù)以0為中心均勻分布,有助于防止運動估計的漂移。 為訓(xùn)練和評估模型,制作了神經(jīng)外科手術(shù)數(shù)據(jù)集。原始手術(shù)錄像在北京天壇醫(yī)院獲取,共67個手術(shù)片段,包含神經(jīng)膠質(zhì)瘤和腦膜瘤兩類手術(shù)。在預(yù)處理階段,影像數(shù)據(jù)每0.5 s采樣一次,并下采樣到640×360的分辨率。然后,將數(shù)據(jù)集隨機劃分訓(xùn)練集(32個視頻,5 109對圖像)、驗證集(17個視頻,2 550對圖像)和測試集(18個視頻,2 403對圖像)。 為了全面驗證所提出方法的性能,首先選擇了兩種客觀評價指標(biāo),從不同方面反映模型的性能,包括SSIM和峰值信噪比(peak signal-to-noise ratio,PSNR)。 在測試集和驗證集中人工選取關(guān)鍵點并標(biāo)注真實二維運動向量。由于標(biāo)注運動信息不涉及具體的解剖結(jié)構(gòu),因此由非神經(jīng)外科專家完成。最終得到9 221組點,在驗證集和測試集中的數(shù)量分別為4 704和4 517。選取的點在手術(shù)器械和軟組織上均有分布,數(shù)量的比例為1∶2。由于軟組織區(qū)域的面積更大且軟組織運動的非剛體形變更復(fù)雜,因此在軟組織上標(biāo)注了更密集的點。標(biāo)注是在原始分辨率的圖像上進行的,經(jīng)下采樣標(biāo)注的像素誤差也隨之降低,因此能夠保證人工標(biāo)注的誤差達到亞像素水平,遠低于模型的估計誤差。在實驗中計算人工標(biāo)記運動的平均絕對誤差(mean absolute error,MAE)和均方誤差(mean square error,MSE),比使用重建指標(biāo)更直接準(zhǔn)確地反映模型在真實場景下的性能。 訓(xùn)練和測試運動估計框架的計算平臺性能參數(shù)如表1所示。使用12 GB顯存的TITAN Xp顯卡?;赑yTorch深度學(xué)習(xí)框架搭建深度神經(jīng)網(wǎng)絡(luò)模型,采用Adam優(yōu)化器對模型優(yōu)化,學(xué)習(xí)率為10-4,輸入的批大小為8,訓(xùn)練次數(shù)設(shè)置為120次。最優(yōu)超參數(shù)都是通過網(wǎng)格搜索得到的。輸入樣本首先經(jīng)過Z-score歸一化,然后經(jīng)過一系列數(shù)據(jù)增強,數(shù)據(jù)增強只在訓(xùn)練階段使用。使用的數(shù)據(jù)增強方法包括隨機水平翻轉(zhuǎn)、隨機高斯噪聲、隨機尺度變化以及在HSV色彩空間對參考圖像和運動圖像隨機調(diào)整色彩參數(shù)。 表1 實驗服務(wù)器計算平臺參數(shù)Table 1 Parameters of the experimental server computing platform 選擇合適的損失函數(shù)十分關(guān)鍵,因為損失函數(shù)直接決定了模型的優(yōu)化方向。由于在無監(jiān)督訓(xùn)練中是以間接的重建方式來計算誤差的,光度損失只考慮圖像的亮度差異,因此無法保證這些損失函數(shù)與真實的運動對應(yīng)。研究無監(jiān)督目標(biāo)函數(shù)與真實運動誤差之間的關(guān)系,考慮以下常見的光度損失:通用誤差函數(shù)、SSIM損失函數(shù)和Census損失函數(shù),分別用G、S和C′表示。實驗既單獨測試了這幾種損失函數(shù),又測試了所有的組合。在神經(jīng)外科手術(shù)數(shù)據(jù)集上的結(jié)果如表2所示。 表2 無監(jiān)督損失函數(shù)對運動估計的影響Table 2 Influence of unsupervised loss functions on motion estimation 在使用單一光度損失的情況下,使用通用誤差損失訓(xùn)練的模型在重建圖像的平均絕對誤差上得到了最好的結(jié)果,而使用SSIM損失在PSNR上具有最大的誤差,但在SSIM指標(biāo)上取得了最佳結(jié)果。盡管Census損失在重建圖像的誤差指標(biāo)上表現(xiàn)一般,但它對標(biāo)記點的運動估計有最高的準(zhǔn)確度。再分析將這些基本損失函數(shù)兩兩結(jié)合的情況,如果把SSIM誤差和通用誤差損失函數(shù)或Census損失一起使用,重建誤差略微增加,但標(biāo)注點誤差整體降低。通用誤差損失函數(shù)和像素普查損失的組合在大部分指標(biāo)上取得了最小的誤差,但SSIM指標(biāo)略微比在損失函數(shù)中直接加入SSIM誤差要差。最后將3種損失相加,但在真實運動估計沒有上取得更好的結(jié)果。在后續(xù)實驗中,默認使用通用損失函數(shù)和Census損失的組合。 首先分析不同自監(jiān)督任務(wù)對性能的影響,包括使用隨機運動場、模型推理得到的運動場(以下簡稱估計運動場)和同時使用隨機運動場和估計運動場(以下簡稱合成運動場)。不同配置的訓(xùn)練曲線如圖4所示,量化結(jié)果如表3所示??梢钥闯?使用自監(jiān)督任務(wù)顯著加快了訓(xùn)練過程,尤其是當(dāng)使用了隨機運動場。然而,隨著訓(xùn)練的進行,使用估計運動場訓(xùn)練的模型的性能逐漸趕上并最終超過用合成運動場訓(xùn)練的模型的性能。這是由于合成運動場使模型在較短時間內(nèi)學(xué)習(xí)代表通用運動流形的全局運動,但隨機運動場的運動是不真實的。盡管如此,使用合成運動場的曲線誤差更小,表明使用隨機運動場的自監(jiān)督還是必要的。這是由于估計的運動和真實運動之間也存在偏差,使用隨機運動場可以緩解深度學(xué)習(xí)模型的過度擬合。 表3 不同自監(jiān)督方法之間的性能比較Table 3 Performance comparison between different self-supervision methods 圖4 不同自監(jiān)督方法的訓(xùn)練損失函數(shù)變化曲線Fig.4 Curves of training loss with different self-supervision methods 對分割子網(wǎng)絡(luò)對整體性能的影響進行研究,以確定分割子網(wǎng)絡(luò)的結(jié)構(gòu)、分割性能和運動估計性能之間的關(guān)系。將級聯(lián)的殘差連接塊的數(shù)量作為變量,結(jié)果如表4所示??梢钥闯?標(biāo)記點的誤差隨著分割自網(wǎng)絡(luò)模塊復(fù)雜性的增加而降低,而分割結(jié)果的交并比(IoU)和Dice指標(biāo)先快速增加,然后隨著深度的增加達到一個穩(wěn)定的水平。在深度為7時實現(xiàn)了最好的分割性能。原因是當(dāng)級聯(lián)超過7個殘差塊時,偽分割標(biāo)簽的準(zhǔn)確性達到了性能上限。而運動估計也呈現(xiàn)出類似的趨勢,從而證明了分割子網(wǎng)絡(luò)確實能夠提高運動估計的準(zhǔn)確性。 表4 分割子網(wǎng)絡(luò)結(jié)構(gòu)對分割性能和運動估計結(jié)果的影響Table 4 Influence of segmentation subnet architectureon segmentation performance and motion estimation result 將本文方法與具有代表性的光流估計方法進行對比,包括DeepFlow、UFlow和UPFlow,結(jié)果如表5所示。在針對神經(jīng)外科手術(shù)影像進行軟組織運動感知這一任務(wù)上,本文方法在大部分指標(biāo)上都達到最佳性能。在實際應(yīng)用中,與手術(shù)器械的運動相比,對軟組織非剛體運動進行準(zhǔn)確估計更加重要。在神經(jīng)外科數(shù)據(jù)集上,真實軟組織運動誤差指標(biāo)的MAE降低了22.9%。在圖像平面上,軟組織的平均運動估計誤差接近2像素,幾乎是手術(shù)器械誤差的1/2??梢?所提出的基于解耦表示和自監(jiān)督的聯(lián)合訓(xùn)練框架更適合從存在嚴重遮擋的神經(jīng)外科手術(shù)場景中進行精確運動估計與分析。圖5為部分樣本的可視化輸出。色調(diào)與運動的方向相關(guān),飽和度表示運動的相對大小??梢钥闯?與其他方法相比,所提出的方法估計的魯棒性更強,尤其體現(xiàn)在與手術(shù)器械相鄰的圖像區(qū)域。此外,在測試階段,所使用的模型的單次推理時間為0.054 s,基本滿足手術(shù)導(dǎo)航需求。 表5 不同運動估計方法之間的性能對比Table 5 Performance comparison between different optical motion estimation methods 圖像來自手術(shù)顯微鏡,放大倍率為15×,由醫(yī)生實時調(diào)節(jié),經(jīng)相機和視頻采集卡獲得1 080P的高清影像 針對術(shù)中影像的運動感知問題,提出一種基于解耦網(wǎng)絡(luò)和深度學(xué)習(xí)的方法,使用分割子網(wǎng)絡(luò)的語義信息引導(dǎo)運動估計,而運動估計信息又反過來為分割子網(wǎng)絡(luò)提供偽標(biāo)簽。所提出的方法在神經(jīng)外科手術(shù)數(shù)據(jù)集上進行了實驗驗證。除了通常的無監(jiān)督重建指標(biāo),還通過人工標(biāo)注的方法分別驗證對手術(shù)器械運動和軟組織形變估計的準(zhǔn)確性。通過實驗結(jié)果和分析得出以下結(jié)論。 (1)分析無監(jiān)督重建損失和真實運動誤差的關(guān)系,同時使用通用損失函數(shù)和像素普查損失函數(shù)能讓模型的輸出向真實運動場收斂。 (2)聯(lián)合訓(xùn)練分割網(wǎng)絡(luò),有助于提高模型對遮擋場景的理解能力,進而提高運動感知的準(zhǔn)確性。 (3)自監(jiān)督學(xué)習(xí)策略能提高運動估計的準(zhǔn)確性,并明顯加快模型的收斂速度。 盡管所提出的方法與其他無監(jiān)督學(xué)習(xí)方法相比具有優(yōu)勢,但仍有不足之處值得改進:該方法只在神經(jīng)外科手術(shù)數(shù)據(jù)集上進行了驗證,對其他臨床場景的有效性仍有待驗證。1.3 自監(jiān)督學(xué)習(xí)策略

1.4 數(shù)據(jù)集準(zhǔn)備和模型訓(xùn)練

2 結(jié)果分析
2.1 損失函數(shù)對運動估計準(zhǔn)確性的影響

2.2 自監(jiān)督方法對運動估計性能的影響


2.3 分割自網(wǎng)絡(luò)對模型性能的影響

2.4 與其他無監(jiān)督估計方法的對比


3 結(jié)論