999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

頭影測量標志點自動識別算法研究進展

2022-08-25 09:57:10趙從義姚旭峰
軟件導刊 2022年8期
關鍵詞:測量檢測方法

趙從義,姚旭峰

(1.上海理工大學健康科學與工程學院,上海 200082;2.上海健康醫學院醫學影像學院,上海 201308)

0 引言

頭影測量分析(Cephalometric Analysis)是對人類頭骨牙齒和骨骼關系分析的一種方法。牙醫、正畸醫生和口腔頜面外科醫師經常將其用作輔助診療的工具[1]。頭影測量分析被廣泛用于口腔正畸臨床診斷、矯治設計、療效評價、頭面部結構研究和兒童生長發育評估等方面[2]。頭影測量分析需先從面部側面拍攝X 光圖像,然后標注出頭部側位X 射線圖像中的解剖標志點,再測量和計算這些解剖標志點之間的角度、距離等,根據這些測量值分析與評估口腔解剖結構類型的異常,從而擬定治療計劃。在當代正畸診斷和治療計劃中,識別標志點是必不可少的步驟。

截至目前,基于頭顱側位片目測評估解剖標志點仍然是一項困難的任務,需要由受過專門培訓的臨床醫生進行手動測量,但是手動測量過程經常導致測量誤差[3]。這種人工測量十分耗時,口腔專家平均需要15~20min 用以處理每個單獨的頭顱側位片[4]。由于頭顱側位片手動測量標志點經常出現誤差且非常耗費時間,大量國內外學者開始研究全自動頭影測量標志點識別方法,它將減輕常規臨床服務的工作量,并為正畸醫生節約更多時間以制定最佳治療計劃。

自20 世紀90 年代以來,越來越多的學者提出用于標志點定位識別的自動化框架方法,它們大致可分為以下幾類:基于常規圖像處理的方法、基于模板匹配及統計的方法、基于機器學習的方法以及基于深度學習的方法。目前,牙科臨床依舊采用手動標注頭影測量分析標志點,自動化識別方法并未應用到臨床,這種情況迫切需要自動化技術應用到牙科臨床。因此,本文對該領域相關研究進行了全面系統的回顧,主要介紹基于常規圖像處理方法、模板匹配及統計學方法、機器學習以及深度學習的頭影測量分析標志點自動識別算法進展,并對每種方法優缺點進行討論。

1 基于常規圖像處理方法的標志點識別算法

圖像處理技術起源于20 世紀60 年代,圖像處理技術主要包括圖像增強、圖像分割、圖像邊緣檢測與提取等。標志點通常位于頭顱邊緣輪廓上,因此標志點的自動識別以及定位在最早期是采用基于圖像處理技術的邊緣檢測算法實現。常規圖像處理標志點自動識別算法性能由標志點的精度決定,標志點的精度描述為真實值和估計值之間的歐幾里得距離平均誤差加標準差。

如表1 所示,Levy-Mandel 等[5]是最早研究標志點自動識別算法的學者,其基本思想是模擬人工操作,在提取相關邊緣后利用具有典型顱面結構形狀先驗知識的算法對檢測到的線條按預定順序進行跟蹤。原始圖像先用濾波算子進行處理,然后用邊緣檢測器進行處理。標志點的位置是由基于一組預定義的線、交叉點和外部邊界的幾何特性確定。在此基礎上,Parthasarathy 等[6]通過加入分辨率金字塔縮短識別時間,該算法在較小尺寸、較低分辨率的圖像上定位感興趣的特征,在5 張X 射線圖像上進行測試,能夠以2 mm 的精度定位9 個標志點中的4 個。Tong 等[7]改進了Parthasarathy 的工作,引入分辨率金字塔,對圖像進行中值濾波,并去除噪聲。在對圖像應用邊緣增強算子后,跟蹤頜骨和前臉的骨骼輪廓,采用閾值化和邊緣增強相結合的方法提取人臉正面的膚色輪廓,然后利用這些信息確定標志點的位置。Tong 等[7]將標志點的數量增加到26 個,對5 幅圖像的實驗表明,40%的標志點誤差在1 mm以內,70%的標志點誤差在2 mm 以內,95%的標志點誤差在5 mm 以內。通過以上常規圖像處理方法比較,在邊緣檢測后加入分辨率金字塔提高了標志點檢測精度及數量,原因是提取到了更多的底層特征。

Davis等[8]在黑板框架中開發了一個回憶算法,利用黑板體系結構和模型的集成系統中的多個知識源,黑板和任務控制模塊允許特定的基于知識的模塊對黑板上的可用信息進行標志點定位。該算法定位了19 個標志點,在10張X 射線圖像上對該算法進行了測試,最終結果顯示,63%的標志點誤差在1mm 以內,70%的標志點誤差在2mm以內。Ren 等[9]提取了嵌入先驗知識的顱骨輪廓,根據X線頭影測量照片中灰度和特征點的分布情況,采用基于多層次知識的圖像層方法。在有10 個樣本的實驗中,有24個點被定位,誤差在1 mm 以內,其中19 個點誤差在0.5 mm 以內。He 等[10]首先采用中值濾波去除噪聲,隨后采用圖像閾值進行輪廓提取,最后采用區域生長與曲線擬合進行標志點定位。對10 張X 射線圖像進行測試,最終確定20 個標志點,50%的標志點在1 mm 范圍內。以上方法通過先驗知識得到相應模型,再根據模型得到標志點位置,提高了標志點檢測數量及精度,為后續模板匹配及統計學方法運用打下了基礎。

Table 1 Summary of common image processing methods for automatic identification of landmarks表1 標志點自動識別常規圖像處理方法匯總

常規圖像處理方法的優勢在于并不需要很多數據量,但是缺點也很明顯,常規圖像處理方法識別的標志點不多,并且需要通過牙科醫生及學者的先驗知識,提取關于標志點位置的輪廓,并基于先驗知識識別標志點,但是這些方法并不可靠,因為它們的性能與輸入圖像的質量有很大關系,并且找不到一些不在任何特征輪廓上的標志點,因此常規圖像處理方法不適用于牙科臨床。

2 基于模板匹配及統計方法的標志點識別算法

在20 世紀90 年代初期,基于圖像處理方法產生的問題模板匹配及統計學方法引起了學者的關注。通過訓練出的模板,可以快速定位到標志點所在區域,再通過統計學方法識別出標志點位置。

常規圖像處理方法之后,模板匹配技術首次應用于標志點識別。如表2所示,Cardillo 等[12]使用數學建模減少標志點的搜索區域,然后應用基于數學形態學的模板匹配技術確定標志點的確切位置。該算法在40 幅X 射線圖像上進行了測試,并定位了20 個標志點,85%的標志點精度在2 mm 之內,5%的標志點精度在2~5 mm 之間,10%的標志點精度在5 mm 以外。Rudolph 等[13]利用空間光譜學知識建立統計灰色模型,該模型識別了15 個標志點,所識別標志點平均誤差在3.1 mm 以內。主動形狀模型(Active shape models,ASM)[14]首先在Hutton 等[15]的研究中被用作標志點檢測,該算法在63 張圖像上進行了測試,識別了16個標志點,13%的標志點精度位于1 mm 以內,35%的標志點精度位于2 mm 以內,74%的標志點精度位于5 mm 以內。ASM 的應用大幅度提高了標志點識別精度,可以看出良好的模型能極大提高標志點檢測精度。

模板匹配技術非常依賴模型,隨后模板匹配技術與統計學的組合方法被提出,Romaniuk 等[16-17]使用線性和非線性模型定位標志點,通過3 種統計方法進行估計:剛性配準、基于主成成分分析(Principal Component Analysis,PCA)的線性方法和基于核PCA 的非線性模型。最佳方法的平均誤差為3.3 mm,精度也很高。在診斷中,正畸醫生通常會追蹤顱面結構以進行分析,但是對于某些梯度較低或反轉的局部配置,單純使用圖像處理技術不可避免地會失敗。Romaniuk 等[18]提出一種類型最短路徑的區域方法,以結合魯棒性和較低的算法成本解決這些問題,但他的方法只能提取顱外輪廓。Yue 等[19]提出一種基于主成分分析的灰度圖像塊形狀模型的組合模型,在模型訓練中,選取12 個標志點作為參考點,根據解剖學知識將每個訓練形狀劃分為10 個區域,利用主成分分析表征區域形狀變化和每個特征點的統計灰度輪廓。在輸入圖像上定位特征點是一個被分為兩個階段的過程,首先通過圖像處理和模式匹配技術識別參考標志點,對輸入圖像進行形狀分割,然后針對每個區域利用改進的主動形狀模型對其特征點進行定位。根據先驗知識將定位的點與細分曲線連接起來,就可以勾畫出所有的顱面解剖結構,允許用戶以多種不同的交互方式修改結果。該模型對12 個解剖標志點進行檢測,在2 mm 和4 mm 范圍內的標志點檢測成功率分別為71%和88%。Romaniuk[18]和Yue[19]都采用了組合方法,但Yue 提出的方法精度更高,區別在于前者只采用了簡單的線性與非線性模型,雖然統計學方法提高了精度,但組合方法也非常依賴模板模型以提高精度。

Table 2 Summary of statistical template methods for automatic identification of landmarks表2 標志點自動識別統計模板方法匯總

可以看出,雖然模板匹配方法加上統計學的方法使標志點識別精度大幅提高,基于模型的方法產生的模型可以檢測最可能的區域,組合方法考慮了主動形狀外觀模型并且通過與模板匹配相結合以細化頭影測量標志點,但是很難選擇有代表性的模板或形狀,并且不能很好地適應單個標志點的噪聲和可變性。實際牙科臨床中,并不能通過一套固定的模板匹配方法及統計學方法識別不同患者的頭影測量標志點,不能很好地應用于臨床。

3 基于機器學習方法的標志點識別算法

近年來,利用機器學習方法在射線圖像中自動檢測標志點方面取得了重大進展[20-23]。2014 年與2015 年國際生物醫學影像國際研討會舉辦了兩屆自動頭影測量X 射線標志點檢測挑戰賽,許多學者提出了基于機器學習方法的標志點檢測方法。如表3 所示,基于穩健和準確的形狀模型匹配結果使用隨機森林為每個標志點的位置投票,然后使用統計形狀模型規范所有標志點的投票,進而識別標志點的位置,這使得標志點識別精度大幅提升。頭影測量挑戰賽中,評估算法性能的方法被提出,主要評估標準被稱為成功檢測率(Success Detection Rate,SDR)[24]。SDR 是從標志點實際位置一定范圍內的預測標志點數量比率。

Ibragimov 等[25]開發了一種框架,利用類Haar 特征描述每個標志點的強度外觀,并應用隨機森林理論將這些特征組合成標志點候選點檢測器,將具有最大探測器響應的圖像像素作為標志點候選點。為了選擇最佳候選點,該框架依賴于標志點之間的空間關系,通過高斯核密度估計建模并通過基于最優分配的形狀表示找到最具代表性的標志點。在100 張頭影測量圖像上訓練該框架后,在測試集100 張圖像上進行了驗證,2 mm 以內檢測成功率為72.7%,4mm 以內檢測成功率87.68%。Chu 等[26]建立了一種基于隨機森林回歸的全自動二維頭影X 線片標志點檢測算法。其算法包括兩個階段:標志點檢測階段和標志點修改階段。為了修正未被正確檢測到的標志點位置,建立了稀疏形狀合成模型。標志點檢測階段可進一步分為兩個步驟:基于X 射線圖的標志點檢測器訓練步驟和標志點預測步驟。首先為每個標志點訓練一個單獨的基于X 射線圖的標志點檢測器,確定標志點位置后進一步添加先前形狀約束以修改標志點位置。對100 幅測試的頭影測量圖像的驗證表明,該方法在100張測試數據集上2 mm 以內檢測成功率為39.7%,4 mm 范圍內檢測成功率為77.79%。Chen等[27]提出一種通過數據驅動的圖像位移估計全自動標志點檢測方法,在訓練中隨機抽樣了真實標志點位置周圍的一組正方形圖像斑塊,這些斑塊的視覺特征和對標志點的位移構成了訓練數據。采用一種數據驅動的方法對每個斑塊標志點位置進行投票,將每一張選票視為一個小的高斯分布,并將它們聚合到一個概率圖中,概率圖的分布對應檢測到的標志點位置。該算法在100 張測試數據集上2 mm 以內檢測成功率為43.8%,4 mm 范圍內檢測成功率為78.42%。Mirzaian 等[28]提出一種基于隨機決策森林全局最優圖形結構的方法,該方法有兩個階段:訓練階段和測試階段。在訓練階段從一組以標志點位置為中心的窗口中提取上述特征作為真正樣本,從一組不靠近標志點位置隨機選擇的窗口中提取上述特征作為真負樣本。對于新圖像,采用圖片結構算法對公式中的代價函數進行全局優化,將最小生成樹應用于19 個標志點,并將權重設置為協方差值以解決標志點自動識別問題。在100 張測試數據集上,2 mm 以內檢測成功率為58.2%,4 mm 范圍內檢測成功率為80.68%。Vandaele 等[29]將問題處理為19 個獨立的二值像素分類問題。標志點由16 × 16 的圖像塊表示,并以6 種不同的分辨率提取。隨后使用隨機森林作為像素分類器,在距標志點最多4 mm 的半徑內隨機提取訓練像素。在預測階段,預測從標志點可能分布中提取的多個像素位置的類別,然后返回被分類為正值且置信度最高的像素的中值位置作為最終標志點位置。該方法在100 張測試數據集上2 mm 以內檢測成功率為70.26%,4 mm 范圍內檢測成功率為88.53%。Ibragimov 等[25]采用類Haar 特征可以更好地得到底層特征,通過以上機器學習方法的對比可以看出Ibragimov 等[25]的框架優于其他競爭對手的關鍵區別在于形狀模型,形狀模型的使用使得其識別精度更高。以上為2014 年挑戰賽提出的算法,可以看出在4 mm 范圍內檢測成功率較高,但是在2 mm 以內的檢測成功率并不高,難以應用于臨床。

在2015年的挑戰賽中,更高精度的算法被提出。2015年挑戰賽冠軍算法由Lindner 等[30]提出,該算法基于約束局部模型框架中隨機森林回歸投票的全自動標志點檢測系統。在訓練階段對每個標志點訓練一個隨機森林回歸器,每個圖像都用感興趣對象上的標志點名稱進行注釋。捕獲對象所有標志點的圖像區域被重新采樣到標準化參考幀中。對于每個標志點的斑塊進行采樣,并在與參考幀中的真實位置相差較大的一組隨機位移處提取特征。訓練一個回歸隨機森林函數預測標志點最可能位置,每個樹存儲到達該樹所有訓練樣本位移的平均偏移量和標準差,對于排列形狀,運用PCA 基于圖像集合中的標志點訓練統計形狀模型。在檢測階段,給定對象姿態的初始估計,圖像的感興趣區域被重新采樣到參考幀中,然后在特定范圍內搜索每個估計的標志點位置周圍區域并提取每個位置的相關特征值。這些參數將用于隨機森林回歸器投票選出累加器數組中的最佳位置,在累加器數組中,每棵樹都將獨立投票以預測標志點位置。最終在150 張測試數據集下,在2 mm 精度范圍內,平均誤差為1.6~1.7 mm,檢測成功率為75%~85%。機器學習的標志點識別大都采用隨機森林方法預測標志點位置,但精度大幅依賴于統計形狀模型,從Ibragimov[25]與Lindner[30]的比較可以看出,采用的約束局部模型可以更好地適應標志點檢測任務。

Table 3 Summary of machine learning methods for automatic identification of landmarks表3 標志點自動識別機器學習方法匯總

可以看出,基于機器學習方法的標志點自動識別精度大幅提高,2 mm 范圍內的檢測成功率達到75%以上,而且提高了形狀的可變性和抗噪性。但是機器學習方法需要大量的頭顱側位片才能提高準確性,且通過機器學習方法的比較可以看出,機器學習方法對形狀模型要求很高,良好的形狀模型才能帶來更高的識別精度,并且機器學習方法在實際應用中,識別性能不好,并不能用于牙科臨床。

4 基于深度學習方法的標志點識別算法

深度學習技術是一種分層結構模型,可以從原始圖像中提取獨特的特征,從而使端到端模型具有靈活性和健壯性。這些模型將顯著信息傳播到順序卷積層,同時探索它們之間的空間關系。目標檢測是計算機視覺領域的基本任務之一,學術界對其已有近20 年的研究歷史。近年來,隨著深度學習技術的發展,目標檢測算法也從基于手工特征的傳統算法轉向了基于深度神經網絡的檢測技術。從卷積神經網絡(Convolutional Neural Network,CNN)到基于卷積神經網絡的特征區域方法(Regions with CNN Features,RCNN),到基于快速卷積神經網絡的特征區域方法(Fast/Faster Regions with CNN Features,Fast/Faster RCNN)、你只看一次方法(You-Only-Look-Once,YOLO)和單次多框檢測方法(Single Shot Multibox Detector,SSD)系列,這些算法在開放目標檢測數據集上的檢測效果和性能都很出色。

最先將卷積神經網絡用于醫學影像多標志點定位的是Payer[31],探討了CNN 在醫學圖像數據多標志點定位中的適用性,它有效地結合了精確的局部外觀和解剖標志點位置。基于深度學習的標志點定位算法中主要分為一階段檢測方法與兩階段檢測方法,一階段檢測方法是基于圖像直接得到標志點位置,兩階段方法通常是先得到標志點所在區域,隨后在區域內通過回歸網絡得到標志點位置。

如表4 所示,一階段算法中,Arik 等[32]首次研究了CNN 在全自動頭影測量中的應用。該框架利用CNN 檢測描述患者解剖結構的標志點,并對頜骨和顱底區域的病理進行定量評估并且使用了公開數據集以訓練CNN 模型。該算法首先在訓練階段為每個標志點選取81×81 的像素塊,經過卷積神經網絡輸出1×1 的像素,最終輸出的1×1 像素為標志點位置。最終識別了19 個標志點,在250 張測試集的測試中,2 mm 內的檢測成功率達75.37%,4 mm 以內的檢測成功率達88.25%。Goutham 等[33]提出一種改進的U-Net網絡用來檢測標志點位置。該算法以分割圖作為訓練圖像的標簽,分割圖是具有相同大小訓練圖像的二值掩模并使用公開數據集加以訓練,該算法識別了7 個標志點,2 mm 范圍內的檢測成功率為65.1%,4 mm 內的檢測成功率為84.6%。雖然識別精度并不高,卻是首次使用分割網絡進行標志點識別。對7 個標志點構建7 個分割網絡,由于每個標志點單獨進行識別,標志點檢測復雜,極大提高了計算成本,后續可采用多類分割網絡進行識別。Qian等[34]提出第一種更快速的基于R-CNN 的頭影測量標志點檢測方法CephaNet。在CephaNet 中設計一種多任務丟失機制以減少類內差異,并采用多尺度訓練策略提高小標志點的檢測準確率。為了去除異常檢測到的標志點,提出一種兩階段修復策略。首先根據訓練數據中標志點的分布構造二維無向圖,然后采用最大置信度和拉普拉斯變換去除異常標志點。該方法識別了19 個標志點,CephaNet 在數據2 mm、3 mm、4 mm 范圍內的檢測準確率分別為82.5%、89.3%和90.6%。Park 等[35]對兩種最新的自動識別頭影測量標志點的深度學習算法進行準確性和計算效率比較。共選擇1 028 張頭影測量圖像分別訓練YOLOv3 和SSD 模型,目標標記數量為80 個標志點。在訓練之后,使用283 幅圖像組成的測試數據集對算法進行測試。YOLOv3算法在80個標志點中的38個準確度上優于SSD,YOLOv3 的誤差曲線圖不僅誤差范圍較小,而且有更各向同性的趨勢。YOLOv3 和SSD 的平均每張圖像計算時間分別為0.05s 和2.89s。最終得出YOLOv3 似乎更有希望成為臨床上使用的全自動頭影測量標志物識別系統。同時,公布了公開數據集19 個標志點的精度,YOLOv3 在2 mm 范圍內的成功檢測率為80.4%,4 mm 范圍內的檢測成功率為96.2%。YOLOV3 與SSD 都是一階段檢測算法中精度較高的算法,但是YOLOV3 在標志點檢測精度要優于SSD,不僅僅是因為YOLO V3 引入特征金字塔(Feature Pyramid Networks,FCN)結構,同時其檢測層由三級特征層融合,而SSD 的6 個特征金字塔層全部來自于FCN 的最后一層,其實也是一級特征再做細化,一級特征圖的特征容量明顯弱于三級,尤其是淺層包含的大量小物體特征,而標志點恰好為小物體目標。

兩階段算法中,Nishimoto 等[36]展示了CNN 回歸框架通過互聯網采集的X 射線片中檢測頭影測量標志點的方法。首先利用圖片抓取軟件在互聯網上抓取X 射線片,選取了219 張X 射線圖,其中153 張為訓練集,66 張為測試集,其次構建具有4 層卷積層和4 層稠密層的回歸神經網絡進行訓練,并用每個坐標值的平均絕對誤差進行評估。隨后將以標志點為中心的圖像塊放進神經網絡進行標志點預測。該算法識別了10 個標志點,由于互聯網搜集的圖片無固定像素,不能得到標志點識別實際誤差。Lee等[37]提出一種基于深度神經網絡的頭影測量標志點識別模型。從935 張頭顱側位片中裁剪出多尺度圖像塊,訓練兩種神經網絡,斑塊分類和點估計模型。提出的模型識別了22 個硬組織標志物和11 個軟組織標志物。在測試時,該算法識別每張X 射線片用時0.7s,該模型識別硬組織標志的誤差范圍為1.32~3.5mm,平均成功率為96.4%;識別軟組織標志的誤差范圍為1.16~4.37mm,平均成功率為75.2%。從該算法可以看出,深度學習對硬組織標志點的識別精度要遠高于軟組織標志點,硬組織標志點特征比軟組織特征更容易提取以及辨別。Lee 等[38]開發一種新的框架,利用貝葉斯卷積神經網絡(Bayes Convolutional Neural Network,BCNN)定位具有置信度區域的頭影測量標志點,并采用公開數據集訓練模型。整個算法由感興趣區域提取和考慮不確定性的標志點估計兩部分組成。在2 mm和4 mm 范圍內,該框架的平均標志性誤差為1.53 ± 1.74 mm,檢測成 功率分別為82.11% 和95.95%。Lee[37]與Lee[38]的區別在于后者在提取完感性區域后使用BCNN 在感性區域內進行標志點預測,前者只是采用CNN 進行預測,而后者采用一種后處理方法:采用分數加權法分辨具有較高貝葉斯均值和較低不確定性的像素,故后者誤差更小、精度更高。Zeng 等[39]提出一種基于級聯三級卷積神經網絡(Three-stage Convolutional Neural Networks,TCNN)的頭影測量標志點自動預測方法。在第一階段,通過提取顱面結構的高層特征定位側面人臉區域,以幫助克服外觀變化,再對對齊的人臉區域進行處理,以同時估計所有標志點的位置。在最后階段,利用初始位置周圍的高分辨率圖像數據,通過專用網絡對每個標志點進行細化,以獲得更準確的結果。最終在公開測試集的精度為:2 mm 范圍內78.62%,4 mm 范圍內95.58%。Zeng[39]將識別問題從兩階段增加到三階段,但精度并不高,雖然增加了總體感性區域的提取,但對最后精度提高并沒有實質性幫助,未來可以在第三階段改進網絡,加入FPN 以提取更多底層特征并進行融合。

Table 4 Summary of deep learning methods for automatic identification of landmarks表4 標志點自動識別深度學習方法匯總

深度學習方法逐漸應用于正畸領域,采用深度學習可以大幅提高標志點精度和檢測速度,2mm 范圍內檢測成功率已達80%以上,完全可以媲美牙科醫生,而且識別標志點的速度大幅提高,由原來的15~20min 提高到目前的0.5 s 左右,極大提高了牙科醫生的工作效率,完全可以部署到牙科臨床。但不可忽視的是,深度學習方法在訓練時需要大量數據。Moon 等[40]為了確定開發能夠自動識別頭影測量標志點的人工智能所需的最佳學習數據量,共收集2 400 張X 射線片,每張頭X 射線片包含80 個標志點。其中,2 200 幅圖像用作深度學習模型訓練,剩余200 幅圖像用作測試。訓練的數據量包括24 種組合,通過不替換的隨機抽樣方法選擇訓練數據。結果表明,隨著學習數據集數量的增加,深度學習模型準確率呈線性增長。為了估計最優訓練數據量,建立一種預測模型,最終得出至少需2 300組學習數據才能開發出精度較高的深度學習模型。

5 結語

常規圖像處理方法通常提取關于標志點位置的輪廓,并基于先驗知識識別標志點,性能高度依賴于圖像質量,而且找不到一些不在任何特征輪廓上的標志點。基于模板匹配的方法所產生的模型可以檢測標志點出現的區域,考慮了主動形狀外觀,通過結合統計學方法優化頭影測量標志點的精度,但是很難選擇有代表性的模板或形狀,并且不能很好地應對個體的噪聲和可變性。基于機器學習的方法,如神經網絡和支持向量機,提高了形狀的可變性和抗噪性。然而,這些方法需要大量的頭顱側位片才能提高準確性,在實際應用中,識別性能也不太令人滿意。深度學習方法大幅提高了頭影測量分析標志點的識別精度,并且提高了識別速度,這使得頭影測量分析標志點自動識別技術應用到臨床成為一種可能,但是需要大量的訓練數據。總而言之,從圖像處理技術到模板匹配及統計學方法,機器學習方法到深度學習方法,標志點的檢測技術不再受制于圖像質量,標志點檢測精度大幅提高,檢測時間也大幅減少,使得測量標志點自動識別技術部署到牙科臨床成為可能。

近年來,隨著深度學習技術的出現及發展,標志點識別精度大幅提高,將深度學習應用于臨床已經成為可能,但訓練樣本數量制約著深度學習發展。同時,標志點作為小目標物體,檢測算法并不能很好地檢測出小目標,未來發展方向是面向小數據集基于深度學習的小目標物體識別方法,無需大量的頭顱側位片,基于小數據集得到精度更高的頭影測量標志點識別模型。近年來,伴隨著診斷成像、三位重建及三維檢測的發展,三維頭影測量標志點識別成為最新發展方向。

猜你喜歡
測量檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
把握四個“三” 測量變簡單
滑動摩擦力的測量和計算
滑動摩擦力的測量與計算
小波變換在PCB缺陷檢測中的應用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
測量
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 精品国产成人a在线观看| 一本一道波多野结衣一区二区| 亚洲天堂精品在线观看| 亚瑟天堂久久一区二区影院| 911亚洲精品| 国产成人禁片在线观看| 日本三级欧美三级| 55夜色66夜色国产精品视频| 亚洲一级毛片在线播放| 2021亚洲精品不卡a| 网友自拍视频精品区| 国产视频大全| 99热亚洲精品6码| 五月婷婷亚洲综合| 欧美无遮挡国产欧美另类| 国产视频一区二区在线观看 | 亚洲成A人V欧美综合天堂| 无码中文字幕加勒比高清| 亚洲成在人线av品善网好看| 日韩免费毛片视频| 波多野结衣二区| 麻豆精品在线播放| 亚洲国产欧美自拍| 精品国产福利在线| 国内精品九九久久久精品| 青青青伊人色综合久久| 妇女自拍偷自拍亚洲精品| 成色7777精品在线| 欧美激情一区二区三区成人| 欧美伊人色综合久久天天| 婷婷亚洲视频| 亚洲天堂网站在线| 国产精品视频999| 极品国产在线| 国产自在线拍| 国产一国产一有一级毛片视频| 朝桐光一区二区| 一区二区欧美日韩高清免费 | 黄色网在线| 国产精品尤物铁牛tv| 国产成人1024精品| 国产一级毛片在线| 天天色天天操综合网| 麻豆国产在线不卡一区二区| 日本一本在线视频| 欧美日一级片| 91精品专区| 国产成人盗摄精品| 亚洲永久视频| 欧美在线精品一区二区三区| 人妻精品久久无码区| 国产精品无码翘臀在线看纯欲| 国产精品开放后亚洲| 亚洲成年人网| 亚洲精品桃花岛av在线| 久久久久88色偷偷| 青青青视频免费一区二区| 国产日韩欧美在线播放| 国产成人AV综合久久| 91亚瑟视频| 国产在线日本| 欧美成人综合在线| 精品综合久久久久久97超人该| 天堂av高清一区二区三区| 色哟哟精品无码网站在线播放视频| 欧美第二区| 亚洲av片在线免费观看| 沈阳少妇高潮在线| 精品中文字幕一区在线| 好紧好深好大乳无码中文字幕| 第一页亚洲| www.日韩三级| 国产无码精品在线播放| 国内精品久久久久久久久久影视| 久久99热这里只有精品免费看| 福利视频久久| 青青草原国产精品啪啪视频| 午夜无码一区二区三区在线app| 欧美中文字幕无线码视频| 国产在线精品美女观看| 99在线视频免费观看| 久久免费视频播放|