張新峰,郭宇桐,蔡軼珩,孫萌
(北京工業大學 信息學部,北京100124)
舌診在中醫中占有重要地位,是了解人體狀態的重要手段之一。在舌診中,醫生通過觀察舌質和舌苔的顏色、形狀等特征,為診斷患者的健康狀況提供重要依據。在傳統的舌診望診過程中,醫生通常通過自己的眼睛來觀察舌頭,從而進行判斷。然而視覺感知和臨床經驗的變化往往會導致診斷結果的差異,即診斷結果是主觀的。此外,環境因素(如不同的光源和亮度)也會影響醫生做出準確的診斷。傳統舌診的評價指標不能科學、定量地描述,診斷結果不能系統地存儲和標準化。因此,建立更加客觀、準確的中醫舌診輔助系統具有重要的意義和必要性。
舌圖像分析系統[1]通常分為以下步驟:①采集帶有舌體區域的人體面部圖像;②對面部圖像進行分割,獲取舌體區域;③提取舌體的顏色、紋理、裂紋、紅刺等特征,對舌色和舌苔進行定量分析和定性描述;④將分割后的舌圖像、提取的特征和評價結果保存在患者數據庫中,協助醫生進行后續診斷。在上述步驟中,舌體區域的分割是一個關鍵步驟。在采集到的面部圖像中有許多干擾物,包括背景、面部器官,有時還包括顏色標準色卡等,因此對舌體區域分割的準確度將直接影響到最終舌診的分析結果。
2.1.2 認知障礙 神經梅毒患者可出現癡呆,表現為記憶力下降、判斷力減退、情緒不穩定、情緒低落、懶散、生活不能自理[2]。
傳統的舌圖像分割算法可分為以下幾類:基于閾值的 方 法[2-3]、基 于 邊 緣 檢 測 的 方 法[4-6]、基于圖論的方法[7-9]和基于主動輪廓模型[10-11]。這些方法在一定條件下可以得到較好的分割效果。但是,它們有以下缺點:①自動化程度較低,往往需要一些人工操作,如邊界框或標定輪廓點[4,7];②分割精度較差,并且舌體邊緣存在較多齒痕。由于顏色相似,算法無法準確區分舌頭和嘴唇[12]。
On the Legal System of Eco-compensation for Natural Resources Conservation Wang Yi&Wang Haiyan
近年來,深度卷積神經網絡(DCNN)在計算機視覺方面取得良好的表現,包括圖像分類[13-14]、目標檢測[15-17]和語義分割[18-21]。通過端到端的方式,DCNN比手工選取特征得到了更好的結果。盡管如此,利用DCNN進行舌部分割的算法還很少。最新的算法[22-23]使用DCNN進行舌部分割,優于一些傳統的分割算法。然而,它們還需要一些額外的預處理,如亮度辨別和圖像增強,這使得整個過程復雜。
本文提出了一種基于DCNN和全連接條件隨機場(CRF)的舌圖像分割算法,主要工作如下:①提出了一種基于DCNN的舌圖像分割網絡;②使用孔卷積算法在不增加網絡參數的條件下擴大了特征圖譜的尺寸;③使用孔卷積空間金字塔池化(ASPP)模塊提取舌圖像的多尺度特征;④將DCNN與全連接CRF相結合,細化分割邊緣。
本節提出了一種舌圖像分割算法,算法的網絡結構如圖1所示。該算法由3部分組成:①使用孔卷積的DCNN;②ASPP模塊;③全連接的CRF。首先,將舌圖像輸入到DCNN進行特征提取,在網絡層中使用孔卷積算法擴大感受野。然后,利用ASPP模塊通過結合多個不同大小的感受野來提取多尺度信息。最后,利用全連接CRF對網絡輸出圖像進行處理,對分割邊緣進行細化。

圖1 舌圖像分割算法網絡結構Fig.1 Network structure of tongue image segmentation algorithm
在計算機視覺領域,DCNN通常會使用較多的卷積層和池化層,如在分類任務中,將卷積層和最大池化層在連續層上面重復組合使用,可以提取物體高維特征,分類效果表現良好。然而,這種重復使用卷積和池化的操作在分割任務中存在很嚴重的問題。在對圖像中的舌體區域進行分割時,舌體的邊界信息和語義信息是至關重要的。經過反復的卷積和池化操作后,網絡的特征圖譜會逐漸縮小,損失了較多的邊界信息,不利于舌體邊緣的精確分割。
為了減少邊界信息的丟失,應避免在卷積和池化操作中使特征圖譜縮減過小。如圖1所示,算法的網絡結構共有5個最大池化層,它們在網絡中分別為第3、6、10、14、18層。將網絡中的第4池化層和第5池化層的步長參數設置為1,而不是前3個池化層中的2,這樣可以使特征圖譜不會過度減小,保持為一個較大尺寸。對于用于圖像分類任務的DCNN[13],最終的特征圖(全連接層或全局池化層之前)比輸入圖像尺寸小32倍。使用上述操作,特征圖譜只會減少為原尺寸的8倍。
信息盜竊也是危害計算機網絡信息安全性的重要因素,其是利用間諜軟件來對相關網絡信息造成攻擊,其不像病毒那樣直接影響計算機網絡系統運行,但是卻會基于網絡系統而盜竊網絡用戶的個人信息,危害用戶個人數據信息的安全性。而垃圾信息則主要是基于新聞傳遞或郵件等方式,通過采取垃圾信息傳播本身具有的強制性特征來擴散或盜取經濟政策和商業信息等。無論是信息盜竊還是垃圾信息,它們的存在均會對計算機網絡運行的安全性產生不利影響。

位于北京北四環邊上的理想國際大廈,是中關村核心區租金最貴的寫字樓之一。這里一度盤踞著多家互聯網上市公司,就連樓下不起眼的咖啡廳也有扎克伯克的足跡。正因如此,這里一度被認為是互聯網圈的“風水寶地”。
為了解決此問題,本文使用了孔卷積算法,其最初是為了高效計算非抽取小波變換而開發的[24],可以在保持參數個數不變的情況下,增大卷積核的大小。算法在一維運算中如式(3)所示:

式中:x[i]為輸入信號;y[i]為輸出信號;w[k]為卷積核;參數r控制卷積的間隔。
在進行標準卷積時,即參數r=1,從圖2(a)可以看到,在較高一層的神經元中,相鄰神經元的感受野具有較高的重合性,雖然能夠包含低一層神經元中所有的信息,但是由于對像素進行了連續的遍歷卷積,圖像中的許多特征會被重復地進行提取,從而產生大量的冗余信息。如果將像素點間斷地進行卷積運算(間隔由參數r控制),如圖2(b)所示,感受野的交集將會被最小化,保證了在不損失圖像信息的前提下,減少冗余信息。合理的組合不同層中孔卷積的參數r,可以使卷積層既能提取到圖像的全部特征,又能在不增加參數的情況下擴大感受野,提高語義信息的提取能力。在圖1中,網絡中的孔卷積層被標記為每個通道的第一層,且參數r=2。通過改變池化層的步長,以及使用孔卷積的方法,網絡提取邊緣信息和語義信息的能力有所提升,這有利于提高舌圖像分割的準確率。
使用孔卷積還可以顯式地控制在DCNN中計算特征響應的密度。用輸出比率來表示輸入圖像空間分辨率與最終輸出分辨率的比值,對于用于圖像分類任務的DCNN[13],最終的特征響應(在全連接層或全局池化層之前)比輸入圖像尺寸小32倍,因此輸出比率為32。如果想將DCNN中計算的特征響應的空間密度提高一倍(即輸出比率為16),則將最后一個縮小特征圖譜的卷積層或池化層的步長設置為1,以避免信號抽取。所有后續的卷積層都替換為r=2的孔卷積層即可。通過調整參數r,可以在任意分辨率下計算最終的DCNN響應。

圖2 一維孔卷積示意圖Fig.2 Schematic diagram of 1D atrous convolution
在DCNN中通常使用固定大小的卷積核進行卷積運算,如3×3或5×5。通過重復的卷積運算,網絡可以提取圖像中所包含的深層特征。然而,具有固定尺寸的卷積核只能提取單一尺寸的特征,不能對圖像在多個尺度上進行特征提取。
孔卷積能夠控制感受野的大小,通過設置不同的卷積參數r,感受野的大小也會發生變化。單獨使用一個孔卷積層,網絡可以在這個指定尺度下提取特征。同時使用多個具有不同感受野的孔卷積層,網絡即可以對物體提取多尺度特征。孔卷積ASPP模塊并行地排列4種不同參數的孔卷積層,通過多種感受野提取多尺度特征。每個通道提取到的特征通過2個卷積層進一步處理(卷積核為1×1)。將4個通道提取到的特征通過一個卷積核大小為1、深度為4的卷積層進行融合,結果作為最終的特征。ASPP模塊如圖3所示。

圖3 ASPP模塊Fig.3 ASPP module
Tongue dataset 2采用尼康E4500相機拍攝,燈光和背景條件與Tongue dataset 1不同,拍攝的場景也存在差異,圖像分辨率為1 600×1 200。數據集中共有 200 幅圖像,其中包含訓練集(160幅)和測試集(40幅)。
為證明網絡結構的有效性,本節比較使用不同模塊對分割結果的影響。實驗中使用了2個不同的舌圖像數據集。使用Tongue dataset 1中的訓練集對模型進行訓練,并用測試集對模型結果進行測試,實驗結果如表4所示。結果表明,在網絡中使用ASPP模塊和CRF對分割結果有3%的提升。使用ASPP模塊與全連接CRF的方法取得了較好的效果,在舌圖像數據集中測試MIOU達到了95.41%。可視化分割結果示例如圖7所示。
(5) 間隙單元。開挖間隙分為3部分:刀盤超挖間隙、盾尾間隙和操作間隙[7]。本文通過降低材料彈性模量的方式來模擬開挖間隙,彈性模量一般取值為10 kPa。
式中:rin為前一層的感受野尺寸;rout為當前層感受野尺寸;k為核大小;jin為前一層相鄰特征的距離;jout為當前層相鄰特征的距離。
傳統的CRF通常被用來平滑噪聲[7],通過將相鄰的節點耦合在一起,使得空間上鄰近的像素獲得相同的標簽。這些短程CRF的主要功能是清除基于手工特征構建的弱分類器的虛假預測。
然而,DCNN不同于這些較弱的分類器。DCNN獲得的邊緣是十分平滑的,在這種情況下,使用短程CRF是不適合的[25],因為目標是得到清晰的物體邊緣,而不是進一步平滑。為了解決短程CRF的局限性,用全連接CRF代替。將DCNN模型與全連接CRF相結合,用來精確地分割邊界。模型能量函數如下:

式中:xi代表像素i的標簽;一元勢為θi(xi)=-lg P(xi),P(xi)代表由DCNN預測出的像素i為舌體或者背景的概率;二元勢[25]為以下表達:

其中:若xi≠xj,則μ(xi,xj)=1,否則為0,這意味著只懲罰具有不同標簽的節點。公式的后半部分為2個在不同特征空間中的高斯核。第1個核同時依賴于像素位置(2個不同的像素點坐標向量分別表示為pi和pj)和RGB顏色(2個不同像素點的顏色向量分別表示為Ii和Ij),第2個核只依賴于像素位置。超參數ω1、ω2控制高斯核的權重,σα、σβ和σγ控制高斯核的尺度。
式(5)的作用是判別相似的像素點是否屬于同一類。如果像素點屬于同一類,則能量函數值相對較小。反之,如果像素點不屬于同一類,則能量函數相對較大。在舌圖像分割中,唇部區域往往被錯誤地劃分為舌形區域,影響了后續的分析。利用該能量函數,使與唇部連接的舌體分割更加精確。舌體部分像素的RGB值相似,舌體與唇部像素的RGB值存在差異。當對相似區域的像素點判別為不同類時,會產生較大的能量函數值。當存在差異的區域判別為同一類時,也會產生較大的值。通過多次迭代,使能量函數的值最小化來獲得最終結果。通過這種方式,利用整個圖像的信息來細化舌體邊緣,提高分割的準確性。
2.4.4 與現有算法對比
2.1.1 PASCAL VOC 2012
PASCAL VOC 2012是一個語義分割數據集,共分為21個類別,其中包括20個前景物體和1個背景。原始數據集分別包含用于訓練(1 464幅)、驗證(1 449幅)和測試(1 456幅)的像素級標記圖像。數據集通過提供的方法進行擴充[26],得到10 582幅訓練圖像。數據集每個部分的數量如表1所示。

表1 三個數據集的圖片數量Table 1 Number of images on three datasets
2.1.2 舌圖像數據集
Tongue dataset 1采用佳能EOS 1100D相機拍攝,圖像分辨率為4 272×2 848。數據集中共有1 690幅圖像,其中包含訓練集(1 440幅)和測試集(250幅)。
除此之外,由于拍攝設備、拍攝距離和患者年齡的不同,圖像中舌體區域尺寸的大小可能會存在差異。因此,需要分割算法能夠準確地分割不同大小的舌體。為了解決此問題,一般的分割算法通常是使用包含不同尺寸物體的數據集來訓練網絡,確保模型對不同大小物體分割的魯棒性。然而,由于舌圖像數據獲取困難,舌圖像的數量有限,沒有足夠的各種尺度的帶標簽的圖像來對網絡進行訓練。ASPP模塊由于使用了不同大小的感受野,可以對單尺寸舌圖像在多個尺度上進行特征提取,在一定程度上解決了樣本不同尺寸數據量不足的問題。
2.2 兩組治療前后平均動脈壓及24 h尿蛋白定量比較 治療前兩組平均動脈壓及24 h尿蛋白定量對比,差異無統計學意義(P>0.05);治療2周后兩組平均動脈壓及24 h尿蛋白定量均較治療前有所降低,且觀察組低于對照組,差異有統計學意義(P<0.05)。見表3。
數據集原始圖像和人工標注的標簽如圖4所示。所有受試者在參與研究前均已知情同意納入研究。

圖4 數據集原始圖像和人工標注的標簽Fig.4 Original images in dataset with corresponding artificial segmentation marks
為了訓練舌圖像分割模型,使用Caffe框架搭建網絡。所有實驗都是在一臺配置為Intel Xeon E5-2623 v3 CPU@ 2.4GHz,64 GB RAM 的電腦上進行的,GPU型號為NVIDIA GeForce GTX TITAN。
在實驗中,mini-batch設置為20,初始學習率為0.001,每2 000次迭代將學習率乘以0.1,動量固定為0.9,對應的權值衰減為0.0005。
本文采用像素精度(PA)、平均像素精度(MPA)和平均交并比(MIOU)3個標準來評價模型對舌圖像的分割精度。PA、MPA、MIOU的公式如下:

式中:pii為將第i類正確地分割為第i類的像素點數量,pij為將第i類錯誤地分割為第j類的像素點數量,pji為將第j類錯誤地分割為第i類的像素點數量。
賽程節奏緊張,選手上妝過程中評委老師可上臺察看選手上妝手法,并進行初評,考核不僅僅是技術,更是臨場心理素質。
先將網絡在PASCAL VOC 2012數據集上進行預訓練,再在舌圖像數據集上對網絡進行微調。在對DCNN進行微調后,使用交叉驗證來優化CRF參數。初始化參數ω2=3,σγ=3,通過對驗證集的小部分數據進行交叉驗證(本文使用20幅圖像)來尋找最佳參數ω1、σα和σβ。
采用由粗到精的搜索方案,參數的初始搜索區間為:ω1為[2∶6],σα為[10∶10∶100],σβ為[10∶10∶100]。算法共迭代10次。
2.4.1 不同尺寸和參數的孔卷積
本節討論使用不同尺寸和參數的孔卷積對網絡性能的影響。為了便于實驗結果的觀察,在fc6中使用了一個分支,來代替在ASPP模塊中使用的4個分支。如表2所示,在孔卷積層中使用大小為7×7,參數r=2的卷積核。由于卷積核尺寸較大,網絡的感受野較大,可以提取更多的特征,分割效果較好,該模型在CRF后的性能為93.29%。但是7×7的卷積核導致網絡參數龐大,運行緩慢(訓練時每秒1.57幅圖像)。通過將核的尺寸減小到5×5(r=2),將模型速度提高到每秒2.47幅圖像,將核大小減小到3×3(r=2),將模型速度提高到每秒4.92幅圖像。由于減小了卷積核的大小,參數數量大幅減少,運行速度更快。然而感受野的減小導致網絡性能下降,分割精度降低。當使用3×3的卷積核(r=2)時,CRF后的模型性能為83.47%。不同參數下的模型結果如圖5所示。

表2 不同尺寸和參數的孔卷積對網絡性能的影響Table 2 Effect of atrous convolution with different size and parameters on network performance
為了在不增加參數的情況下提高模型的精度,在fc6層增大參數以擴大網絡的感受野。當使用3×3卷積核,參數設置為r=8時,模型的性能可以與之前的結果(卷積核大小7×7,r=2)相媲美。使用這種方法,能夠令網絡在不增加參數的條件下,增大網絡的感受野。

圖5 不同尺寸和參數的孔卷積MIOU結果Fig.5 MIOU of atrous convolution with different sizes and parameters
2.4.2 不同參數的孔卷積空間金字塔池化模塊
其中, r為NI的長度,tp (1 p r)是NI的所有項目中其支持度最大的單項目,Is為NI的所有2_子項集至(r-1)_子項集中其支持度最大的子項集.
本節討論在ASPP模塊中使用不同孔卷積參數r的效果。如圖3所示,ASPP模塊在fc6-fc7-fc8中使用多個并行分支,最后融合生成結果。實驗中卷積核的大小均為3×3,每個分支的參數r不同。表3展示了幾種參數的實驗結果。表中:單分支是基準模型,即fc6為單分支,r=8。另外4個實驗使用的是ASPP模塊,有4個分支,參數不同。ASPP-2代表r=(2,4,6,8),ASPP-4代表r=(4,8,12,16),ASPP-6代表r=(6,12,18,24),ASPP-8代表r=(8,16,24,32)。實驗結果如表3所示,使用ASPP模塊的性能優于單個分支。在使用ASPP模塊進行的4個用于舌圖像分割的實驗中,ASPP-4(4,8,12,16)的性能最好,CRF后分割的MIOU達到95.41%。從圖6中可以觀察到不同參數下模型的分割結果。
由于社會環境的影響和不同學生價值觀取向不同,也直接決定其個人行為方式的差異。近年來,隨著社會主義改革事業的蓬勃發展,社會生產方式及社會利益結構也發生了巨大變化。此外,再加上當代大學生價值觀取向的日漸實用化及價值評判標準的日漸多元化,使得當代大學生的擇業觀念也逐漸呈現出一系列全新特點。

表3 不同參數的ASPP模塊對網絡性能的影響Table 3 Effect of different parameters of ASPP module on network performance

圖6 不同參數的ASPP模塊MIOU結果Fig.6 MIOU of ASPP module with different parameters
2.4.3 不同模塊效果
定位精度和分類性能之間的權衡是DCNN固有的爭論,具有多個卷積層和最大池化層的深層網絡模型在分類任務中被證明是成功的,但是頂層節點的不變性和較小的特征圖譜的網絡只能產生平滑的響應。DCNN的不變性對語義分割有一定的限制,因為不變性意味著無論如何平移圖像,最終的分類都是相同的。在語義分割任務中,物體的位置是有用的信息,DCNN的不變性導致網絡中位置信息的丟失。1.1節中提到了DCNN可以可靠地預測圖像中物體的存在和粗略位置,但不能精確地定位物體輪廓。因為重復地進行下采樣操作,導致大量的邊緣信息丟失,使得物體邊緣處的像素點較為平滑。但語義分割任務需要清晰的邊緣信息。除此之外,卷積運算是局部連接的,其只能提取一個像素周圍矩形區域的信息,重復卷積運算雖然能使矩形面積逐漸變大,但即使到最后一個卷積層,也無法提取整個圖像中一個像素與其他所有像素之間的相關性。為了解決這些問題,提高分割的準確率,將DCNN與全連接CRF相結合[25],通過計算任意2個像素之間的相似性來判斷它們是否屬于同一個類。通過這種方式利用整幅圖像的信息,而不是在DCNN中只提取局部信息。全連接CRF可以突出物體的邊緣,彌補了DCNN帶來的邊界平滑問題。
車輛在運行過程中,隨著線路曲線的變化,車端跨接線纜被動地進行伸展和收縮運動,因此跨接線纜的復雜受力運動情況成為影響跨接線纜使用壽命的重要因素[2]。
在實際應用中,舌圖像采集時的環境通常會有所不同,采用訓練好的模型對新環境下的舌形圖像進行分割,分割效果會下降。因此,當設備應用于新的環境時,可以使用少量的新數據對網絡參數進行微調,提高模型的泛化能力。
基于在Tongue dataset 1中訓練的模型,使用Tongue dataset 2中的40幅圖像進行微調,并使用測試集進行測試。Tongue dataset 2的分割結果略低于Tongue dataset 1,但相差不多,最佳分割效果可達93.75%。

表4 不同模塊對網絡性能的影響Table 4 Effect of different modules on network performance
為了評估本文提出的舌圖像分割算法的性能,進行了一系列的實驗和分析。首先,比較了在網絡上使用不同大小卷積核和參數r的孔卷積,對網絡性能產生的影響。然后,比較了使用不同參數r的ASPP模塊對網絡性能產生的影響。最后,將本文算法與傳統的舌圖像分割算法及常用的DCNN算法進行了比較,驗證了本文算法的有效性。
上述方法可以增大網絡的特征圖譜,獲得更好的邊界信息,但同時會導致網絡中較深層的感受野尺寸減小,不利于語義信息的獲取。在語義分割任務中,邊界信息和語義信息都是至關重要的,語義信息的損失同樣會影響分割的準確率。所以,如果能在增大網絡特征圖譜的同時保證感受野尺寸不會縮小,分割結果會較為精確。感受野的公式如式(1)所示,相鄰特征的距離如式(2)所示,其與步長s成正比。當步長固定時,擴大感受野的唯一方法是增加卷積核尺寸的大小。然而增大卷積核的尺寸會增加參數的數量,導致網絡效率大幅降低。
表5為GrabCut[7]、Snake[4]、FCN-8s[18]、Unet[27]、SegNet[20]及 本 文 算 法 在2個 舌 圖 像 數 據集上分割結果的對比。在GrabCut模型中,手動選擇一個邊界框,來標定舌體區域,然后迭代算法10次,得到最終的分割結果。在Snake模型中,手工將舌體邊緣標定15個標記以此作為分割初始邊界,通過算法計算得到最終的分割結果。
由于GrabCut[7]和Snake[4]算 法 的 自 動 化 程度較低,需要手工標記操作,分割時間分別為7.25 s和6.33 s,分割效率較低。本文算法不需要人工干預,對模型進行訓練后,在2個不同的數據集上進行測試,運行時間分別為0.83 s和0.75 s,速度優于GrabCut和Snake算法。然而,由于在網絡的末端使用全連接CRF,計算復雜度較高,因此速度低于FCN-8s、U-net和SegNet網絡。
在精度方面,傳統算法為了縮短計算時間,通常對圖像進行降采樣,降低圖像的分辨率,再對圖像進行分割。由于在降低圖像分辨率時會丟失大量的圖像信息,使用這種方法會導致分割后的舌體區域存在較為明顯的棱角,舌體區域不完整,分割效果較差。本文算法對原始圖像進行分割,并且網絡的特征圖譜尺寸較大,舌體分割后存在的齒痕較少,舌體區域更加完整。分割結果的示例如圖8所示。使用GrabCut和Snake算法得到的分割結果如圖8(b)和圖8(e)所示,舌體的邊緣沒有分割完整,并且有一些缺失的部分會影響舌體的紋理特征。圖8(c)和圖8(f)是本文算法的分割結果,與傳統算法相比,其得到的舌體邊緣更加精確和完整。
此外,由于舌體和嘴唇區域存在交集,并且2種顏色較為相似,傳統算法在這種情況下有時分割錯誤,將部分嘴唇區域判斷為舌體區域。由于DCNN可以自動提取抽象特征,并利用全連接CRF對邊緣進行細化,在這種情況下,本文算法可以更加準確地分割舌體區域,分割精度更高。如圖9所示,圖9(b)和圖9(e)分別為GrabCut和Snake算法處理后的分割結果。傳統的分割算法有時將嘴唇誤判為舌體,分割效果較差。在這種情況下,本文算法可以比傳統算法更好地區分舌體和嘴唇,獲得良好的分割結果。圖9(c)和圖9(f)是使用本文算法得到的分割結果。在分割精度方面,本文算法在PA、MPA、MIOU三個方面都優于其他分割算法。不同算法的分割結果示例如圖10所示。

圖7 舌圖像的分割結果示例Fig.7 Examples of tongue image segmentation results

表5 不同算法在舌圖像數據集上的分割結果Table 5 Segmentation r esults on tongue image dataset by differ ent algorithms

圖8 舌體不完整的分割結果示例Fig.8 Examples of segmentation results of tongue defect

圖9 包含嘴唇部分的舌圖像分割結果示例Fig.9 Examples of segmentation results of tongue image containing lips

圖10 不同算法的舌圖像分割結果示例Fig.10 Examples of tongue image segmentation results by different algorithms
針對傳統舌圖像分割算法需要預處理、人工標定候選區及分割準確率低等問題,本文提出了將DCNN與全連接CRF相結合的舌圖像分割算法。
我們清楚這事實,也尊重這些讀者對期刊的選擇。國內文學報刊有數百種,《星火》只是中國文學報刊聯盟56家理事單位中的一家而已。
1)使用孔卷積算法,使得網絡能夠在較大的特征圖譜尺寸上進行特征提取,保證了邊緣信息的提取。通過改變孔卷積參數,使得在不增加網絡參數的條件下增大了感受野,保證了語義信息的提取。
“數據分析”對于企業如何管理和共享數據是具有轉換性的。雖然從商業中收集數據以及將它轉為有效的商業洞察離不開統一的管理模式,但是本土模式也能讓企業獲益。
2)使用ASPP模塊,使網絡能夠在不同感受野下對圖像提取多尺度特征。
3)使用全連接CRF,通過計算整幅圖像中像素點之間的相關性進行分割,細化分割邊緣。
本文提出的舌圖像分割網絡能夠自動提取圖像的多尺度特征,對舌體區域進行分割。與傳統算法相比,本文算法自動化程度較高,不需要手工標定操作。與其他分割網絡相比,本文算法在精度方面有所提高。在接下來的研究中,將把本文算法與最新的DCNN相結合,以提高舌圖像分割的效率。
致謝感謝拍攝舌圖像的志愿者,以及在制作舌圖像數據集過程中對數據進行處理和拍照的同學。