安俊達 李玉雙



摘要:甲狀腺和乳腺病變是影響女性身心健康的兩類常見疾病。為了深入挖掘兩類病變在超聲圖像上的個性差異和共性特征,提出一種通用的計算方法識別甲狀腺和乳腺病變。先利用小波包變換將超聲圖像分解為4個子圖;再借助灰度共生矩陣提取不含高頻噪聲的3個子圖的紋理特征;最后利用最大相關最小冗余算法篩選特征,輸入4種機器學習模型,完成甲狀腺、乳腺結節良惡二分類和四分類。將方法應用于來自不同平臺的甲狀腺和乳腺超聲圖像,隨機排列交叉驗證二分類AUC達到0.88~0.99,準確率ACC達到0.84~0.98,均優于已有研究結果;四分類AUC達到0.95~0.97,ACC達到0.88~0.92,優于深度殘差網絡ResNet50。基于甲狀腺(乳腺)圖像訓練的四種模型在交叉識別乳腺(甲狀腺)良惡結節方面也取得了理想的分類結果,進一步驗證了所提方法的穩定性和通用性。同時,T檢驗結果顯示:甲狀腺和乳腺惡性結節超聲圖像的近似子圖存在非常顯著的紋理差異,垂直細節子圖展示出6個潛在的共性特征。
關鍵詞:甲狀腺;乳腺;良性結節;惡性結節;機器學習;超聲圖像
中圖分類號: TP391文獻標識碼: ADOI:10.3969/j.issn.1007-791X.2024.01.0100
引言
乳腺癌和甲狀腺癌是女性中最常見的兩種癌癥。乳腺癌已取代肺癌成為全球第一大癌[1],是45歲以下女性癌癥死亡的主要原因及最大威脅[2-3],甲狀腺癌的發病率也呈現出逐年上升的趨勢[4]。超聲影像因其無創、無輻射、成本低等優點被廣泛用于篩查、診斷乳腺和甲狀腺的病變[5],其準確性很大程度上取決于醫生對超聲圖像的正確解讀[6]。人工智能輔助診斷技術可以幫助醫生精準評估乳腺和甲狀腺的病變風險,避免過度治療[7]。
最近,Qian等人利用10 815 張多模態多角度的乳腺超聲圖像訓練了深度學習診斷系統,用以評估乳腺影像報告和數據系統分級,并成功應用于多家醫院的前瞻性臨床環境[8]。Ma等人利用臨床收集的508名患者的甲狀腺超聲圖像,驗證了深度神經網絡(Deep Neural Network,DNN)可以更好地輔助醫生診斷甲狀腺癌[9]。深度學習的診斷水平與圖像的數量和質量密不可分。當數據量不足時,往往很難訓練出理想的模型[10],可解釋性不強也是許多深度學習模型普遍存在的共性問題[11]。已有研究表明,一些超聲特征與惡性腫瘤有關,一些則與良性有關[12]。如何采用計算工具用以揭示超聲特征與腫瘤良惡性之間的關聯,是目前智能診斷迫切需要解決的問題。
超聲圖像的計算機分析,尤其是紋理分析,為醫生提供了目視檢查可能無法發現的有關圖像模式的定量信息[13]?;叶裙采仃嚕℅ray-Level Co-occurrence Matrix,GLCM)是一種通過研究灰度的空間相關特性來描述紋理的常用方法,能反映圖像灰度在方向、相鄰間隔、變化幅度等方面的綜合信息[14]。離散小波變換(Discrete Wavelet Transform,DWT)是圖像處理的常用技術之一[15],它使用由有限脈沖響應濾波器組成的濾波器組將信號分解為低頻和高頻信息[16]。Acharya等人利用3個GLCM紋理特征和2個 DWT 高頻信息特征,借助AdaBoost評估甲狀腺結節的惡性風險,并綜合這5個特征定義了甲狀腺惡性腫瘤指數,該指標值在10例良性和10例惡性受試者中具有顯著差異[17]。這種方法為快速識別甲狀腺病變提供了參考依據,但其使用的數據量過小,適用性和穩定性有待進一步驗證。眾所周知,超聲采集會在信號中引入散斑噪聲,從而影響超聲圖像細節特征的辨識[18-19]。小波變換雖然能夠有效表征以低頻(近似)信息為主的信號,但不能很好地分解和表示包含大量高頻(細節)信息(如細小邊緣或紋理)的信號,而小波包變換(Wavelet Packet Transform,WPT)可以對高頻信息提供更精細的分解,對包含大量中、高頻信息的信號能夠進行更好的時頻局部化分析[20]。
值得注意的是,當前研究多針對乳腺或甲狀腺的超聲圖像建立僅適用于各自病變的智能診斷模型[21-22]。然而,甲狀腺和乳腺病變存在某些共同的病理生理誘因[5],在超聲掃描下具有一些共同特征,如結節的形狀不規則、邊界模糊等[23]。開發通用的診斷模型將大大簡化兩類病變的分類過程,具有廣泛的臨床參考價值。當其中一類病變的數據或標注不易獲取時,這種通用模型可以發揮作用。Zhu等人首次提出了一個通用的深度卷積神經網絡架構來評估乳腺和甲狀腺病變,該方案的可行性在臨床實踐收集的超聲圖像中得到充分驗證[24]。
受以上工作啟發,本文提出了甲狀腺和乳腺病變的通用識別方法,采用分步式融合WPT和GLCM,提取來自不同平臺的甲狀腺和乳腺結節超聲圖像的WPT-GLCM紋理特征,旨在解析基于該特征的經典機器學習模型(邏輯回歸(Logistic Regression,LR)、支持向量機(Support Vector Machine,SVM)、隨機森林(Random Forest,RF)和極端梯度提升樹(eXtreme Gradient Boosting,XGBoost))識別甲狀腺和乳腺病變的能力,挖掘兩類病變的個性紋理差異及共性紋理特征,驗證所提方法的通用性。
1數據集介紹與研究框架
甲狀腺結節超聲圖像來自文獻[9],涵蓋河北醫科大學第三醫院的508名患者(良性415名,惡性93名)。惡性結節圖像尺寸介于84×81~567×340,良性介于25×20~529×529。乳腺結節超聲圖像涵蓋了在Baheya醫院接受治療的600名女性患者[25],包含780張圖像(正常133張、良性487張、惡性210張),平均大小為500×500。文獻[26]將這些原始圖像統一調整為28×28,并將正常和良性統記為良性,構建了數據集BreastMNIST。為便于理解本文的研究流程,圖1給出了整體研究框架。
2超聲圖像的紋理特征提取方法
2.1GLCM特征
選取像素對的四個偏移方向(0°,45°,90°,135°)和長為1的空間距離生成GLCM?;贕LCM計算4個方向上的7個統計量,包括角二階矩(ASM)、對比度(Contrast)、相關性(Correlation)、相異度(Dissimilarity)、熵(Entropy)、同質性(Homogeneity)和能量(Energy)(見公式(1)~(7)),得到28維GLCM特征。
2.2WPT-GLCM特征
將超聲圖像進行一級2維WPT分解,得到4個子圖,包括近似子圖LL、水平細節子圖HL、垂直細節子圖LH和高頻噪聲子圖HH。圖2(a)和(b)分別展示了甲狀腺和乳腺結節代表圖像及其對應的4個分解子圖。為避免超聲圖像中的散斑噪聲對后續分類的影響,這里剔除高頻噪聲子圖HH,僅關注其余3個子圖。分別提取這3個子圖的28維GLCM特征,整合得到84維WPT-GLCM特征。
2.3 WMCM特征
為充分展示WPT-GLCM特征在識別甲狀腺和乳腺病變方面的通用性和有效性,引入文獻[27]提出的小波多子圖共生矩陣(Wavelet Multi-subgraph Co-occurrence Matrix,WMCM)特征以做比較。將超聲圖像進行一級2維WPT分解后,構造整體細節子圖
3預測模型與評估指標
LR、SVM、RF和XGBoost是常用的分類模型[28]。LR是一種廣義線性回歸模型,可以清楚地解釋輸入特征如何通過最終生成的方程來證明輸出的合理性。SVM是一種簡單且有效的監督式學習方法,廣泛應用于統計分類和回歸分析。RF通過構建和合并多個決策樹來獲得更準確和更穩定的預測,為不平衡分類提供平衡的數據集誤差。XGBoost是梯度提升決策樹的高效實現,具有準確率高、運行效率高、泛化能力強等優點。
為了全面評估模型的分類性能,引入5個統計量,包括ROC曲線下的面積(AUC)、準確率(ACC)、精確率(precision)、召回率(recall)和F1分數(F1_score)(見公式(17)~(20))。
其中,TP(TN)表示預測標簽為惡性(良性),而實際標簽也為惡性(良性)的樣本數;FP(FN)表示預測標簽為惡性(良性),而實際標簽為良性(惡性)的樣本數。
4實驗結果
本章主要介紹上述4種模型在WPT-GLCM特征下對于甲狀腺、乳腺結節6個分類問題的預測結果,并與GLCM特征、WMCM特征以及其他已發表的結果進行比較。由于GLCM特征和WPT-GLCM特征的維數相對較高,故利用最大相關-最小冗余(Maximal Relevance and Minimal Redundancy,mRMR)算法進行特征篩選。為簡化計算,選擇前5維作為起始特征,并以5為間隔增量依次進行特征選擇,直至全部特征選擇完畢結束。依據預測結果確定最優的特征維數。為避免過擬合,采用隨機排列交叉驗證方法(Shuffle Split)訓練模型及評估預測性能。訓練集和測試集比例為9∶1。以 “AUC最優”作為調參依據。重復執行5次,取5次預測結果的平均值作為最終預測結果。
4.1基于最優T-model的甲狀腺結節良惡二分類結果4種最優T-model在三類特征下的甲狀腺結節良惡二分類AUC如圖3(a)所示:顯然,WPT-GLCM取得了最理想的結果,WMCM表現最差。表1匯總了基于WPT-GLCM的最優T-model的預測結果:T-SVM以最少的特征取得了最好的結果,T-LR略低于T-SVM,而T-RF和T-XGBoost整體上遜色于T-SVM和T-LR,特別是recall 和F1_score的結果不盡如人意。4種模型的預測結果均優于文獻[9]的最好結果(DNN的ACC=0.87)。
注:這里T-LR的最優參數C=35,Classed weighted=balanced,Penalty=L1;T-SVM的最優參數C=6 600,Probability=True;T-RF的最優參數N_estimators=100,Min_samples_split=3,Max_features=60,Min_samples_leaf=6;T-XGBoost的最優參數N_estimators=11。
4.2基于最優B-model的乳腺結節良惡二分類結果
4種最優B-model在3類特征下的乳腺結節良惡二分類AUC如圖3(b) 所示:顯然,WPT-GLCM依然表現最優,WMCM依然表現最差。表2匯總了基于WPT-GLCM的最優B-model的預測結果:B-RF和B-XGBoost以明顯的特征維數優勢獲得了優于B-LR和B-SVM的分類結果,完全可以與文獻[26]的最優結果(Google AutoML Vision,AUC=0.92、ACC=0.86)相媲美,且優于文獻[26]的其他深度學習模型(如ResNet50,AUC=0.87,ACC=0.84)。
4.3基于最優T-model的乳腺結節良惡二分類結果
為驗證所提方法的通用性,將乳腺結節超聲圖像的相應WPT-GLCM特征直接輸入4.1節中的最優T-model,得到的測試結果如表3所示:基于甲狀腺結節超聲圖像訓練的4種最優T-model仍然能夠有效識別乳腺良惡結節,T-RF和T-XGBoost整體優于T-LR和T-SVM,但低于表2中的B-RF和B-XGBoost。
4.4基于最優B-model的甲狀腺結節良惡二分類結果
為進一步驗證方法的通用性,將甲狀腺結節超聲圖像的相應WPT-GLCM特征直接輸入4.2節中的最優B-model,得到的測試結果如表4所示:基于乳腺結節超聲圖像訓練的4種最優B-model仍然能夠有效識別甲狀腺良惡結節,且依然超越了文獻[9]的最優結果;B-LR和B-SVM整體優于B-RF和B-XGBoost,但低于表1中的T-LR和T-SVM。
4.5甲狀腺乳腺結節二分類結果
為了說明甲狀腺和乳腺結節之間的差異性,將甲狀腺和乳腺結節的超聲圖像放在一起構成混合數據集,將混合圖像的每類特征分別輸入4種模型進行甲狀腺結節和乳腺結節的識別。實驗結果顯示:即使在默認參數下,基于不同維數的各類特征的4種模型均能獲得理想的分類結果,AUC等于或接近1,ACC>0.95。
4.6甲狀腺+乳腺結節良惡四分類結果
為了說明甲狀腺和乳腺良惡結節之間的差異性,并驗證所提方法識別多分類任務的能力,將甲狀腺和乳腺結節混合圖像的每類特征分別輸入4種模型,進行甲狀腺良、惡結節和乳腺良、惡結節的四分類。4種最優模型在三類特征下的四分類AUC如圖4所示:它們依然在WPT-GLCM特征下取得了最理想的結果,但相比GLCM,其優勢不像前面二分類那樣明顯;WMCM依然表現最差。表5匯總了基于WPT-GLCM的最優模型的四分類預測結果:顯然,整體預測比較理想,XGBoost在5個指標上均優于其他三種模型,RF只有recall略低于LR和SVM。為了進一步展示本文所提方法的有效性,將混合圖像直接輸入ResNet50,以7∶1∶2的比例將數據集隨機分為訓練集、驗證集和測試集,最優模型的四分類AUC=0.72,ACC=0.90,均低于4種模型的預測結果(SVM的ACC除外)。
5討論
結合表1~表4不難發現,LR和SVM更適用于識別甲狀腺病變,RF和XGBoost更適用于評估乳腺病變。尤其對于指標recall和F1_score,LR和SVM對于甲狀腺超聲圖像表現出了絕對優勢,而RF和XGBoost卻很不理想,出現大幅下降(見表1和表4)。這種現象對于乳腺超聲圖像沒有發生。在乳腺結節良惡識別中,盡管RF和XGBoost整體上更有優勢,但是LR和SVM并沒有在某個指標上表現出異常下降,特別是SVM(見表2和表3)。因此,當臨床測試更加注重recall和F1_score時,不建議用RF和XGBoost來評估甲狀腺病變。
表3和表4理想的交叉測試結果表明,甲狀腺和乳腺病變很可能會產生相似的WPT-GLCM特征。因為甲狀腺癌和乳腺癌是研究的重中之重,所以這里重點討論甲狀腺和乳腺惡性結節超聲圖像之間的特征關聯及差異。分別計算84個WPT-GLCM特征在甲狀腺良、惡結節和乳腺良、惡結節中的取值。T檢驗結果顯示:6個LH特征(ASM-0°、ASM-90°、Contrast-0°、Dissimility-0°、Energy-90°、Entropy-0°)在兩類惡性結節超聲圖像中沒有顯著差異(p值均大于0.05,見圖5),但在各自良惡結節超聲圖像中均展現出顯著的差異(p值均小于0.01,見圖5)。
為進一步驗證上述推斷,一方面,計算了甲狀腺惡性結節超聲圖像對應的6維LH特征向量(分量即為上述6個代表特征在所有甲狀腺惡性結節超聲圖像取值的平均值),以及乳腺惡性結節超聲圖像對應的6維LH特征向量,兩個向量的皮爾森相關系數等于1。另一方面,將甲狀腺和乳腺結節混合超聲圖像的這6個代表特征輸入4種模型,識別良性結節和惡性結節,二分類AUC范圍為0.80~0.85。兩個層面的計算結果再次證實了上述6個代表特征在挖掘甲狀腺癌和乳腺癌共性紋理特征方面的潛力。
兩類惡性結節不僅存在共性WPT-GLCM紋理特征,還存在個性WPT-GLCM紋理差異。例如,28個LL特征在兩類惡性結節超聲圖像中的T檢驗p值最大為1.763 3×10-14,說明兩類惡性結節超聲圖像的近似子圖存在非常顯著的紋理差異。4.5節甲狀腺和乳腺混合超聲圖像的精準二分類表明,甲狀腺結節超聲圖像的WPT-GLCM特征與乳腺結節有很大不同。事實上,在84個WPT-GLCM特征中,只有3個特征的T檢驗p值大于0.05。正是由于各類型結節之間既存在共性的紋理特征,又表現出個性的紋理差異,才使得基于WPT-GLCM的4種模型在第4.6節的四分類任務中能夠取得理想的預測結果,也從側面解釋了WMCM特征在各種分類任務中表現差的部分原因,即整體細節子圖LHL可能丟失了垂直細節子圖LH和水平細節子圖HL所蘊含的重要分類信息。
文獻[17]中用于分類的5個特征均在甲狀腺良惡結節超聲圖像中展示出顯著的差異,但是文中基于mRMR算法篩選的特征與其在相應分類圖像中是否具有顯著差異沒有必然聯系。例如,在最優B-XGBoost對應的15維WPT-GLCM特征中,有7個特征在乳腺良惡結節超聲圖像中沒有顯著差異(p>0.05),但是它們與其他8個具有顯著差異的特征一起輸入模型卻能產生很好的預測結果。四分類問題中mRMR篩選的前10維WPT-GLCM特征雖然在甲狀腺和乳腺結節超聲圖像之間,以及在甲狀腺和乳腺惡性結節超聲圖像之間,均具有非常顯著的差異(p<<0.01),但其中2個特征在甲狀腺良惡結節超聲圖像中差異不顯著(p>0.05),5個特征在乳腺良惡結節超聲圖像中差異不顯著(p>0.05)。以上事實說明,WPT-GLCM特征的某些組合可能對甲狀腺和乳腺結節的分類產生協同或抑制作用,該猜測值得后續進一步研究。
最后需要指出,超聲散斑雖然會影響圖像質量、引起信號失真等,但散斑的變化能夠反映溫度和運動的信息,散斑跟蹤技術已在評估心肌功能領域發揮作用[29-30]。文獻[17]使用的2個特征也來自于高頻噪聲子圖HH。本文更加重視子圖HH對分類工作帶來的不良影響,從而忽略了其潛在的應用價值,后續將對HH展開深入研究,多角度、多層面挖掘基于WPT的4個子圖在甲狀腺、乳腺結節良惡分類中的貢獻。
6結語
在良惡結節多種分類任務中,基于WPT-GLCM紋理特征的4種機器學習模型對于來自兩個不同平臺的甲狀腺和乳腺結節超聲圖像均表現出良好的分類性能,表明本文提出的方法通用性強、適用面廣,有助于醫生快速診斷甲狀腺和乳腺病變。在超聲圖像特征挖掘方面,甲狀腺和乳腺惡性結節的超聲圖像的近似子圖均存在非常顯著的紋理差異,垂直細節子圖則蘊含了6個共性紋理特征,這一結論可能有助于醫生區分第二原發甲狀腺癌(乳腺癌)和由原發腫瘤轉移而來的病灶。
參考文獻
[1] WILD C,WEIDERPASS E,STEWART B W.World cancer report:cancer research for cancer prevention[M].Lyon:IARC Press,2020.
[2] CHEN W,ZHENG R,BAADE P D,et al.Cancer statistics in China[J].CA:A Cancer Journal for Clinicians,2016,66(2):115-132.
[3] SIEGEL R L,MILLER K D,JEMAL A.Cancer statistics[J].CA:A Cancer Journal for Clinicians,2019,69(1):7-34.
[4] EVERT F V V,ANGELA M L,TIM I M.Korevaar,diagnostic and treatment considerations for thyroid cancer in women of reproductive age and the perinatal period[J].Endocrinology and Metabolism Clinics of North America,2022,51(2):403-416.
[5] 姜歡,趙睿,戴紹春.乳腺癌合并甲狀腺癌致病因素的研究進展[J].腫瘤防治研究,2021,48(5):530-536.
JIANG H,ZHAO R,DAI S C.Research progress on the pathogenic factors of breast cancer combined with thyroid cancer[J].Cancer Research on Prevention and Treatment,2021,48(5):530-536.
[6] HOANG J K,MIDDLETON W D,FARJAT A E,et al.Interobserver variability of sonographic features used in the American college of radiology thyroid imaging reporting and data system[J].American Journal of Roentgenology,2018,211(1):162-167.
[7] YANASE J,TRIANTAPHYLLOU E.A systematic survey of computer-aided diagnosis in medicine:past and present developments[J].Expert Systems with Applications,2019,138:112821.
[8] QIAN X,PEI J,ZHENG H,et al.Prospective assessment of breast cancer risk from multimodal multiview ultrasound images via clinically applicable deep learning[J].Nature Biomedical Engineering,2021,5(6):522-532.
[9] MA X,XI B,ZHANG Y,et al.A machine learning-based diagnosis of thyroid cancer using thyroid nodules ultrasound images[J].Current Bioinformatics,2020,15(4):349-358.
[10] ZHU Y C,ALZOUBI A,JASSIM S,et al.A generic deep learning framework to classify thyroid and breast lesions in ultrasound images[J].Ultrasonics,2021,110:106300.
[11] MA X,ZHANG L.Diagnosis of thyroid nodules based on image enhancement and deep neural networks[J].Computational Intelligence and Neuroscience,2022,2022:5582029.
[12] HAUGEN B R,ALEXANDER E K,BIBLE K C,et al.2015 American thyroid association management guidelines for adult patients with thyroid nodules and differentiated thyroid cancer:the american thyroid association guidelines task force on thyroid nodules and differentiated thyroid cancer[J].Thyroid,2016,26(1):1-133.
[13] SOLLINI M,COZZI L,CHITI A,et al.Texture analysis and machine learning to characterize suspected thyroid nodules and differentiated thyroid cancer:where do we stand?[J].European Journal of Radiology,2018,99:1-8.
[14] GOMEZ W,PEREIRA W C A,INFANTOSI A F C.Analysis of co-occurrence texture statistics as a function of gray-level quantization for classifying breast ultrasound[J].IEEE Transactions on Medical Imaging,2012,31(10):1889-1899.
[15] 顧廣華,張鳳.最優區域與離散小波變換結合的顏色恒常性計算算法[J].燕山大學學報,2014,38(3):226-232.
GU G H,ZHANG F.Color constancy algorithm combining optimal region and discrete wavelet transform [J].Journal of Yanshan University,2014,38(3):226-232.
[16] TAN J H,NG E Y K,ACHARYA U R.Study of normal ocular thermogram using textural parameters[J].Infrared Physics & Technology,2009,53:120-126.
[17] ACHARYA U R,FAUST O,SREE S V,et al.ThyroScreen system:high resolution ultrasound thyroid image characterization into benign and malignant classes using novel combination of texture and discrete wavelet transform[J].Computer Methods and Programs in Biomedicine,2012,107(2):233-241.
[18] LAMONT D,PARKER L,WHITE M,et al.Risk of cardiovascular disease measured by carotid intima-media thickness at age 49-51:life course study[J].British Medical Journal,2000,320(7230):273-278.
[19] 李燦飛,王耀南,肖昌炎,等.用于超聲斑點噪聲濾波的各向異性擴散新模型[J].自動化學報,2012,38(3):412-419.
LI C F,WANG Y N,XIAO C Y,et al.A new speckle reducing anisotropic diffusion for ultrasonic speckle [J]. Acta Automatica Sinica,2012,38(3):412-419.
[20] YOSHIDA H,CASALINO D D,KESERCI B,et al.Wavelet-packet-based texture analysis for differentiation between benign and malignant liver tumors in ultrasound images[J].Physics in Medicine & Biology,2003,48(22):3735-3753.
[21] 汪琳琳,沈璐,施俊,等.基于自步學習的多經驗核映射集成分類器在乳腺癌超聲計算機輔助診斷上的應用[J].生物醫學工程學雜志,2021,38(1):30-38.
WANG L L,SHEN L,SHI J,et al.Application of multi-experience kernel mapping ensemble classifier based on self-paced learning in computer-aided diagnosis of breast cancer ultrasound [J].Journal of Biomedical Engineering,2021,38(1):30-38.
[22] PROCHAZKA A,GULATI S,HOLINKA S,et al.Classification of thyroid nodules in ultrasound images using direction-independent features extracted by two-threshold binary decomposition[J].Technology in Cancer Research & Treatment,2019,18:1-8.
[23] 呂明德.甲狀腺、乳腺外科疾病的超聲診斷[J].中國實用外科雜志,2001,21(5):317-318.
L? M D.Ultrasound diagnosis of thyroid and breast surgical diseases[J].Chinese Journal of Practical Surgery,2001,21(5):317-318.
[24] ZHU Y C,ALZOUBI A,JASSIM S,et al.A generic deep learning framework to classify thyroid and breast lesions in ultrasound images[J].Ultrasonics,2021,110:106300
[25]AL-DHABYANI W,GOMAA M,KHALED H,et al.Dataset of breast ultrasound images[J].Data in Brief,2020,28:104863.
[26]YANG J C,SHI R,WEI D L,et al.MedMNIST v2:a large-scale lightweight benchmark for 2D and 3D biomedical image classification[J].Scientific Data,2023,10: 41.
[27] 馬蕊香.基于超聲圖像的肝纖維化分期研究[D].哈爾濱:哈爾濱工業大學,2016.
MA R X.Study of liver fibrosis staging based on ultrasound images [D].Harbin:Harbin Institute of Technology,2016.
[28] ABREU P H,SANTOS M S,ABREU M H,et al.Predicting breast cancer recurrence using machine learning techniques:A systematic review[J].ACM Computing Surveys,2016,49(3):1-40.
[29]WANG P,LIU Y,REN L.Evaluation of left ventricular function after percutaneous recanalization of chronic coronary occlusions:The role of two dimensional speckle tracking echocardiography[J].Herz,2019,44(2):170-174.
[30]WDOWIAK-OKROJEK K,WEJNER-MIK P,KASPRZAK JD,et al.Recovery of regional systolic and diastolic myocardial function after acute myocardial infarction evaluated by two-dimensional speckle tracking echocardiography[J].Clinical Physiology and Functional Imaging,2019,39(2):177-181.
A general computational method of assessing thyroid
and breast lesions based on ultrasound images
AN Junda,LI Yushuang
(School of Science,Yanshan University,Qinhuangdao,Hebei 066004,China)
Abstract:Thyroid and breast nodules are common diseases that affect women′s physical and mental health. In order to explore their individual differences and common features on ultrasound images, a general computational method is proposed to identify thyroid and breast nodules. The ultrasonic images are first decomposed into four sub-images by wavelet packet transform, and the gray level co-occurrence matrix is used to extract texture features of three sub-images without high-frequency noise.Effective features screened by the max-relevance and min-redundancy algorithm were respectively input four types of machine learning models to classify thyroid,breast benign and malignant nodules.The proposed method is applied to thyroid and breast ultrasound images from different platforms.The randomized cross-validation results show that the binary classification achieves the AUC of 0.88~0.99 and the accuracy (ACC) of 0.84~0.98,superior to the existed results,and the four classification achieves the AUC of 0.95~0.97 and the ACC of 0.88~0.92,which are better than that of ResNet50.Moreover,the four models trained on thyroid (breast) images are able to cross-identify benign and malignant breast (thyroid) nodules effectively,further validating the stability and generality of the proposed method.Meanwhile,the T-test results indicate that there are significant texture differences between approximate sub-images of the ultrasound images of malignant thyroid and breast nodules,and their vertical detail sub-images exhibit 6 potential common features.
Keywords:thyroid;breast;benign nodule;malignant nodule;machine learning;ultrasound image