鄭喻文,武玉花,陳曉飛,董馥聞,王 平,周 晟*
(1.甘肅中醫(yī)藥大學(xué)第一臨床醫(yī)學(xué)院,甘肅 蘭州 730000;2.甘肅省中醫(yī)院放射科,甘肅 蘭州 730050;3.甘肅省人民醫(yī)院放射科,甘肅 蘭州 730000)
肩痛在肌肉骨骼疼痛中居第三位[1],一般人群終生患病率為6.7%~67%[2]。肩袖損傷、肩關(guān)節(jié)不穩(wěn)定(shoulder instability, SI)等均可引起肩痛。影像學(xué)可通過定性、定量分析肩關(guān)節(jié)形態(tài)學(xué)[3]、運(yùn)動學(xué)[4]及解剖學(xué)[5]變化評估肩部疾病,但較為耗時,且存在一定主觀誤差。人工智能(artificial intelligence, AI)技術(shù)輔助自動定量、定性診斷可提高診斷準(zhǔn)確率[6],而機(jī)器學(xué)習(xí)(machine learning, ML)和深度學(xué)習(xí)(deep learning, DL) 技術(shù)為其基礎(chǔ)[7]。本文對DL用于肩關(guān)節(jié)影像學(xué)研究進(jìn)展進(jìn)行綜述。
肩關(guān)節(jié)骨骼、肌肉及脂肪含量與多種疾病密切相關(guān),精確分割各組織是量化評估的基礎(chǔ),可由經(jīng)驗(yàn)豐富的醫(yī)師辨別并手動勾畫其邊界,或根據(jù)其影像學(xué)特征設(shè)置閾值進(jìn)行自動分割。WANG等[8]利用脈沖耦合神經(jīng)網(wǎng)絡(luò)和全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional network, FCN)、以基于圖像塊的AlexNet和U-Net構(gòu)建分割肩關(guān)節(jié)MRI模型,包括分割肱骨模型、分割關(guān)節(jié)骨模型、分割肱骨頭模型及合成模型,其分割敏感度及戴斯相似系數(shù)(Dice similarity coefficient, DSC)最佳值分別達(dá)0.96及0.97。KIM等[9]基于nnU-Net(Non new U-Net)分割3D MRI所示肩袖撕裂(rotator cuff tear, RCT)患者肌腱、肌肉、骨骼及軟骨的DSC分別為0.807、0.858、0.978及0.808。LEE等[10]對肩袖全層撕裂患者以3D U-Net分割3D MRI中的撕裂區(qū)域,其DSC達(dá)0.943。CONZE等[11]基于雙側(cè)肩關(guān)節(jié)MRI數(shù)據(jù)構(gòu)建VGG-16擴(kuò)展U-Net分割模型對12例單側(cè)分娩致臂叢神經(jīng)麻痹患兒分割肩關(guān)節(jié)肌肉,其分割三角肌(0.824)、岡下肌(0.820)、岡上肌(0.710)及肩胛下肌(0.828)的DSC均優(yōu)于單一U-Net(0.783、0.816、0.657、0.814)。
SAAVEDRA等[12]根據(jù)Goutallier分級標(biāo)準(zhǔn),基于VGG-19、Inception-v3和ResNet-50對T2WI所示肩袖損傷患者岡上肌脂肪潤浸進(jìn)行分級,其中VGG-19的診斷效能最佳,其受試者工作特征曲線下面積(area under the curve, AUC)達(dá)0.991。TAGHIZADEH等[13]以U-Net自動量化和表征CT所示盂肱骨性關(guān)節(jié)炎肩部肌肉萎縮和脂肪浸潤水平,其自動分割肩袖肌肉的平均DSC達(dá)0.88,評估肌肉萎縮、脂肪浸潤和整體肌肉變性效果良好(R2=0.87、0.91、0.91)。RO等[14]利用VGG-19分割MRI中的岡上肌,其分割岡上窩和岡上肌的DSC分別達(dá)0.97、0.94,準(zhǔn)確率均高于99%。以O(shè)tsu閾值技術(shù)定量分析岡上肌脂肪浸潤程度的程序簡單,具有無監(jiān)督特性,可自動、穩(wěn)定地選擇1個最優(yōu)灰度閾值,且能利用圖像其他特征直方圖對目標(biāo)進(jìn)行分類;對于嚴(yán)重脂肪浸潤,先以直方圖均衡化調(diào)整圖像對比度后再行分析可獲得更好效果。RIEM等[15]以3D U-Net和Otsu閾值技術(shù)于RCT患者肩部3D MRI中分割肱骨、肩胛骨、鎖骨及肩袖肌肉,定量評估岡上肌脂肪浸潤率,其平均DSC均高于0.90。近年逐漸于相關(guān)研究中基于DL識別分割誤差、自動估計(jì)分割精度。HESS等[16]針對RCT患者以nnU-Net分割肩關(guān)節(jié)3D MRI中的肱骨、肩胛骨及肩袖并自動檢測分割誤差,其平均DSC為0.91、平均敏感度達(dá)1.0。
當(dāng)前DL用于分割肩關(guān)節(jié)影像已可實(shí)現(xiàn)分割疾病區(qū)域及較小解剖結(jié)構(gòu),準(zhǔn)確率逐步提高,但多數(shù)模型仍需進(jìn)一步優(yōu)化后用于臨床。
近來DL已用于肩關(guān)節(jié)MRI質(zhì)量控制,以降低圖像噪聲、縮短掃描時間并保證圖像質(zhì)量;其中,DL-MRI重建算法(AIRTMRecon DL)及高級智能Clear-IQ引擎(advanced intelligent clear-IQ engine, AiCE)去噪技術(shù)較為常用。
DL與多種快速成像技術(shù)相結(jié)合有助于打破MR掃描時間與圖像質(zhì)量難以兼顧的困境。HAHN等[17]及KANIEWSKA等[18]的研究結(jié)果表明,以DL重建MRI的圖像質(zhì)量及偽影評分均與標(biāo)準(zhǔn)序列圖像相當(dāng)而掃描時間縮短,且 DL重建圖像顯示肩峰下囊增厚效果較好。OBAMA等[19]采集肩關(guān)節(jié)PI并行壓縮感知(compressed sensing, CS)成像及基于AiCE的PI、CS成像,AiCE圖像的信噪比和對比度均有所改善;而無論是否應(yīng)用AiCE,CS組MR檢查時間均短于PI組。SHIRAISHI等[20]認(rèn)為DL可通過改變圖像比例而調(diào)整降噪水平且無需經(jīng)過DL重建過程;應(yīng)用AiCE后圖像整體質(zhì)量有所提高。FEUERRIEGEL等[21]報道,針對肩痛患者,利用DL可提高M(jìn)R圖像質(zhì)量,且評估病變準(zhǔn)確性較高。ZHAO等[22]對膝關(guān)節(jié)及肩關(guān)節(jié)3D MRI以自動切片定位模型進(jìn)行2D圖像切片定位,先以多分辨率區(qū)域提案網(wǎng)絡(luò)于3D MRI中提取感興趣體積,再以V-net類分割網(wǎng)絡(luò)分割圖像,其準(zhǔn)確率及精度均高于85%。
肩袖損傷是常見肩部疾病之一,自愈力低,早期診斷、及時干預(yù)對改善預(yù)后至關(guān)重要。DL基于MRI診斷RCT效能優(yōu)異,亦可基于肩關(guān)節(jié)X線片篩查RCT。
MINELLI等[23]采用InceptionV3結(jié)合可微空間數(shù)值轉(zhuǎn)換法預(yù)測X線片中的臨界肩角(critical shoulder angle, CSA)的關(guān)鍵點(diǎn)并計(jì)算其角度,其預(yù)測CSA的中位誤差為0.95°,標(biāo)準(zhǔn)差為0.97°,有助于初步篩查肩袖疾病。KANG等[24]以關(guān)節(jié)鏡為標(biāo)準(zhǔn),應(yīng)用梯度類加權(quán)激活映射技術(shù)基于腋窩位X線片識別肱骨小結(jié)節(jié)改變,評估肩胛下肌腱撕裂(subscapularis tendon, SSC),其AUC為0.83;由于關(guān)節(jié)鏡可能未完全展現(xiàn)肱骨小結(jié)節(jié)處SSC,導(dǎo)致訓(xùn)練數(shù)據(jù)中存在噪聲樣本而影響了模型的準(zhǔn)確率,有待后續(xù)開展前瞻性研究進(jìn)一步評估。KIM等[25]以超聲或MRI為標(biāo)準(zhǔn),在肩關(guān)節(jié)前后位、岡上肌出口位、尾傾30° X線片中進(jìn)行分類標(biāo)注[0(正常或小于50%的RCT)或 1(大于50%或全層RCT)]以訓(xùn)練DL模型,其診斷大于50% RCT的AUC為0.91、陰性預(yù)測率達(dá)96.6%。
YAO等[26]采用Resnet及U-Net多輸入CNN評估MRI所示岡上肌腱撕裂,后者診斷岡上肌腱撕裂的AUC達(dá)0.943。SHIM等[27]以關(guān)節(jié)鏡、DeOrio和Cofield評級結(jié)果為標(biāo)準(zhǔn),利用Voxception-ResNet針對1 360例RCT及764例非RCT患者的肩關(guān)節(jié)MRI進(jìn)行訓(xùn)練及測試,其診斷RCT的準(zhǔn)確率(92.5%)、診斷用時(0.01 s)均優(yōu)于外科醫(yī)師(76.4%及20.3 s);且該網(wǎng)絡(luò)采用弱監(jiān)督學(xué)習(xí)方法,雖僅標(biāo)記正常及撕裂大小,但仍能基于三維數(shù)據(jù)獲取病灶位置、大小并生成熱圖。KEY等[28]采用Vision VGG-19構(gòu)建DL模型,通過淺層標(biāo)準(zhǔn)分類器——k最鄰近分類算法、支持向量機(jī)和人工神經(jīng)網(wǎng)絡(luò)對112例患者的295幅軸位、406幅矢狀位和468幅冠狀位MRI進(jìn)行分類,其基于軸位、矢狀位及冠狀位MRI診斷肱二頭肌肌腱炎RCT的精度均達(dá)96%。
SI指肩關(guān)節(jié)脫位致盂唇、關(guān)節(jié)囊及骨性結(jié)構(gòu)等損傷并使關(guān)節(jié)動態(tài)及靜態(tài)穩(wěn)定性下降[29]。目前DL智能量化評估SI尚處于初步探索階段。盂肱關(guān)節(jié)骨缺損(glenoid bone loss, GBL)為SI常見病因,GBL達(dá)20%~25%時多需行關(guān)節(jié)鏡下Bankart修復(fù)術(shù),修復(fù)效果較差時需行植骨手術(shù)[30]。有學(xué)者[31]以基于U-Net的2D與3D CNN全自動分割并量化質(zhì)子密度加權(quán)MRI所示多種肩部疾病患者肩關(guān)節(jié)解剖學(xué)參數(shù),包括肱骨頭直徑、寬度,以及關(guān)節(jié)盂直徑、寬度及高度,結(jié)果顯示2D模型分割肱骨及關(guān)節(jié)盂的DSC分別為0.95、0.86,3D CNN模型分別為0.95、0.86,3D CNN模型測量肩關(guān)節(jié)解剖參數(shù)最大平均誤差為1.9 mm,評估GBL百分比最大平均誤差為4.67%。ZHAO等[32]以2階段網(wǎng)絡(luò)基于肩關(guān)節(jié)CT分割并測量關(guān)節(jié)盂骨缺損,發(fā)現(xiàn)先以ResNet-101定位關(guān)節(jié)盂所在CT切片可減少后續(xù)U-Net對關(guān)節(jié)盂的錯誤預(yù)測;之后以U-Net從關(guān)節(jié)盂CT切片中分割關(guān)節(jié)盂,ResNet-101的準(zhǔn)確率達(dá)99.28%,U-Net的平均交并比達(dá)0.96,提示其分割準(zhǔn)確性良好。
肩部嚴(yán)重?fù)p傷或關(guān)節(jié)感染時,需植入假體進(jìn)行修復(fù)。DL技術(shù)有利于分類植入物、預(yù)測療效及評估預(yù)后,從而制定個體化治療方案。YI等[33]訓(xùn)練ResNet-18用于檢測X線片中的肩關(guān)節(jié)置換術(shù)植入物、區(qū)分全肩關(guān)節(jié)置換術(shù)(total shoulder arthroplasty, TSA)與反置式人工全肩關(guān)節(jié)置換術(shù)(reverse total shoulder arthroplasty, RTSA),并訓(xùn)練5個ResNet-152以區(qū)分5種不同TSA模型,結(jié)果顯示ResNet-18檢測肩關(guān)節(jié)置換術(shù)植入物的AUC為1.0,區(qū)分TSA與RTSA的AUC為0.97,而ResNet-152區(qū)分5種TSA模型的AUC均高于0.86。SULTAN等[34]利用改良ResNet-50、DenseNet-201和1個淺層連接網(wǎng)絡(luò)組成密集殘差網(wǎng)絡(luò),其分類X線片中4種肩部植入物的準(zhǔn)確率達(dá)85.92%。KUMAR等[35]納入7 811例肩關(guān)節(jié)置換術(shù)患者,采用線性回歸、決策樹及DL 3種ML方法建立模型,以預(yù)測術(shù)后多種臨床預(yù)后相關(guān)指標(biāo)(美國肩肘外科協(xié)會評分、美國加州大學(xué)肩關(guān)節(jié)系統(tǒng)評分、疼痛視覺模擬評分等),其預(yù)測準(zhǔn)確率均較好,預(yù)測預(yù)后達(dá)到最小臨床重要性閾值的AUC為0.79~0.97,其中DL技術(shù)預(yù)測各指標(biāo)的平均絕對誤差最小。
DL用于肩關(guān)節(jié)影像學(xué)雖已表現(xiàn)出優(yōu)異的性能和魯棒性,但仍存在不足:①目前DL在肩部的應(yīng)用多為肩袖疾病,而較少用于SI、盂唇損傷及凍結(jié)肩等;②多采用單中心數(shù)據(jù)訓(xùn)練模型,且圖像質(zhì)量控制無統(tǒng)一標(biāo)準(zhǔn);③多以監(jiān)督學(xué)習(xí)技術(shù)及基于2D圖像構(gòu)建DL模型。期待不久的將來能夠制定圖像質(zhì)量控制相關(guān)標(biāo)準(zhǔn),并基于影像學(xué)獲取3D信息,實(shí)現(xiàn)弱監(jiān)督及無監(jiān)督學(xué)習(xí)訓(xùn)練。
利益沖突:全體作者聲明無利益沖突。
作者貢獻(xiàn):鄭喻文查閱文獻(xiàn)、撰寫文章;武玉花查閱文獻(xiàn);陳曉飛和董馥聞修改文章;王平審閱文章;周晟審閱文章、經(jīng)費(fèi)支持。