[Abstract]Objective:Todesignanintellgentimagequalitycontrolalgorithmmodelforadominalanteroposterioradiographbased onknowledgegraphforclinicalpractice.Methods:UtilizingtheAnhuiProvincialImagingCloudPlatform,4499de-identified abdominalradiographimageswereincluded.Allimagesweredividedintoatrainingset(3136images),avalidationset (457iages), andatestset(906images)inaratioof7:1:2.Aknowledgegraph forsingle-personandmulti-personqualitycontrollabeling wasconstructed,anartifcialintellgence(AI)qualitycontrolmodelwastrained.Takingtheresultsofthreequalitycontrol expertsasthereferencestandardforqualitycontrol,theimagetechnicalqualityaccuracyandimageclarityacuracyamong thesingle-person,multi-personandAIqualitycontrolmethodswerecompared.Thecorelationsbetweensingle-personquality controlmulti-personqualitycontrolandreferencestandardswereevaluatedResults:Inthetestset,comparedwiththe referencestandard,theaverageacuracyofAIqualitycontrolwashigherthanthatofsingle-personqualitycontrol(A,B)( Plt; 0.01).IntermsofimageclaritythecorelationofIqualitycontrolwasthehighest(O.754),followedbymulti-personquality control(0.671),single-personqualitycontrolA(0.625)andB(O.617)insequence.Conclusions:Inthequalityassessment ofimageprojectiontechniqueandimageclarity,theefectofAIqualitycontrolissignificantlybetterthanthatof single-personqualitycontrol,andevenforsomelabels,itisslightlybeterthanthatofmuli-personqualityontrol,owing potential for clinical application.
[Keywords] Abdominal Radiograph;Image quality control;Knowledge graph;Artificial intellgence
腹部前后立位片(腹部平片)作為一種低成本、易獲取且非侵入性的常規檢查手段1,對腹部疾病的診斷至關重要。在醫療服務過程中,質量控制(質控)是確保醫療安全和提高診斷準確性的核心要素[2]。目前,腹部平片的影像質控主要依賴人工判定,實現智能質控仍面臨諸多挑戰。
近年來,深度學習技術在醫學圖像應用中表現出色,但缺乏先驗知識、限制了其性能提升。知識圖譜可通過圖形化的方式呈現豐富的語義信息[3],提供先驗知識。知識圖譜已在醫學影像領域圖像標注[4]、放射學報告生成[5]等方面發揮了顯著作用,提供了強大的先驗知識框架,幫助深度學習模型更好地適應影像數據的復雜性和變異性。本研究將知識圖譜與深度學習技術相融合,建立影像智能質控算法模型,探討腹部平片人工智能(AI)質控的可行性。
1資料與方法
1.1一般資料
使用數據均為2019年6月至2021年12月在安徽省影像云平臺獲得的5498張腹部平片。納入標準: ① 拍攝體位為前后立位; ② 年齡 ?3 歲; ③ 經脫敏處理,符合國家標準《信息安全技術個人信息安全規范:GB/T35273—2020》6的要求。最終4499張腹部平片納入研究。本研究使用匿名化的信息數據開展研究,經安徽中醫藥大學第一附屬醫院倫理委員會批準,免除倫理審查。
1.2 知識圖譜構建
參考《放射科管理規范與質控標準(2017版)》7,通過與安徽中醫藥大學第一附屬醫院、安徽醫科大學第一附屬醫院及中國科學技術大學第一附屬醫院10位具有3年以上放射科經驗的技師討論并制訂腹部平片質控標準(表1)。
表1腹部平片質控標準

參考Zhao等[8]提出的“質控類別-質控特征-細節特征\"3層結構模型,構建高效的影像質控知識圖譜(表2)。該圖譜涵蓋了圖像投照技術質量和圖像清晰度2個類別,精細整合了腹部平片幾乎全部的非規范擺位質量特征。
1.3腹部平片質控數據標注
將腹部平片依照知識圖譜進行標注,參與標注的醫師均具有3年以上臨床經驗,并接受嚴格的專業培訓。具體流程:由醫師A、B分別對圖像進行質控評估,得到標注結果A和B,此過程為單人質控,結果一致則直接完成標注;若出現分歧,則邀請具有10年以上臨床經驗的醫師C做決定性標注,得到標注結果C,此過程為多人質控。同一放射科醫師對同一圖像只能標注1次。多人質控數據將用于深度學習模型訓練、驗證和測試。若不存在質控知識圖譜上的情況,相關圖像則被判定為正常圖像。
1.4AI模型的訓練及建立
在模型訓練環節分別采用TResNet和ResNet-50神經網絡。針對知識圖譜的圖像技術質量節點相關數據集的分類任務,選用TResNet神經網絡進行處理;對知識圖譜的圖像清晰度節點相關數據集回歸為不同的等級,選用ResNet-50神經網絡。2個神經網絡的初始參數均來源于在ImageNet數據集上預訓練過的模型參數。將4499張腹部平片按7:1:2比例分為訓練集3136張、驗證集457張和測試集906張。
1.5 質控審核
邀請3位具有10年以上放射科經驗的質控專家對測試集AI質控結果進行審核。AI質控結果與人工質控結果不一致時,由專家討論并做出最終審核,將其審核結果作為參考標準。
1.6 評估指標
采用精確率評估單人質控、多人質控及AI質控對圖像技術質量和圖像清晰度的預測能力。為確保精確率的準確性,設定閾值為 0.99 。精確率的計算公真陽性式:精確率 Σ=Σ 其中,真陽性代表真陽性 + 假陽性單人質控、多人質控和模型預測中的真陽性病例數,假陽性則代表假陽性病例數。
1.7 統計學分析
采用SPSS23.0軟件進行圖像技術質量AI質控、單人質控(A、B)及多人質控之間的重復測量方差分析。使用Spearman相關分析評估單人質控(A、B)、多人質控與參考標準之間的相關性。
表2腹部平片質控知識圖譜結構實體設計

2結果
2.1單人質控分析
測試集共906例,男586例,女320例。在圖像技術質量評估中,單人質控A和B的結果完全一致209例( 23.07% ,不一致697例( 76.93% ;在圖像清晰度評估中,單人質控A和單人質控B結果完全一致337例 (37.20% ),不一致569例 (62.80% )。
2.2圖像技術質控結果(表3)
測試集中,AI質控、多人質控和單人質控(A、B)結果在圖像技術質量上的平均精確率分別為87.04%.83.47%.75.46% 和 75.53% 。AI質控精確率均高于單人質控(A、B(均 Plt;0.01 );與多人質控比較,差異無統計學意義( P=0.173 )。
2.3圖像清晰度質控結果(表4)
AI質控、多人質控和單人質控(A、B)在圖像清晰度上的平均精確率分別為 70.23%.70.15%.63.88%
和 63.86% 。其中AI質控結果與參考標準的相關系數最大(0.754),其余依次為多人質控(0.671)和單人質控A(0.625)、B(0.617)。
3結論
隨著醫學影像數據的增長,特別是在質控方面,傳統的人工質控不僅耗時且易受個人主觀判斷的影響。與此同時,AI在放射學領域的應用已顯示出其高智能化、準確性及客觀性等顯著優勢[9-10]。通過采用智能工具來標準化影像質量報告,可有效減少評估者之間的差異,提高質控效率,從而應對海量影像數據的質量審查需求[11]。本研究提出了一種創新腹部平片的AI質控方法,基于收集整理的腹部平片數據,構建質控知識圖譜,引導標注質控數據,建立相應的數據集;選取了2種卷積神經網絡TResNet12和ResNet- ?50[13] 進行模型訓練,并通過為各類別標簽分配不同權重的策略14應對類別不平衡。該AI質控方法不僅顯著提升了質控效率,且增強了準確性與一致性,可有效減輕放射科醫師的工作負擔,優化其專業診斷能力。
表3人工質控與AI質控的圖像技術質量精確率
%

表4人工質控、AI質控的圖像清晰度精確率

本研究中,在置信度閾值為0.99時,與參考標準比較,圖像技術質量AI質控的平均精確率達 87.04% 顯著高于單人質控(A、B)( 75.46% 和 75.53% ),差異有統計學意義。此外,圖像清晰度AI質控的平均精確率為 70.23% ,高于多人質控( 70.15% )及單人質控(A、B)( 63.88% 和 63.86% )。圖像清晰度AI質控與參考標準的相關系數為0.754,高于多人質控(0.671)和單人質控(A、B)(0.625和0.617)。上述結果證明了AI質控在腹部平片質量異常檢測中的明顯優勢,其效率、準確率及敏銳的識別力充分展示了在醫學影像圖像質控領域的巨大潛力。
本研究的局限性: ① 訓練數據的標注最多由3位放射科醫師完成,存在主觀判斷的差異。為降低這種差異確保結果的準確性,未來可考慮增加更多醫師參與標注。 ② 前期研究發現,TResNet在眾多圖像分類任務中表現出色,在ImageNet等數據集上取得顯著的成績[15-16]。同時, ResNet-50 也被廣泛應用于各類圖像處理任務中,如目標檢測[17和語義分割[18]等。在訓練階段,本研究采用了TResNet和ResNet-50神經網絡,但未與其他模型進行對比。為提升模型選擇的科學性和適用性,后續研究應考慮與其他模型進行比較評估。 ③ 采用的模型主要針對腹部平片質控設計,使用的訓練數據也僅限于腹部平片。未來將擴大模型應用范圍,使其能涵蓋更廣泛的放射影像質控任務。
總之,AI質控效果不僅超越了單人質控效果,且在多個節點優于多人質控效果。基于知識圖譜的智能質控方法能準確識別并判斷大部分類型的圖像質量特性,提升影像質控的效率和質量。
[參考文獻]
[1]BARBA E,LIVOVSKY D M,RELEA L,et al.Evaluation of abdominal gas byplain abdominal radiographs[J]. Neurogastroenterol Motil,2023,35(2):e14485.
[2]LARSON D B,BOLAND G W. Imaging quality control intheera ofartificial intelligence[J].JAm Coll Radiol,2019,16(9):1259-1266.
[3]JI S,PAN S,CAMBRIA E,et al.A survey on knowledge graphs:representation,acquisition,and applications [J]. IEEETrans Neural Netw Learn Syst,2021,33(2):494- 514.
[4]SEAH JC Y,TANG C H M,BUCHLAK Q D,et al. Effect of a comprehensive deep-learning model on the accuracy of chest X-ray interpretation by radiologists:a retrospective,multireader multicase study[J]. Lancet Digit Health,2021,3(8):e496-e506.
[5]WANG S,LIN M,GHOSAL T,et al. Knowledge graph applications in medical imaging analysis:a scoping review[J]. Health Data Sci,2022,2022:9841548.
[6]國家市場監督管理局,國家標準化管理委員會.信息安 全技術個人信息安全規范:GB/T35273-2020[S].北 京:中國標準出版社,2020:3-13.
[7]中華醫學會放射學分會.放射科管理規范與質控標 準(2017版)[S].北京:人民衛生出版社,2017.
[8] ZHAO S,GU Z,HAN X,et al. Construction and application of radiologic interpretation knowledge graph based onthree-layer structure model[C]//2O22 IEEE 2nd International Conference on Mobile Networks and WirelessCommunications (ICMNWC).Tumkur,Karnataka,India:IEEE,2022:1-6.
[9]ESTEVA A,KUPREL B,NOVOA R A,et al. Dermatologist-level classification of skin cancerwith deep neural networks[J]. Nature,2017,542(7639):115-118.
[10]EL NAQA I,HAIDER M A,GIGER M L,et al. Artificial intelligence: reshaping the practice of radiological sciences in the 21st century[J].Br JRadiol,2020,93 (1106):20190855.
[11] SAMANI Z R,ALAPPATT J A,PARKER D,et al. QCautomator:deep learning-based automated quality control for diffusion MR images[J].Front Neurosci,2020, 13:1456.
[12]RIDNIK T,LAWEN H,NOY A,etal. TResNet: high performance GPU-Dedicatedarchitecture [C]//2021 IEEE Winter Conference on Applications of Computer Vision(WACV).Waikoloa,HI,USA:IEEE,2021:1399- 1408.
[13]HE K,ZHANG X,REN S,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas,NV,USA:IEEE,2016:770-778.
[14]BHUSAL D,PANDAY S P. Multi-label classification of thoracic diseases using dense convolutional network on chest radiographs[J].arXiv Preprint arXiv:03583, 2022.
[15]DENG J,DONG W,SOCHER R,et al. ImageNet : a large-scale hierarchical image database[C]//2OO9 IEEE Conference on Computer Vision and Pattern Recognition.Miami,FL:IEEE,2009:248-255.
[16]LIN T Y,MAIRE M,BELONGIE S,et al. Microsoft COCO:Common objects in context[M]//Fleet D,Pajdla T,Schiele B,etal. Computer Vision-ECCV 2014:Vol. 8693.Cham:Springer International Publishing,2014: 740-755.
[17]REDMON J,FARHADI A. YOLOv3 :an incremental improvement[J].arXiv Preprint arXiv:1804.02767, 2018.
[18]CHEN L C,PAPANDREOU G,KOKKINOS I,et al. Deeplab:semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected CRFs[J].IEEE Trans Pattern Anal Mach Intell,2017, 40(4) :834-848.