[Abstract]Objective:Todesignanintellgentimagequalitycontrolalgorithmmodelforadominalanteroposterioradiographbased onknowledgegraphforclinicalpractice.Methods:UtilizingtheAnhuiProvincialImagingCloudPlatform,4499de-identified abdominalradiographimageswereincluded.Allimagesweredividedintoatrainingset(3136images),avalidationset (457iages), andatestset(906images)inaratioof7:1:2.Aknowledgegraph forsingle-personandmulti-personqualitycontrollabeling wasconstructed,anartifcialintellgence(AI)qualitycontrolmodelwastrained.Takingtheresultsofthreequalitycontrol expertsasthereferencestandardforqualitycontrol,theimagetechnicalqualityaccuracyandimageclarityacuracyamong thesingle-person,multi-personandAIqualitycontrolmethodswerecompared.Thecorelationsbetweensingle-personquality controlmulti-personqualitycontrolandreferencestandardswereevaluatedResults:Inthetestset,comparedwiththe referencestandard,theaverageacuracyofAIqualitycontrolwashigherthanthatofsingle-personqualitycontrol(A,B)( Plt; 0.01).IntermsofimageclaritythecorelationofIqualitycontrolwasthehighest(O.754),followedbymulti-personquality control(0.671),single-personqualitycontrolA(0.625)andB(O.617)insequence.Conclusions:Inthequalityassessment ofimageprojectiontechniqueandimageclarity,theefectofAIqualitycontrolissignificantlybetterthanthatof single-personqualitycontrol,andevenforsomelabels,itisslightlybeterthanthatofmuli-personqualityontrol,owing potential for clinical application.
[Keywords] Abdominal Radiograph;Image quality control;Knowledge graph;Artificial intellgence
腹部前后立位片(腹部平片)作為一種低成本、易獲取且非侵入性的常規(guī)檢查手段1,對(duì)腹部疾病的診斷至關(guān)重要。在醫(yī)療服務(wù)過(guò)程中,質(zhì)量控制(質(zhì)控)是確保醫(yī)療安全和提高診斷準(zhǔn)確性的核心要素[2]。目前,腹部平片的影像質(zhì)控主要依賴人工判定,實(shí)現(xiàn)智能質(zhì)控仍面臨諸多挑戰(zhàn)。
近年來(lái),深度學(xué)習(xí)技術(shù)在醫(yī)學(xué)圖像應(yīng)用中表現(xiàn)出色,但缺乏先驗(yàn)知識(shí)、限制了其性能提升。知識(shí)圖譜可通過(guò)圖形化的方式呈現(xiàn)豐富的語(yǔ)義信息[3],提供先驗(yàn)知識(shí)。知識(shí)圖譜已在醫(yī)學(xué)影像領(lǐng)域圖像標(biāo)注[4]、放射學(xué)報(bào)告生成[5]等方面發(fā)揮了顯著作用,提供了強(qiáng)大的先驗(yàn)知識(shí)框架,幫助深度學(xué)習(xí)模型更好地適應(yīng)影像數(shù)據(jù)的復(fù)雜性和變異性。本研究將知識(shí)圖譜與深度學(xué)習(xí)技術(shù)相融合,建立影像智能質(zhì)控算法模型,探討腹部平片人工智能(AI)質(zhì)控的可行性。
1資料與方法
1.1一般資料
使用數(shù)據(jù)均為2019年6月至2021年12月在安徽省影像云平臺(tái)獲得的5498張腹部平片。納入標(biāo)準(zhǔn): ① 拍攝體位為前后立位; ② 年齡 ?3 歲; ③ 經(jīng)脫敏處理,符合國(guó)家標(biāo)準(zhǔn)《信息安全技術(shù)個(gè)人信息安全規(guī)范:GB/T35273—2020》6的要求。最終4499張腹部平片納入研究。本研究使用匿名化的信息數(shù)據(jù)開(kāi)展研究,經(jīng)安徽中醫(yī)藥大學(xué)第一附屬醫(yī)院倫理委員會(huì)批準(zhǔn),免除倫理審查。
1.2 知識(shí)圖譜構(gòu)建
參考《放射科管理規(guī)范與質(zhì)控標(biāo)準(zhǔn)(2017版)》7,通過(guò)與安徽中醫(yī)藥大學(xué)第一附屬醫(yī)院、安徽醫(yī)科大學(xué)第一附屬醫(yī)院及中國(guó)科學(xué)技術(shù)大學(xué)第一附屬醫(yī)院10位具有3年以上放射科經(jīng)驗(yàn)的技師討論并制訂腹部平片質(zhì)控標(biāo)準(zhǔn)(表1)。
表1腹部平片質(zhì)控標(biāo)準(zhǔn)

參考Zhao等[8]提出的“質(zhì)控類(lèi)別-質(zhì)控特征-細(xì)節(jié)特征\"3層結(jié)構(gòu)模型,構(gòu)建高效的影像質(zhì)控知識(shí)圖譜(表2)。該圖譜涵蓋了圖像投照技術(shù)質(zhì)量和圖像清晰度2個(gè)類(lèi)別,精細(xì)整合了腹部平片幾乎全部的非規(guī)范擺位質(zhì)量特征。
1.3腹部平片質(zhì)控?cái)?shù)據(jù)標(biāo)注
將腹部平片依照知識(shí)圖譜進(jìn)行標(biāo)注,參與標(biāo)注的醫(yī)師均具有3年以上臨床經(jīng)驗(yàn),并接受?chē)?yán)格的專業(yè)培訓(xùn)。具體流程:由醫(yī)師A、B分別對(duì)圖像進(jìn)行質(zhì)控評(píng)估,得到標(biāo)注結(jié)果A和B,此過(guò)程為單人質(zhì)控,結(jié)果一致則直接完成標(biāo)注;若出現(xiàn)分歧,則邀請(qǐng)具有10年以上臨床經(jīng)驗(yàn)的醫(yī)師C做決定性標(biāo)注,得到標(biāo)注結(jié)果C,此過(guò)程為多人質(zhì)控。同一放射科醫(yī)師對(duì)同一圖像只能標(biāo)注1次。多人質(zhì)控?cái)?shù)據(jù)將用于深度學(xué)習(xí)模型訓(xùn)練、驗(yàn)證和測(cè)試。若不存在質(zhì)控知識(shí)圖譜上的情況,相關(guān)圖像則被判定為正常圖像。
1.4AI模型的訓(xùn)練及建立
在模型訓(xùn)練環(huán)節(jié)分別采用TResNet和ResNet-50神經(jīng)網(wǎng)絡(luò)。針對(duì)知識(shí)圖譜的圖像技術(shù)質(zhì)量節(jié)點(diǎn)相關(guān)數(shù)據(jù)集的分類(lèi)任務(wù),選用TResNet神經(jīng)網(wǎng)絡(luò)進(jìn)行處理;對(duì)知識(shí)圖譜的圖像清晰度節(jié)點(diǎn)相關(guān)數(shù)據(jù)集回歸為不同的等級(jí),選用ResNet-50神經(jīng)網(wǎng)絡(luò)。2個(gè)神經(jīng)網(wǎng)絡(luò)的初始參數(shù)均來(lái)源于在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練過(guò)的模型參數(shù)。將4499張腹部平片按7:1:2比例分為訓(xùn)練集3136張、驗(yàn)證集457張和測(cè)試集906張。
1.5 質(zhì)控審核
邀請(qǐng)3位具有10年以上放射科經(jīng)驗(yàn)的質(zhì)控專家對(duì)測(cè)試集AI質(zhì)控結(jié)果進(jìn)行審核。AI質(zhì)控結(jié)果與人工質(zhì)控結(jié)果不一致時(shí),由專家討論并做出最終審核,將其審核結(jié)果作為參考標(biāo)準(zhǔn)。
1.6 評(píng)估指標(biāo)
采用精確率評(píng)估單人質(zhì)控、多人質(zhì)控及AI質(zhì)控對(duì)圖像技術(shù)質(zhì)量和圖像清晰度的預(yù)測(cè)能力。為確保精確率的準(zhǔn)確性,設(shè)定閾值為 0.99 。精確率的計(jì)算公真陽(yáng)性式:精確率 Σ=Σ 其中,真陽(yáng)性代表真陽(yáng)性 + 假陽(yáng)性單人質(zhì)控、多人質(zhì)控和模型預(yù)測(cè)中的真陽(yáng)性病例數(shù),假陽(yáng)性則代表假陽(yáng)性病例數(shù)。
1.7 統(tǒng)計(jì)學(xué)分析
采用SPSS23.0軟件進(jìn)行圖像技術(shù)質(zhì)量AI質(zhì)控、單人質(zhì)控(A、B)及多人質(zhì)控之間的重復(fù)測(cè)量方差分析。使用Spearman相關(guān)分析評(píng)估單人質(zhì)控(A、B)、多人質(zhì)控與參考標(biāo)準(zhǔn)之間的相關(guān)性。
表2腹部平片質(zhì)控知識(shí)圖譜結(jié)構(gòu)實(shí)體設(shè)計(jì)

2結(jié)果
2.1單人質(zhì)控分析
測(cè)試集共906例,男586例,女320例。在圖像技術(shù)質(zhì)量評(píng)估中,單人質(zhì)控A和B的結(jié)果完全一致209例( 23.07% ,不一致697例( 76.93% ;在圖像清晰度評(píng)估中,單人質(zhì)控A和單人質(zhì)控B結(jié)果完全一致337例 (37.20% ),不一致569例 (62.80% )。
2.2圖像技術(shù)質(zhì)控結(jié)果(表3)
測(cè)試集中,AI質(zhì)控、多人質(zhì)控和單人質(zhì)控(A、B)結(jié)果在圖像技術(shù)質(zhì)量上的平均精確率分別為87.04%.83.47%.75.46% 和 75.53% 。AI質(zhì)控精確率均高于單人質(zhì)控(A、B(均 Plt;0.01 );與多人質(zhì)控比較,差異無(wú)統(tǒng)計(jì)學(xué)意義( P=0.173 )。
2.3圖像清晰度質(zhì)控結(jié)果(表4)
AI質(zhì)控、多人質(zhì)控和單人質(zhì)控(A、B)在圖像清晰度上的平均精確率分別為 70.23%.70.15%.63.88%
和 63.86% 。其中AI質(zhì)控結(jié)果與參考標(biāo)準(zhǔn)的相關(guān)系數(shù)最大(0.754),其余依次為多人質(zhì)控(0.671)和單人質(zhì)控A(0.625)、B(0.617)。
3結(jié)論
隨著醫(yī)學(xué)影像數(shù)據(jù)的增長(zhǎng),特別是在質(zhì)控方面,傳統(tǒng)的人工質(zhì)控不僅耗時(shí)且易受個(gè)人主觀判斷的影響。與此同時(shí),AI在放射學(xué)領(lǐng)域的應(yīng)用已顯示出其高智能化、準(zhǔn)確性及客觀性等顯著優(yōu)勢(shì)[9-10]。通過(guò)采用智能工具來(lái)標(biāo)準(zhǔn)化影像質(zhì)量報(bào)告,可有效減少評(píng)估者之間的差異,提高質(zhì)控效率,從而應(yīng)對(duì)海量影像數(shù)據(jù)的質(zhì)量審查需求[11]。本研究提出了一種創(chuàng)新腹部平片的AI質(zhì)控方法,基于收集整理的腹部平片數(shù)據(jù),構(gòu)建質(zhì)控知識(shí)圖譜,引導(dǎo)標(biāo)注質(zhì)控?cái)?shù)據(jù),建立相應(yīng)的數(shù)據(jù)集;選取了2種卷積神經(jīng)網(wǎng)絡(luò)TResNet12和ResNet- ?50[13] 進(jìn)行模型訓(xùn)練,并通過(guò)為各類(lèi)別標(biāo)簽分配不同權(quán)重的策略14應(yīng)對(duì)類(lèi)別不平衡。該AI質(zhì)控方法不僅顯著提升了質(zhì)控效率,且增強(qiáng)了準(zhǔn)確性與一致性,可有效減輕放射科醫(yī)師的工作負(fù)擔(dān),優(yōu)化其專業(yè)診斷能力。
表3人工質(zhì)控與AI質(zhì)控的圖像技術(shù)質(zhì)量精確率
%

表4人工質(zhì)控、AI質(zhì)控的圖像清晰度精確率

本研究中,在置信度閾值為0.99時(shí),與參考標(biāo)準(zhǔn)比較,圖像技術(shù)質(zhì)量AI質(zhì)控的平均精確率達(dá) 87.04% 顯著高于單人質(zhì)控(A、B)( 75.46% 和 75.53% ),差異有統(tǒng)計(jì)學(xué)意義。此外,圖像清晰度AI質(zhì)控的平均精確率為 70.23% ,高于多人質(zhì)控( 70.15% )及單人質(zhì)控(A、B)( 63.88% 和 63.86% )。圖像清晰度AI質(zhì)控與參考標(biāo)準(zhǔn)的相關(guān)系數(shù)為0.754,高于多人質(zhì)控(0.671)和單人質(zhì)控(A、B)(0.625和0.617)。上述結(jié)果證明了AI質(zhì)控在腹部平片質(zhì)量異常檢測(cè)中的明顯優(yōu)勢(shì),其效率、準(zhǔn)確率及敏銳的識(shí)別力充分展示了在醫(yī)學(xué)影像圖像質(zhì)控領(lǐng)域的巨大潛力。
本研究的局限性: ① 訓(xùn)練數(shù)據(jù)的標(biāo)注最多由3位放射科醫(yī)師完成,存在主觀判斷的差異。為降低這種差異確保結(jié)果的準(zhǔn)確性,未來(lái)可考慮增加更多醫(yī)師參與標(biāo)注。 ② 前期研究發(fā)現(xiàn),TResNet在眾多圖像分類(lèi)任務(wù)中表現(xiàn)出色,在ImageNet等數(shù)據(jù)集上取得顯著的成績(jī)[15-16]。同時(shí), ResNet-50 也被廣泛應(yīng)用于各類(lèi)圖像處理任務(wù)中,如目標(biāo)檢測(cè)[17和語(yǔ)義分割[18]等。在訓(xùn)練階段,本研究采用了TResNet和ResNet-50神經(jīng)網(wǎng)絡(luò),但未與其他模型進(jìn)行對(duì)比。為提升模型選擇的科學(xué)性和適用性,后續(xù)研究應(yīng)考慮與其他模型進(jìn)行比較評(píng)估。 ③ 采用的模型主要針對(duì)腹部平片質(zhì)控設(shè)計(jì),使用的訓(xùn)練數(shù)據(jù)也僅限于腹部平片。未來(lái)將擴(kuò)大模型應(yīng)用范圍,使其能涵蓋更廣泛的放射影像質(zhì)控任務(wù)。
總之,AI質(zhì)控效果不僅超越了單人質(zhì)控效果,且在多個(gè)節(jié)點(diǎn)優(yōu)于多人質(zhì)控效果。基于知識(shí)圖譜的智能質(zhì)控方法能準(zhǔn)確識(shí)別并判斷大部分類(lèi)型的圖像質(zhì)量特性,提升影像質(zhì)控的效率和質(zhì)量。
[參考文獻(xiàn)]
[1]BARBA E,LIVOVSKY D M,RELEA L,et al.Evaluation of abdominal gas byplain abdominal radiographs[J]. Neurogastroenterol Motil,2023,35(2):e14485.
[2]LARSON D B,BOLAND G W. Imaging quality control intheera ofartificial intelligence[J].JAm Coll Radiol,2019,16(9):1259-1266.
[3]JI S,PAN S,CAMBRIA E,et al.A survey on knowledge graphs:representation,acquisition,and applications [J]. IEEETrans Neural Netw Learn Syst,2021,33(2):494- 514.
[4]SEAH JC Y,TANG C H M,BUCHLAK Q D,et al. Effect of a comprehensive deep-learning model on the accuracy of chest X-ray interpretation by radiologists:a retrospective,multireader multicase study[J]. Lancet Digit Health,2021,3(8):e496-e506.
[5]WANG S,LIN M,GHOSAL T,et al. Knowledge graph applications in medical imaging analysis:a scoping review[J]. Health Data Sci,2022,2022:9841548.
[6]國(guó)家市場(chǎng)監(jiān)督管理局,國(guó)家標(biāo)準(zhǔn)化管理委員會(huì).信息安 全技術(shù)個(gè)人信息安全規(guī)范:GB/T35273-2020[S].北 京:中國(guó)標(biāo)準(zhǔn)出版社,2020:3-13.
[7]中華醫(yī)學(xué)會(huì)放射學(xué)分會(huì).放射科管理規(guī)范與質(zhì)控標(biāo) 準(zhǔn)(2017版)[S].北京:人民衛(wèi)生出版社,2017.
[8] ZHAO S,GU Z,HAN X,et al. Construction and application of radiologic interpretation knowledge graph based onthree-layer structure model[C]//2O22 IEEE 2nd International Conference on Mobile Networks and WirelessCommunications (ICMNWC).Tumkur,Karnataka,India:IEEE,2022:1-6.
[9]ESTEVA A,KUPREL B,NOVOA R A,et al. Dermatologist-level classification of skin cancerwith deep neural networks[J]. Nature,2017,542(7639):115-118.
[10]EL NAQA I,HAIDER M A,GIGER M L,et al. Artificial intelligence: reshaping the practice of radiological sciences in the 21st century[J].Br JRadiol,2020,93 (1106):20190855.
[11] SAMANI Z R,ALAPPATT J A,PARKER D,et al. QCautomator:deep learning-based automated quality control for diffusion MR images[J].Front Neurosci,2020, 13:1456.
[12]RIDNIK T,LAWEN H,NOY A,etal. TResNet: high performance GPU-Dedicatedarchitecture [C]//2021 IEEE Winter Conference on Applications of Computer Vision(WACV).Waikoloa,HI,USA:IEEE,2021:1399- 1408.
[13]HE K,ZHANG X,REN S,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas,NV,USA:IEEE,2016:770-778.
[14]BHUSAL D,PANDAY S P. Multi-label classification of thoracic diseases using dense convolutional network on chest radiographs[J].arXiv Preprint arXiv:03583, 2022.
[15]DENG J,DONG W,SOCHER R,et al. ImageNet : a large-scale hierarchical image database[C]//2OO9 IEEE Conference on Computer Vision and Pattern Recognition.Miami,F(xiàn)L:IEEE,2009:248-255.
[16]LIN T Y,MAIRE M,BELONGIE S,et al. Microsoft COCO:Common objects in context[M]//Fleet D,Pajdla T,Schiele B,etal. Computer Vision-ECCV 2014:Vol. 8693.Cham:Springer International Publishing,2014: 740-755.
[17]REDMON J,F(xiàn)ARHADI A. YOLOv3 :an incremental improvement[J].arXiv Preprint arXiv:1804.02767, 2018.
[18]CHEN L C,PAPANDREOU G,KOKKINOS I,et al. Deeplab:semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected CRFs[J].IEEE Trans Pattern Anal Mach Intell,2017, 40(4) :834-848.
中國(guó)中西醫(yī)結(jié)合影像學(xué)雜志2025年5期