999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于知識(shí)圖譜的腹部前后立位片的智能質(zhì)量控制

2025-11-13 00:00:00魯文豪谷宗運(yùn)張禹萱王倩宋亮亮李傳富

[Abstract]Objective:Todesignanintellgentimagequalitycontrolalgorithmmodelforadominalanteroposterioradiographbased onknowledgegraphforclinicalpractice.Methods:UtilizingtheAnhuiProvincialImagingCloudPlatform,4499de-identified abdominalradiographimageswereincluded.Allimagesweredividedintoatrainingset(3136images),avalidationset (457iages), andatestset(906images)inaratioof7:1:2.Aknowledgegraph forsingle-personandmulti-personqualitycontrollabeling wasconstructed,anartifcialintellgence(AI)qualitycontrolmodelwastrained.Takingtheresultsofthreequalitycontrol expertsasthereferencestandardforqualitycontrol,theimagetechnicalqualityaccuracyandimageclarityacuracyamong thesingle-person,multi-personandAIqualitycontrolmethodswerecompared.Thecorelationsbetweensingle-personquality controlmulti-personqualitycontrolandreferencestandardswereevaluatedResults:Inthetestset,comparedwiththe referencestandard,theaverageacuracyofAIqualitycontrolwashigherthanthatofsingle-personqualitycontrol(A,B)( Plt; 0.01).IntermsofimageclaritythecorelationofIqualitycontrolwasthehighest(O.754),followedbymulti-personquality control(0.671),single-personqualitycontrolA(0.625)andB(O.617)insequence.Conclusions:Inthequalityassessment ofimageprojectiontechniqueandimageclarity,theefectofAIqualitycontrolissignificantlybetterthanthatof single-personqualitycontrol,andevenforsomelabels,itisslightlybeterthanthatofmuli-personqualityontrol,owing potential for clinical application.

[Keywords] Abdominal Radiograph;Image quality control;Knowledge graph;Artificial intellgence

腹部前后立位片(腹部平片)作為一種低成本、易獲取且非侵入性的常規(guī)檢查手段1,對(duì)腹部疾病的診斷至關(guān)重要。在醫(yī)療服務(wù)過(guò)程中,質(zhì)量控制(質(zhì)控)是確保醫(yī)療安全和提高診斷準(zhǔn)確性的核心要素[2]。目前,腹部平片的影像質(zhì)控主要依賴人工判定,實(shí)現(xiàn)智能質(zhì)控仍面臨諸多挑戰(zhàn)。

近年來(lái),深度學(xué)習(xí)技術(shù)在醫(yī)學(xué)圖像應(yīng)用中表現(xiàn)出色,但缺乏先驗(yàn)知識(shí)、限制了其性能提升。知識(shí)圖譜可通過(guò)圖形化的方式呈現(xiàn)豐富的語(yǔ)義信息[3],提供先驗(yàn)知識(shí)。知識(shí)圖譜已在醫(yī)學(xué)影像領(lǐng)域圖像標(biāo)注[4]、放射學(xué)報(bào)告生成[5]等方面發(fā)揮了顯著作用,提供了強(qiáng)大的先驗(yàn)知識(shí)框架,幫助深度學(xué)習(xí)模型更好地適應(yīng)影像數(shù)據(jù)的復(fù)雜性和變異性。本研究將知識(shí)圖譜與深度學(xué)習(xí)技術(shù)相融合,建立影像智能質(zhì)控算法模型,探討腹部平片人工智能(AI)質(zhì)控的可行性。

1資料與方法

1.1一般資料

使用數(shù)據(jù)均為2019年6月至2021年12月在安徽省影像云平臺(tái)獲得的5498張腹部平片。納入標(biāo)準(zhǔn): ① 拍攝體位為前后立位; ② 年齡 ?3 歲; ③ 經(jīng)脫敏處理,符合國(guó)家標(biāo)準(zhǔn)《信息安全技術(shù)個(gè)人信息安全規(guī)范:GB/T35273—2020》6的要求。最終4499張腹部平片納入研究。本研究使用匿名化的信息數(shù)據(jù)開(kāi)展研究,經(jīng)安徽中醫(yī)藥大學(xué)第一附屬醫(yī)院倫理委員會(huì)批準(zhǔn),免除倫理審查。

1.2 知識(shí)圖譜構(gòu)建

參考《放射科管理規(guī)范與質(zhì)控標(biāo)準(zhǔn)(2017版)》7,通過(guò)與安徽中醫(yī)藥大學(xué)第一附屬醫(yī)院、安徽醫(yī)科大學(xué)第一附屬醫(yī)院及中國(guó)科學(xué)技術(shù)大學(xué)第一附屬醫(yī)院10位具有3年以上放射科經(jīng)驗(yàn)的技師討論并制訂腹部平片質(zhì)控標(biāo)準(zhǔn)(表1)。

表1腹部平片質(zhì)控標(biāo)準(zhǔn)

參考Zhao等[8]提出的“質(zhì)控類(lèi)別-質(zhì)控特征-細(xì)節(jié)特征\"3層結(jié)構(gòu)模型,構(gòu)建高效的影像質(zhì)控知識(shí)圖譜(表2)。該圖譜涵蓋了圖像投照技術(shù)質(zhì)量和圖像清晰度2個(gè)類(lèi)別,精細(xì)整合了腹部平片幾乎全部的非規(guī)范擺位質(zhì)量特征。

1.3腹部平片質(zhì)控?cái)?shù)據(jù)標(biāo)注

將腹部平片依照知識(shí)圖譜進(jìn)行標(biāo)注,參與標(biāo)注的醫(yī)師均具有3年以上臨床經(jīng)驗(yàn),并接受?chē)?yán)格的專業(yè)培訓(xùn)。具體流程:由醫(yī)師A、B分別對(duì)圖像進(jìn)行質(zhì)控評(píng)估,得到標(biāo)注結(jié)果A和B,此過(guò)程為單人質(zhì)控,結(jié)果一致則直接完成標(biāo)注;若出現(xiàn)分歧,則邀請(qǐng)具有10年以上臨床經(jīng)驗(yàn)的醫(yī)師C做決定性標(biāo)注,得到標(biāo)注結(jié)果C,此過(guò)程為多人質(zhì)控。同一放射科醫(yī)師對(duì)同一圖像只能標(biāo)注1次。多人質(zhì)控?cái)?shù)據(jù)將用于深度學(xué)習(xí)模型訓(xùn)練、驗(yàn)證和測(cè)試。若不存在質(zhì)控知識(shí)圖譜上的情況,相關(guān)圖像則被判定為正常圖像。

1.4AI模型的訓(xùn)練及建立

在模型訓(xùn)練環(huán)節(jié)分別采用TResNet和ResNet-50神經(jīng)網(wǎng)絡(luò)。針對(duì)知識(shí)圖譜的圖像技術(shù)質(zhì)量節(jié)點(diǎn)相關(guān)數(shù)據(jù)集的分類(lèi)任務(wù),選用TResNet神經(jīng)網(wǎng)絡(luò)進(jìn)行處理;對(duì)知識(shí)圖譜的圖像清晰度節(jié)點(diǎn)相關(guān)數(shù)據(jù)集回歸為不同的等級(jí),選用ResNet-50神經(jīng)網(wǎng)絡(luò)。2個(gè)神經(jīng)網(wǎng)絡(luò)的初始參數(shù)均來(lái)源于在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練過(guò)的模型參數(shù)。將4499張腹部平片按7:1:2比例分為訓(xùn)練集3136張、驗(yàn)證集457張和測(cè)試集906張。

1.5 質(zhì)控審核

邀請(qǐng)3位具有10年以上放射科經(jīng)驗(yàn)的質(zhì)控專家對(duì)測(cè)試集AI質(zhì)控結(jié)果進(jìn)行審核。AI質(zhì)控結(jié)果與人工質(zhì)控結(jié)果不一致時(shí),由專家討論并做出最終審核,將其審核結(jié)果作為參考標(biāo)準(zhǔn)。

1.6 評(píng)估指標(biāo)

采用精確率評(píng)估單人質(zhì)控、多人質(zhì)控及AI質(zhì)控對(duì)圖像技術(shù)質(zhì)量和圖像清晰度的預(yù)測(cè)能力。為確保精確率的準(zhǔn)確性,設(shè)定閾值為 0.99 。精確率的計(jì)算公真陽(yáng)性式:精確率 Σ=Σ 其中,真陽(yáng)性代表真陽(yáng)性 + 假陽(yáng)性單人質(zhì)控、多人質(zhì)控和模型預(yù)測(cè)中的真陽(yáng)性病例數(shù),假陽(yáng)性則代表假陽(yáng)性病例數(shù)。

1.7 統(tǒng)計(jì)學(xué)分析

采用SPSS23.0軟件進(jìn)行圖像技術(shù)質(zhì)量AI質(zhì)控、單人質(zhì)控(A、B)及多人質(zhì)控之間的重復(fù)測(cè)量方差分析。使用Spearman相關(guān)分析評(píng)估單人質(zhì)控(A、B)、多人質(zhì)控與參考標(biāo)準(zhǔn)之間的相關(guān)性。

表2腹部平片質(zhì)控知識(shí)圖譜結(jié)構(gòu)實(shí)體設(shè)計(jì)

2結(jié)果

2.1單人質(zhì)控分析

測(cè)試集共906例,男586例,女320例。在圖像技術(shù)質(zhì)量評(píng)估中,單人質(zhì)控A和B的結(jié)果完全一致209例( 23.07% ,不一致697例( 76.93% ;在圖像清晰度評(píng)估中,單人質(zhì)控A和單人質(zhì)控B結(jié)果完全一致337例 (37.20% ),不一致569例 (62.80% )。

2.2圖像技術(shù)質(zhì)控結(jié)果(表3)

測(cè)試集中,AI質(zhì)控、多人質(zhì)控和單人質(zhì)控(A、B)結(jié)果在圖像技術(shù)質(zhì)量上的平均精確率分別為87.04%.83.47%.75.46% 和 75.53% 。AI質(zhì)控精確率均高于單人質(zhì)控(A、B(均 Plt;0.01 );與多人質(zhì)控比較,差異無(wú)統(tǒng)計(jì)學(xué)意義( P=0.173 )。

2.3圖像清晰度質(zhì)控結(jié)果(表4)

AI質(zhì)控、多人質(zhì)控和單人質(zhì)控(A、B)在圖像清晰度上的平均精確率分別為 70.23%.70.15%.63.88%

和 63.86% 。其中AI質(zhì)控結(jié)果與參考標(biāo)準(zhǔn)的相關(guān)系數(shù)最大(0.754),其余依次為多人質(zhì)控(0.671)和單人質(zhì)控A(0.625)、B(0.617)。

3結(jié)論

隨著醫(yī)學(xué)影像數(shù)據(jù)的增長(zhǎng),特別是在質(zhì)控方面,傳統(tǒng)的人工質(zhì)控不僅耗時(shí)且易受個(gè)人主觀判斷的影響。與此同時(shí),AI在放射學(xué)領(lǐng)域的應(yīng)用已顯示出其高智能化、準(zhǔn)確性及客觀性等顯著優(yōu)勢(shì)[9-10]。通過(guò)采用智能工具來(lái)標(biāo)準(zhǔn)化影像質(zhì)量報(bào)告,可有效減少評(píng)估者之間的差異,提高質(zhì)控效率,從而應(yīng)對(duì)海量影像數(shù)據(jù)的質(zhì)量審查需求[11]。本研究提出了一種創(chuàng)新腹部平片的AI質(zhì)控方法,基于收集整理的腹部平片數(shù)據(jù),構(gòu)建質(zhì)控知識(shí)圖譜,引導(dǎo)標(biāo)注質(zhì)控?cái)?shù)據(jù),建立相應(yīng)的數(shù)據(jù)集;選取了2種卷積神經(jīng)網(wǎng)絡(luò)TResNet12和ResNet- ?50[13] 進(jìn)行模型訓(xùn)練,并通過(guò)為各類(lèi)別標(biāo)簽分配不同權(quán)重的策略14應(yīng)對(duì)類(lèi)別不平衡。該AI質(zhì)控方法不僅顯著提升了質(zhì)控效率,且增強(qiáng)了準(zhǔn)確性與一致性,可有效減輕放射科醫(yī)師的工作負(fù)擔(dān),優(yōu)化其專業(yè)診斷能力。

表3人工質(zhì)控與AI質(zhì)控的圖像技術(shù)質(zhì)量精確率

%

表4人工質(zhì)控、AI質(zhì)控的圖像清晰度精確率

本研究中,在置信度閾值為0.99時(shí),與參考標(biāo)準(zhǔn)比較,圖像技術(shù)質(zhì)量AI質(zhì)控的平均精確率達(dá) 87.04% 顯著高于單人質(zhì)控(A、B)( 75.46% 和 75.53% ),差異有統(tǒng)計(jì)學(xué)意義。此外,圖像清晰度AI質(zhì)控的平均精確率為 70.23% ,高于多人質(zhì)控( 70.15% )及單人質(zhì)控(A、B)( 63.88% 和 63.86% )。圖像清晰度AI質(zhì)控與參考標(biāo)準(zhǔn)的相關(guān)系數(shù)為0.754,高于多人質(zhì)控(0.671)和單人質(zhì)控(A、B)(0.625和0.617)。上述結(jié)果證明了AI質(zhì)控在腹部平片質(zhì)量異常檢測(cè)中的明顯優(yōu)勢(shì),其效率、準(zhǔn)確率及敏銳的識(shí)別力充分展示了在醫(yī)學(xué)影像圖像質(zhì)控領(lǐng)域的巨大潛力。

本研究的局限性: ① 訓(xùn)練數(shù)據(jù)的標(biāo)注最多由3位放射科醫(yī)師完成,存在主觀判斷的差異。為降低這種差異確保結(jié)果的準(zhǔn)確性,未來(lái)可考慮增加更多醫(yī)師參與標(biāo)注。 ② 前期研究發(fā)現(xiàn),TResNet在眾多圖像分類(lèi)任務(wù)中表現(xiàn)出色,在ImageNet等數(shù)據(jù)集上取得顯著的成績(jī)[15-16]。同時(shí), ResNet-50 也被廣泛應(yīng)用于各類(lèi)圖像處理任務(wù)中,如目標(biāo)檢測(cè)[17和語(yǔ)義分割[18]等。在訓(xùn)練階段,本研究采用了TResNet和ResNet-50神經(jīng)網(wǎng)絡(luò),但未與其他模型進(jìn)行對(duì)比。為提升模型選擇的科學(xué)性和適用性,后續(xù)研究應(yīng)考慮與其他模型進(jìn)行比較評(píng)估。 ③ 采用的模型主要針對(duì)腹部平片質(zhì)控設(shè)計(jì),使用的訓(xùn)練數(shù)據(jù)也僅限于腹部平片。未來(lái)將擴(kuò)大模型應(yīng)用范圍,使其能涵蓋更廣泛的放射影像質(zhì)控任務(wù)。

總之,AI質(zhì)控效果不僅超越了單人質(zhì)控效果,且在多個(gè)節(jié)點(diǎn)優(yōu)于多人質(zhì)控效果。基于知識(shí)圖譜的智能質(zhì)控方法能準(zhǔn)確識(shí)別并判斷大部分類(lèi)型的圖像質(zhì)量特性,提升影像質(zhì)控的效率和質(zhì)量。

[參考文獻(xiàn)]

[1]BARBA E,LIVOVSKY D M,RELEA L,et al.Evaluation of abdominal gas byplain abdominal radiographs[J]. Neurogastroenterol Motil,2023,35(2):e14485.

[2]LARSON D B,BOLAND G W. Imaging quality control intheera ofartificial intelligence[J].JAm Coll Radiol,2019,16(9):1259-1266.

[3]JI S,PAN S,CAMBRIA E,et al.A survey on knowledge graphs:representation,acquisition,and applications [J]. IEEETrans Neural Netw Learn Syst,2021,33(2):494- 514.

[4]SEAH JC Y,TANG C H M,BUCHLAK Q D,et al. Effect of a comprehensive deep-learning model on the accuracy of chest X-ray interpretation by radiologists:a retrospective,multireader multicase study[J]. Lancet Digit Health,2021,3(8):e496-e506.

[5]WANG S,LIN M,GHOSAL T,et al. Knowledge graph applications in medical imaging analysis:a scoping review[J]. Health Data Sci,2022,2022:9841548.

[6]國(guó)家市場(chǎng)監(jiān)督管理局,國(guó)家標(biāo)準(zhǔn)化管理委員會(huì).信息安 全技術(shù)個(gè)人信息安全規(guī)范:GB/T35273-2020[S].北 京:中國(guó)標(biāo)準(zhǔn)出版社,2020:3-13.

[7]中華醫(yī)學(xué)會(huì)放射學(xué)分會(huì).放射科管理規(guī)范與質(zhì)控標(biāo) 準(zhǔn)(2017版)[S].北京:人民衛(wèi)生出版社,2017.

[8] ZHAO S,GU Z,HAN X,et al. Construction and application of radiologic interpretation knowledge graph based onthree-layer structure model[C]//2O22 IEEE 2nd International Conference on Mobile Networks and WirelessCommunications (ICMNWC).Tumkur,Karnataka,India:IEEE,2022:1-6.

[9]ESTEVA A,KUPREL B,NOVOA R A,et al. Dermatologist-level classification of skin cancerwith deep neural networks[J]. Nature,2017,542(7639):115-118.

[10]EL NAQA I,HAIDER M A,GIGER M L,et al. Artificial intelligence: reshaping the practice of radiological sciences in the 21st century[J].Br JRadiol,2020,93 (1106):20190855.

[11] SAMANI Z R,ALAPPATT J A,PARKER D,et al. QCautomator:deep learning-based automated quality control for diffusion MR images[J].Front Neurosci,2020, 13:1456.

[12]RIDNIK T,LAWEN H,NOY A,etal. TResNet: high performance GPU-Dedicatedarchitecture [C]//2021 IEEE Winter Conference on Applications of Computer Vision(WACV).Waikoloa,HI,USA:IEEE,2021:1399- 1408.

[13]HE K,ZHANG X,REN S,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas,NV,USA:IEEE,2016:770-778.

[14]BHUSAL D,PANDAY S P. Multi-label classification of thoracic diseases using dense convolutional network on chest radiographs[J].arXiv Preprint arXiv:03583, 2022.

[15]DENG J,DONG W,SOCHER R,et al. ImageNet : a large-scale hierarchical image database[C]//2OO9 IEEE Conference on Computer Vision and Pattern Recognition.Miami,F(xiàn)L:IEEE,2009:248-255.

[16]LIN T Y,MAIRE M,BELONGIE S,et al. Microsoft COCO:Common objects in context[M]//Fleet D,Pajdla T,Schiele B,etal. Computer Vision-ECCV 2014:Vol. 8693.Cham:Springer International Publishing,2014: 740-755.

[17]REDMON J,F(xiàn)ARHADI A. YOLOv3 :an incremental improvement[J].arXiv Preprint arXiv:1804.02767, 2018.

[18]CHEN L C,PAPANDREOU G,KOKKINOS I,et al. Deeplab:semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected CRFs[J].IEEE Trans Pattern Anal Mach Intell,2017, 40(4) :834-848.

主站蜘蛛池模板: 久久这里只有精品23| 五月天综合网亚洲综合天堂网| 久草视频中文| 国产91成人| 欧美精品黑人粗大| 国产精品一区在线麻豆| www成人国产在线观看网站| 嫩草影院在线观看精品视频| 国内毛片视频| 四虎永久免费地址| 六月婷婷综合| 99在线免费播放| 国内精品久久九九国产精品| 99无码中文字幕视频| 久久五月天国产自| 中文字幕亚洲第一| 福利视频99| AV不卡在线永久免费观看| 欧美精品在线免费| 久久久久亚洲AV成人人电影软件| 一级毛片a女人刺激视频免费| 国产成人亚洲精品蜜芽影院| 国产一级无码不卡视频| 色久综合在线| 国产va免费精品观看| 精品国产免费第一区二区三区日韩| 亚洲国产成人自拍| 韩日午夜在线资源一区二区| www.日韩三级| 色悠久久久| www精品久久| 亚洲综合亚洲国产尤物| 成人亚洲天堂| 影音先锋丝袜制服| 亚洲色图欧美激情| 国产成人亚洲无吗淙合青草| 免费国产无遮挡又黄又爽| 亚洲国产成人在线| 亚洲综合久久一本伊一区| 久久亚洲美女精品国产精品| 人妻免费无码不卡视频| 欧美日韩中文国产| av大片在线无码免费| 无码久看视频| 中文字幕免费视频| 亚洲国产精品久久久久秋霞影院 | 超碰aⅴ人人做人人爽欧美| 国产资源免费观看| 国产激情在线视频| 亚洲男人的天堂视频| 在线欧美一区| 99久久精品国产精品亚洲| 国产91麻豆视频| 日韩视频精品在线| 四虎成人精品在永久免费| 日韩欧美国产综合| 波多野结衣中文字幕久久| 极品av一区二区| 精品国产香蕉在线播出| 午夜精品福利影院| 伊人久久福利中文字幕| 99久视频| 中文字幕在线视频免费| 日韩午夜伦| 国产精品丝袜视频| 国产白浆在线| 国产免费怡红院视频| 无码免费的亚洲视频| 日韩一区二区三免费高清| www.日韩三级| 婷婷色在线视频| 免费午夜无码18禁无码影院| 国产一二视频| 日韩不卡高清视频| 日韩一级二级三级| 欧洲高清无码在线| 欧美精品成人一区二区在线观看| 久久久久夜色精品波多野结衣| 国产精品99在线观看| 日韩a在线观看免费观看| 国产免费观看av大片的网站| 亚洲女同一区二区|