999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度卷積神經網絡模型輔助下結直腸息肉檢測系統對初級醫師結直腸小息肉檢出率的影響

2022-04-22 06:03:38王曉峰姚樂宇彭海霞楊大明黃曉霖
上海交通大學學報(醫學版) 2022年2期

王曉峰,周 璐,姚樂宇,何 凡,3,彭海霞,楊大明#,黃曉霖,3#

1.上海交通大學醫學院附屬同仁醫院內鏡中心,上海 200336;2.上海交通大學電子信息與電氣工程學院,上海 200240;3.上海交通大學醫療機器人研究院,上海 200240

2020 年,全球癌癥數據[1]顯示:結直腸癌發病率在新發腫瘤中排名第3 位,死亡率排名第2 位;我國新發結直腸癌54 萬例,死亡29 萬例。通過結直腸鏡檢查,早期發現和切除結直腸腫瘤至關重要。臨床上,息肉檢出率被認為是結腸鏡檢查質量的評判標準;息肉檢出率每增加1%,結直腸癌發病率降低3%~6%[2-3]。但由于內鏡醫師水平參差不齊以及息肉形態各異,結直腸息肉存在不同程度的漏診[4]。因此,亟需一個能夠自動識別息肉的客觀診斷系統,以降低結直腸息肉,尤其是腺瘤的漏診率。

近年來人工智能(artificial intelligence,AI)技術在多領域迅速發展,深度卷積神經網絡(deep convolutional neural network,DCNN)的提出帶動了計算機視覺領域的崛起[5]。DCNN 能從大數據中學習,兼具高精度和高速處理的優點。DCNN的這種特性,使其在醫療領域,尤其是在影像學圖像方面應用廣泛。2003 年,KARKANIS 等[6]首次報道了使用計算機輔助檢測(computer-aided detection,CADe)系統檢測結直腸息肉,檢出率>90%。近年來,國內研究發現實時CADe 可以明顯提高腺瘤檢出率[7-9]。但上述研究對象均為有操作經驗的內鏡醫師;而缺乏結腸鏡操作經驗的內鏡醫師能否從CADe中獲益,值得探討。為了探究AI 對初學者結直腸息肉檢出率的影響,本研究構建了一個基于YOLO算法的結直腸息肉檢測系統,用于視頻條件下及實時操作中檢測結直腸息肉,現將研究結果報道如下。

1 對象與方法

1.1 研究對象、數據處理及分類

選取上海交通大學醫學院附屬同仁醫院內鏡中心數據庫2019 年1 月—2020 年12 月的結腸鏡圖像及2021 年1 月—3 月的結腸鏡視頻(倫理備案號2020-118),并剔除其中模糊、無法識別正常結構等不合格的圖像及視頻。圖像由研究人員進行分類,分為無息肉圖像和有息肉圖像,并采用軟件對息肉進行標注(圖1);對視頻進行剪輯,分為無息肉視頻和有息肉視頻。再由2名高年資(具有10年以上結腸鏡診療經驗)內鏡醫師對2 類圖像和視頻進行確認。若存在爭議,則剔除該圖像或視頻,并以這2 位醫師共同確認的診斷結果為金標準。最終,將篩選出的圖像和視頻分為2 個數據集:數據集1(5 908 張圖像)和數據集6(360 條短視頻)。其中,數據集1 分為數據集1a(4 906 張圖像)、數據集1b(300 張圖像)和數據集1c(702張圖像),數據集1c為從視頻數據集6中截取的圖像。數據集6 中無息肉視頻156 條,含息肉視頻204 條;每條含息肉視頻中僅有1 枚息肉,息肉最大徑為3~8 mm;所有視頻播放時長為12~24 s。所有圖像及視頻均在白光、非放大模式下拍攝。所使用的結腸鏡是日本OLYMPUS 公司的260 型或290 型。另有不同來源的圖像數據集2~5,即公共數據集CVCClinicDB、CVC-ColonDB、ETIS-Larib Polyp DB 和KVASIR[10-13],共包含2 188 張圖片。數據集1a 和數據集2~5 為模型訓練集,數據集1b 和數據集1c 為模型測試集(表1)。

圖1 私有數據集示例Fig 1 Examples of a private dataset

表1 6個數據集基本資料Tab1 Basic information of the 6 datasets

1.2 YOLOV3模型構建和訓練

YOLOV3 模型是一種可以用于目標檢測的DCNN[14]。通過在訓練集上的訓練,YOLOV3 模型可以直接預測輸入圖像中存在的物體的位置和類別。YOLOV3 使用Darknet53 作為骨干網絡,進行圖像特征提取。Darknet53 是一個包含卷積層和殘差層的DCNN。當一張圖像輸入Darknet53 后,經過降采樣,其尺寸降為原有的1/32,其圖像通道數由原有的三通道擴增為1 024 通道。例如,尺寸為416×416 的三通道輸入圖像,經由Darknet53 處理后,將轉化為尺寸為13×13×1 024 的特征向量。基于由圖像提取的特征向量,YOLOV3 模型利用回歸方法進行檢測框的預測。對于每個檢測框,YOLOV3 將給出檢測框相對于錨框的中心坐標偏移量和檢測框的寬度和高度偏移量,檢測物體的類別和置信度。

在YOLOV3 訓練開始前,由于訓練集數據有限,為了提升訓練的效果,使用在ImageNet 數據集上預訓練的權重對YOLOV3 的骨干網絡Darknet53 進行權重初始化[15],使網絡的訓練過程有更好的初始點,能夠使網絡更快地收斂。在訓練的過程中,對每批輸入樣本進行數據增強以提高網絡的泛化性能。采用的數據增強方法包括圖像旋轉、亮度變換和圖像銳化。網絡的訓練使用Adam 優化器[16],訓練過程包含75 輪,初始學習率為10-4;在訓練的第50 輪后,學習率衰減為10-5。為避免過擬合,訓練過程中對網絡的權重進行了正則化,正則化權重為10-4。

1.3 模型測試

為了對上述訓練完成的YOLOV3 的效果進行評估,分別使用私有圖像數據集和短視頻截取的數據集對其進行測試。使用數據集1b 及短視頻截取數據集1c 對模型進行測試。在測試集上,利用靈敏度、特異度和精確度衡量YOLOV3 模型的性能。本模型靈敏度達0.940,特異度達0.813,精確度達0.783。

1.4 實驗設計

邀請10 名無結腸鏡操作經驗的醫師參與研究,隨機分為AI 輔助組(A 組,n=5)及無AI 輔助組(B組,n=5)。2 組醫師對上述數據集6 中360 條視頻進行判讀,將360 條視頻分為前組180 條視頻和后組180 條視頻,前后組各包含息肉視頻102 條。前180條視頻,2組均無AI輔助。后180條視頻,AI輔助組輔以息肉檢測系統,將視頻數據集經檢測系統處理后標記息肉,供研究者判讀;無AI 輔助組則觀看原始視頻,判讀是否存在息肉。根據息肉大小,將息肉分為小息肉(最大徑6~10 mm)和微小息肉(最大徑<6 mm)2 組[17];其中52 枚(25.5%)息肉屬于小息肉,152 枚(74.5%)息肉屬于微小息肉。同樣,根據息肉的形態,將息肉分為山田Ⅰ型與山田Ⅱ型2組[18];其中126 枚屬于山田Ⅰ型,78 枚屬于山田Ⅱ型(表2)。前期,利用圖片及視頻對受試者進行培訓,讓受試者可以區分正常腸壁、息肉、腸黏膜堆積形成皺褶、糞水等。培訓后對受試者進行隨機化分組,通過判讀前組視頻,檢驗每組受試者是否處于同一水平。若視頻中存在息肉,受試者未能檢出,則視為漏診;若視頻中無息肉,受試者判斷存在息肉,則視為誤診。

表2 數據集6中息肉大小及類型分布Tab 2 Size and shape of polyps in dataset 6

1.5 統計學分析

2 結果

2.1 漏診情況比較

前180 條視頻均無AI輔助時,A 組與B 組結直腸息肉平均漏診例數分別為(20.5±5.7)例和(19.0±3.4)例,差異無統計學意義;后180條視頻中,A 組息肉漏診例數為(9.8±3.4) 例,明顯小于B 組的(18.8±3.6)例,差異有統計學意義(P=0.031)。A 組內比較,后180 條視頻息肉漏診例數小于前180 條視頻息肉漏診例數,差異具有統計學意義(P=0.007)(圖2)。

圖2 2組受試者前后視頻集檢出息肉漏診個數分布Fig 2 Distribution of the number of missed diagnosed polyps in the pre-and post-video sets of the two groups

2.2 誤診情況比較

前180 條視頻均無AI輔助時,A 組與B 組結直腸息肉平均誤診例數分別為(8.0±1.9)例和(7.4±3.3)例;后180 條視頻中,A 組與B 組結直腸息肉平均誤診例數分別為(10.4±3.1)例和(8.2±3.1)例;組間差異均無統計學意義。A 組內比較,后180 條視頻息肉誤診例數與前180 條視頻息肉誤診例數的差異也無統計學意義(圖3)。

圖3 2組受試者前后視頻集檢出息肉誤診個數分布Fig 3 Distribution of the number of misdiagnosed polyps detected in the pre-and post-video sets of the two groups

3 討論

隨著內窺鏡技術的不斷進步,結腸鏡檢查的質量越來越受到重視。高質量的結腸鏡檢查在結直腸癌的早期診治中具有重要意義,其中息肉檢出率是衡量結腸鏡操作質量的一個重要標準。既往研究[19-21]顯示,結腸鏡教學中心負責人培訓以及有操作經驗護士協助等舉措均能提高息肉檢出率。但上述方法需要較高的人力、物力和時間投入,且目前我國各地區消化內鏡醫師水平、分布比例、內鏡資源配置等差異較大,短時間內培養出經驗豐富的內鏡醫師的難度較大。因此,利用計算機自動識別結直腸息肉的客觀診斷輔助系統幫助缺乏經驗的內鏡醫師快速成長勢在必行。隨著AI 的不斷發展,深度學習已經成功應用于語音識別、圖像識別等領域。在內窺鏡領域,利用深度學習識別和捕捉動態的目標,可以彌補人類視覺捕捉不全及易于疲勞的缺點[22-25]。目前,深度學習的卷積層神經網絡框架眾多,本研究構建的模型使用的是YOLOV3。YOLOV3 模型廣泛應用于胃腸息肉的檢查,也可應用于其他疾病的診斷[26-28]。

多項研究[6-9]提示,AI 輔助結腸鏡診斷,可以提高結腸鏡操作醫師的腺瘤檢出率。本研究發現,對于經過培訓的無結腸鏡操作經驗的醫師,AI 輔助組結直腸息肉漏診例數明顯低于無AI 輔助組;同時,2組間息肉誤診例數的差異無統計學意義。此外,A組受試者AI 輔助判讀視頻時息肉漏診例數低于無AI 輔助時,且差異具有統計學意義。本研究中納入204 枚息肉,其中74.5%屬于微小息肉,25.5%屬于小息肉。研究結果顯示,AI 輔助可以增加無操作經驗內鏡醫師對小息肉或者微小息肉的檢出率。2020 年國內GONG 等[7]研究發現,AI 輔助可以提高結腸腺瘤的檢出率;2019 年WANG 等[8]發現,對于腺瘤檢出率低的內鏡醫師,給予AI 輔助后可以明顯提升腺瘤檢出率。這2 項研究均發現AI 輔助可以提高5 mm 以下息肉的檢出率,對5 mm 以上的息肉檢出率無明顯影響。可見,AI 技術可以輔助發現微小病灶,減少內鏡檢查過程中微小病灶的遺漏,從而提高結腸鏡檢查的質量。盡管有學者[29]認為,部分小息肉為非進展性息肉;但是,也有部分研究顯示結腸鏡檢查中大部分息肉為小息肉,其中一半為腺瘤,存在惡變的可能,應當早期切除[30-32]。因此,AI 輔助可提示缺乏結腸鏡操作經驗的醫師發現息肉,尤其是小息肉及微小息肉,可輔助缺乏經驗的內鏡醫師作出診斷,具有較好的臨床價值。

本研究尚存在幾點不足。首先,本研究為單中心研究。雖然納入公共數據集,但圖像數據仍相對較少;且在收集圖像時排除了含有泡沫、糞水等大量干擾圖像,而這些干擾在臨床操作中是不可避免的,這可能會影響模型在真實操作中的應用。后續研究中,我們會前瞻性收集圖像,擴大訓練集,以期提高臨床實用性。其次,本系統在實時結腸鏡操作過程中同樣可以識別息肉,但是否能提高缺乏經驗的初級內鏡醫師的息肉檢出率還未可知。之后,我們將在實時結腸鏡操作中,驗證本系統對初級內鏡醫師結直腸息肉檢出率的影響。

主站蜘蛛池模板: 农村乱人伦一区二区| 91热爆在线| 一区二区偷拍美女撒尿视频| 久久精品中文无码资源站| 91精品视频在线播放| 天天色天天综合| 亚洲首页国产精品丝袜| 免费在线视频a| 97国产成人无码精品久久久| 亚洲欧美日韩成人在线| 国产又粗又猛又爽视频| 亚洲日本中文字幕天堂网| 最新精品国偷自产在线| 精品福利视频网| 国产黄色爱视频| 免费在线a视频| 国产乱视频网站| 久久熟女AV| 狠狠色综合久久狠狠色综合| 国产国拍精品视频免费看| 日本不卡视频在线| 极品私人尤物在线精品首页| 国内精品久久久久鸭| 全裸无码专区| 色偷偷av男人的天堂不卡| 激情無極限的亚洲一区免费| 国产91久久久久久| 久久无码免费束人妻| 色哟哟国产成人精品| 激情六月丁香婷婷| 欧美成a人片在线观看| 日韩免费毛片| 四虎影视国产精品| 尤物在线观看乱码| 免费在线一区| 波多野结衣久久精品| 茄子视频毛片免费观看| 尤物成AV人片在线观看| h网站在线播放| 国产精品第页| 欧美啪啪精品| 天堂成人av| 亚洲无码精彩视频在线观看 | 亚洲中文字幕av无码区| 国产尤物jk自慰制服喷水| 久久96热在精品国产高清| 91免费国产在线观看尤物| 在线观看国产精品日本不卡网| 精品福利网| 欧美97色| 久久久亚洲国产美女国产盗摄| 香蕉久人久人青草青草| 91久久国产综合精品| 成人免费午夜视频| 无码精油按摩潮喷在线播放 | 人妻中文字幕无码久久一区| 国产成人亚洲综合a∨婷婷| 国产精选小视频在线观看| 老汉色老汉首页a亚洲| 天天操精品| 精品久久777| 99久久精品美女高潮喷水| 日韩a级毛片| 72种姿势欧美久久久久大黄蕉| 91在线播放免费不卡无毒| 中日无码在线观看| 成人日韩欧美| 无码AV日韩一二三区| 亚洲性网站| 国产尤物jk自慰制服喷水| 欧美一级黄色影院| 伊伊人成亚洲综合人网7777| 亚洲最大福利视频网| 国产在线一区视频| 国产色爱av资源综合区| 国产成人AV综合久久| 伊人久久婷婷五月综合97色| 91精品国产麻豆国产自产在线| 91香蕉视频下载网站| 免费无码网站| 国产无码性爱一区二区三区| 日本尹人综合香蕉在线观看 |