999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于輕量級網絡的眼表疾病識別方法研究

2023-11-25 02:19:28陳榮周子昂姜永春謝鵬飛
電腦知識與技術 2023年28期
關鍵詞:智能手機特征

陳榮,周子昂,姜永春,謝鵬飛

(1.青島黃海學院大數據學院,山東青島 266427;2.哈利法科學技術大學工程學院,阿聯酋阿布扎比 127788)

0 引言

眼表是由結膜、角膜及其附件結構組成的特殊黏膜系統。眼表疾病(Ocular Surface Disease, OSD)泛指任何損害眼表系統結構和功能的疾病[1]。臨床上常見的眼表疾病包括翼狀胬肉、結膜色素痣和角膜炎等,嚴重降低日常生活質量,影響著全球20%以上的人口。眼科醫生通常使用專業的醫療資源來檢查OSD,如裂隙燈、共聚焦顯微鏡和光學相干層析成像等[2]。但這些傳統醫學檢查方法存在一些缺點:專業醫療設備價格昂貴且只能在醫院使用、患者就診成本高以及專業眼科醫師供需緊張。

近年來,人工智能在醫學圖像識別方面取得了巨大進展和突破,具有高分辨率攝像頭的智能手機可以輕松獲取高質量的眼部表面圖像數據,許多常見的眼表疾病在不借助醫療儀器設備的情況下,就已具備十分清晰且易辨別的臨床特征,這使得依靠智能手機采集的眼表照片來自動篩查疾病成了可能[3]。因此,通過人工智能技術處理和分析智能手機眼表照片,可以及時篩查和監控眼表疾病的發展。

目前許多研究團隊采用經典的卷積神經網絡方法,在眼表疾病識別上取得了一定的進展。Li 等[4]采用卷積神經網絡對角膜炎、翼狀胬肉等常見的眼表疾病進行自動識別。Xu 等[5]使用5 種深度學習算法(VGG-16、ResNet-101、InceptionV3、Xception 和Inception-ResNetV2)自動檢測和評估角膜炎患者。但是研究數據依然是裂隙燈和共聚焦顯微鏡等醫學儀器采集的眼表圖像。后來,Li 等[6]融合裂隙燈圖像和智能手機圖像構建AI角膜疾病篩查系統,研究中對比了GoogLeNet、ResNet 和DenseNet 三種網絡的性能。Chen 等[7]使用改進的DenseNet 方法對智能手機采集的眼表圖像來診斷眼睛表面是否患病。盡管以上方法取得了良好效果,但先進的網絡模型通常存在大量的參數和較深的網絡層,導致在嵌入式設備、智能手機等低資源平臺上難以部署。

為了進一步平衡計算資源和識別性能的關系,許多輕量級網絡被研究,與用標準卷積(Conv)來構建深度網絡不同,設計輕量的構建單元被證明是開發更輕、更高效網絡架構的有效途徑。MobileNetV1 引入深度可分離卷積(DWConv)輕量單元開發了一個全新高效的輕量級網絡,并應用于移動端視覺任務,進而通過跳躍連接的倒殘差模塊提高了性能[8]。Zhang等[9]利用分組卷積和通道混洗操作構建了ShuffleNetV1和ShuffleNetV2。華為設計的GhostNet[10]提出廉價且高效的幽靈(Ghost)模塊來生成更多樣化的圖像特征。CondenseNetV2[11]提出稀疏特征重激活模塊構建輕量網絡,增加了特征的利用效率。輕量級網絡的出現,在一定程度上彌補了深度網絡計算效率的問題,但輕量單元提取圖像特征的效果較差,從而導致識別眼表疾病的準確率較低。

針對上述問題,本文以標準卷積為主,引入深度可分離卷積和Ghost模塊這兩個輕量單元來輔助構建一個聚集模塊,以低成本和高效的方式并行學習豐富多樣的眼表圖像特征,增強特征提取的能力。并且基于聚集模塊進一步開發輕量級網絡應用于眼表疾病識別,大大減少了網絡模型的參數量,實現了眼表疾病的精準篩查,較好地平衡了計算效率和識別性能之間的關系。

1 網絡模型概述

1.1 聚集模塊

聚集模塊先將標準卷積、深度可分離卷積和Ghost 模塊集成到一起,并行地提取并拼接眼表圖像特征,再采用通道混洗操作實現不同特征通道之間的信息交流,如圖1所示。該模塊每條路徑生成相同數量的特征圖,代表不同特征提取方式學習到的信息,可以增加提取眼表圖像特征的多樣性。

圖1 聚集模塊

深度可分離卷積使用經過分解的卷積算子來替代完整卷積核提取眼表圖像特征。它把標準卷積分成兩個獨立的層,能夠打破輸出特征通道數量與卷積核尺寸之間的交互。第1層是深度卷積層,對每個輸入通道用單個的n維卷積核來實現輕量的濾波操作;第2 層是逐點卷積層,對上一層的輸出用尺寸為1×1的卷積核進行濾波操作。

Ghost 模塊由部分通道的卷積和矩陣變換組成,如圖2 所示。針對n維的輸入,首先采用部分通道的卷積核(u?n)生成u個特征圖,再對其每一個輸出特征圖都進行高效的矩陣變換來計算得到新的特征映射,最后將部分通道卷積和矩陣變換所得的所有特征圖拼接起來,就得到了Ghost模塊的全部輸出結果,即n=u+u(v-1)個特征圖。簡單高效的Ghost 操作可以與任何的矩陣變換運算相結合,如小波變換、仿射變換和分組卷積等。

圖2 Ghost模塊

在微型網絡中,單個的輕量單元傾向于通過限制通道數量來約束網絡復雜度,這嚴重影響了網絡的精度。聚集模塊中采用三條路徑(DWConv、Conv 和Ghost)來生成多樣化的特征圖,這些輸出特征圖直接拼接在一起,會產生一個副作用:每個通道的輸出只能由輸入通道的某一小部分獲得,不同路徑之間的特征無法交互,嚴重阻塞了特征通道之間的信息流,進而降低了特征的表達能力。因此,本文引入通道混洗操作對每條路徑輸出的特征圖進行重新排列,保證后面的輸入來自前面不同的提取特征路徑,以達到特征融合的目的。通道混洗操作先將DWConv、Conv 和Ghost 這三條路徑的輸出看作一維向量,再分解為二維矩陣,最后轉置后拉伸展平為一維,這樣所有輸出的特征通道都得到了重新排列。

1.2 輕量級網絡—聚集網絡

本文提出的輕量級網絡基本遵循了密集連接的方式來設計,為了直接減少網絡計算量,放棄了“網絡足夠深”的概念,在密集塊中使用較少數量的聚集模塊來提高特征提取效率。另一方面,ShuffleNetV2 曾提出了四條搭建輕量級網絡的指導原則:相同大小的通道可以最小化訪問內存;分組卷積數目過多會影響計算效率;網絡碎片化會降低程序的并行能力;元素級操作對網絡效率影響較大(如ResNet 中的跳躍連接)。本文根據以上4條規則來開發聚集網絡,第1條采用聚集模塊作為基本構建單元,其中每條路徑的輸出通道大小保持相同以減少內存訪問成本。Ghost模塊中僅有少量的分組卷積操作,對應第2條原則。針對第3條,本文采用密集連接將所有輸出特征拼接起來形成了一個整體,避免了網絡碎片化的產生。最后,網絡中的梯度傳播是采用串聯拼接,而非跳躍連接。

1.3 本文網絡結構

圖3展示了本文自動識別眼表疾病的輕量級網絡結構,它由1個初始的聚集模塊、3個密集塊、2個過渡塊和一個分類層組成。初始的聚集模塊用來提取全局圖像特征。每個密集塊只包含4個聚集模塊層,被用于提取圖像特征。聚集模塊中每條路徑的輸出表示該路徑貢獻的新信息。每個聚集模塊后面都包含一組批歸一化處理(BN)、激活單元和1×1 Conv的集合函數。過渡塊將2個相鄰的密集塊連接起來,通過減少特征圖的大小和數量來提高計算效率。每個過渡塊由4 部分組成:BN、激活單元、1×1 DWConv 和平均池化層。高效的DWConv 將通道數量減少一半,步長為2的平均池化層用來減少特征圖的一半尺寸。分類層將前面所得到的特征通道映射為2個特征圖,代表預測屬于正常或異常眼表的類別。整體的網絡主干如圖4所示。

圖3 輕量級網絡結構

圖4 主干網絡結構

2 實驗及結果分析

2.1 實驗數據

本文實驗數據集為Github網站的開源數據集,眼表照片均采用智能手機拍攝。數據集中眼表圖片共953 張,其分辨率為682×512,每張照片的癥狀由多名專業眼科醫生共同標注,其中正常眼表467張,異常眼表照片486張。本文將數據集以7:3的比例分為訓練集和測試集,并采用水平翻轉和隨機裁剪來擴充數據集,以緩解網絡訓練時數據量較少導致的過擬合問題。

2.2 實驗環境

硬件環境:顯存12GB 的NVidia GeForce GTX 1080 Ti GPU;軟件環境:Windows 10、Python 3.7、深度學習框架Pytorch 1.6.0、CUDA 10.1。

2.3 訓練參數設置

本文實驗采用交叉熵損失函數和帶動量的隨機梯度下降算法訓練模型,在優化算法中參數動量和衰減因子分別設置為0.9 和0.000 1。網絡訓練輪次Epoch 和批尺寸Batchsize 分別設置為200 和16,初始學習率設置為0.15,訓練到第100和150個Epoch時將學習率分別衰減10倍。實驗過程中的訓練損失、測試誤差與Epoch 的關系如圖5 所示,可以看出損失曲線的整體趨勢比較平滑,早期訓練損失下降較快,在經過100個Epoch之后,模型慢慢趨于收斂。

圖5 聚集網絡識別OSD的訓練曲線

2.4 結果分析

為了驗證本文所提出的輕量級聚集網絡方法識別眼表疾病的性能,先將其應用于眼表圖像數據,計算出識別效果;再與ShuffleNetV2、MobileNet 系列、GhostNet 和CondenseNetV2 等當前先進的輕量級網絡方法進行對比實驗,以證實其高效性。

圖6展示了聚集網絡自動識別眼表疾病的混淆矩陣。模型將13 例正常眼表誤分類為異常,將14 例患病眼表識別為正常,其中近一半被誤判的眼表圖像為結膜充血一級,主要因為患有輕度充血癥狀的眼表圖像與正常眼表十分相似,圖像顯著性特征不夠明顯難以分類。同時計算了眼表疾病識別的特異性、召回率、精度、F1 分數和準確率,分別達到了90.71%、90.41%、91.03%、90.72%和90.56%,各項指標均在90%以上,說明總體上聚集網絡對眼表圖像的識別效果良好。

圖6 聚集網絡識別OSD的混淆矩陣

表1對比了不同輕量級網絡方法對眼表疾病自動識別的結果。本文所提出的聚集網絡模型參數量(Paras)為0.24M,比其他輕量級網絡減少到原來的1/10。聚集網絡僅需要1.88B的計算量(FLOPs),盡管Ghost-Net模型采用的高效幽靈模塊和減少碎片化操作在計算效率方面比較有效,只需要0.82B的FLOPs,但其識別效果不佳,而聚集網絡則實現了90.56%的眼表疾病識別準確率(ACC)。因此,當前先進的輕量級網絡方法在識別眼表疾病方面的準確率普遍較低,本文所提出的基于聚集模塊開發的輕量級網絡能夠較好地實現計算成本與性能之間的平衡。

表1 模型實驗結果

3 結論

采用智能手機拍照來自動篩查眼表疾病,對醫生輔助診斷、后續精準治療以及康復具有重大意義。本文針對深度卷積神經網絡難以在可移動設備端部署、現有輕量級網絡識別效果不佳和較難平衡計算資源與性能的關系等問題,提出了基于聚集模塊的輕量級眼表疾病自動識別方法。該方法構建的聚集模塊以低成本、高效的方式并行提取豐富多樣的眼表特征,能夠改善不同特征通道之間的信息流。通過實驗對比證明,本文所提出的方法以更少的參數量和計算成本實現了更高的識別準確率。但該模型參數量較少,當眼表數據集足夠大時,其參數不足以表示海量數據中的所有圖像特征,在模型訓練過程中,聚集網絡只會盡可能多地學習大部分可分辨的特征,從而表現出一定的泛化能力。未來可以進一步優化網絡體系架構,并考慮神經網絡架構自動搜索技術,找到合適的網絡寬度和深度來實現速度與識別性能之間的最優平衡。

猜你喜歡
智能手機特征
抓住特征巧觀察
智能手機是座礦
智能手機臉
英語文摘(2020年5期)2020-09-21 09:26:30
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
假如我是一部智能手機
趣味(語文)(2018年8期)2018-11-15 08:53:00
抓住特征巧觀察
熱門智能手機應用
海外星云(2016年7期)2016-12-01 04:18:00
智能手機如何讓我們變得低能
樂活老年(2016年10期)2016-02-28 09:30:37
主站蜘蛛池模板: 午夜天堂视频| 日韩欧美国产另类| 在线视频一区二区三区不卡| 91视频日本| 亚洲精品午夜天堂网页| h视频在线播放| 国产18在线播放| 99在线视频免费| 成人精品免费视频| 香蕉99国内自产自拍视频| 久久夜色精品国产嚕嚕亚洲av| 日韩高清中文字幕| 99精品在线看| 国产区成人精品视频| 欧美中日韩在线| 99精品热视频这里只有精品7| 免费人成网站在线高清| 亚洲Aⅴ无码专区在线观看q| av午夜福利一片免费看| 青草视频在线观看国产| 黄色污网站在线观看| 本亚洲精品网站| 欧美国产在线看| 99爱视频精品免视看| 欧美不卡在线视频| 91九色最新地址| 欧美97欧美综合色伦图| 中文字幕啪啪| 伊人久热这里只有精品视频99| 国产凹凸视频在线观看| 精品乱码久久久久久久| 女人毛片a级大学毛片免费| 欧美一级在线播放| 色婷婷电影网| 午夜福利在线观看成人| a毛片免费在线观看| 九色在线视频导航91| 激情综合网激情综合| 国产福利免费视频| 全部毛片免费看| 四虎成人免费毛片| 亚洲va欧美va国产综合下载| 18禁不卡免费网站| www欧美在线观看| 欧美日韩综合网| 国产精品久久自在自2021| 亚洲福利片无码最新在线播放| 国产精品专区第1页| 久久激情影院| 国产精品手机视频| 一级黄色欧美| 亚洲精品第一页不卡| 欧美日韩国产精品va| 欧美中文一区| 中文字幕在线欧美| 欧亚日韩Av| 亚洲国产日韩一区| 黑人巨大精品欧美一区二区区| 国产情侣一区二区三区| 国产日韩欧美在线视频免费观看| 国产AV无码专区亚洲A∨毛片| 十八禁美女裸体网站| 日韩欧美91| 中文字幕无码电影| 亚洲Av综合日韩精品久久久| 国产成人做受免费视频| 亚洲无码A视频在线| 中日韩一区二区三区中文免费视频| 色爽网免费视频| 国产精品女熟高潮视频| 国产无人区一区二区三区| 狠狠色噜噜狠狠狠狠色综合久| 人妻丝袜无码视频| 国产第三区| 国产一区二区三区精品欧美日韩| 久久综合色天堂av| 久久一级电影| 国产精品熟女亚洲AV麻豆| 伊人色天堂| 91麻豆国产视频| 国产在线观看99| 久久久久免费精品国产|