999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進單點多盒檢測器的麻醉復蘇目標檢測方法

2024-01-09 02:48:10羅榮昊程志友汪傳建劉思乾汪真天
計算機應用 2023年12期
關鍵詞:精確度特征檢測

羅榮昊,程志友,汪傳建,劉思乾,汪真天

基于改進單點多盒檢測器的麻醉復蘇目標檢測方法

羅榮昊,程志友,汪傳建*,劉思乾,汪真天

(安徽大學 互聯網學院,合肥 230039)(?通信作者電子郵箱wcj_si@ahu.edu.cn)

麻醉復蘇目標檢測模型常被用于幫助醫護人員檢測麻醉病人的復蘇。病人復蘇時面部動作的目標較小且幅度不明顯,而現有的單點多盒檢測器(SSD)難以準確實時地檢測病人的面部微動作特征。針對原有模型檢測速度低、容易出現漏檢的問題,提出一種基于改進SSD的麻醉復蘇目標檢測方法。首先,將原始SSD的主干網絡VGG(Visual Geometry Group)16更換為輕量級的主干網絡MobileNetV2,并把標準卷積替換成深度可分離卷積;同時,通過對病人照片的特征提取采用先升維再降維的計算方式減少計算量,從而提高模型的檢測速度;其次,將SSD提取的不同尺度特征層中融入坐標注意力(CA)機制,并通過對通道和位置信息加權的方式提升特征圖提取關鍵信息的能力,優化網絡的定位分類表現;最后,閉眼數據集CEW(Closed Eyes in the Wild)、自然標記人臉數據集LFW(Labeled Faces in the Wild)和醫院麻醉病患面部數據集HAPF(Hospital Anesthesia Patient Facial)這3個數據集上進行對比實驗。實驗結果表明,所提模型的平均精度均值(mAP)達到了95.23%,檢測照片的速度為每秒24幀,相較于原始SSD模型的mAP提升了1.39個百分點,檢測速度提升了140%。因此,所提模型在麻醉復蘇檢測中具有實時準確檢測的效果,能夠輔助醫護人員進行蘇醒判定。

麻醉復蘇;面部特征識別;單點多盒檢測器;MobileNetV2;注意力機制

0 引言

麻醉復蘇室(PostAnesthesia Care Unit, PACU)是為全麻手術患者從麻醉狀態到完全意識清醒提供相關護理監測操作的場所。目前多數醫院的全麻患者術后多轉入PACU,在此進行拔管、復蘇等護理操作的同時被嚴密監測生命體征,需要投入大量的人力物力。由于麻醉藥物的作用,全麻手術后處于蘇醒監測期的病人會感到不適,加上身體機能未能恢復完全,很容易造成循環和呼吸系統的并發癥問題,對術后恢復產生不良影響。麻醉或手術都會對患者產生生理功能上的障礙,特別是較高的手術侵入性會導致較高程度的應激反應,這與術后麻醉并發癥相關[1-4]。手術后并發癥會使病人的復蘇質量惡化,同時給醫院增加負擔[5-7]。郭清厚等[8]指出,對PACU的病人采取有效的管理辦法能夠提前發現手術和麻醉相關并發癥,促進麻醉復蘇。

現階段麻醉復蘇監測主要依靠有經驗的專業護士定期監視病人的身體狀態。隨著醫學技術的發展和外科手術適應癥范圍的擴大,人們對手術治療的需求日益增長;但由于醫療資源緊張、人力監控主觀性較強、專業性要求高等原因,傳統監測方法容易產生疏忽誤判等情況,耗時且效率低,在當前復雜繁多的復蘇室環境已無法滿足醫院的需求。

麻醉病人蘇醒的前兆特征有睜眼、張口和吞咽等微動作,可以由攝像機采集病人的面部圖像,通過檢測病人的眨眼、嘴巴開合判斷病人是否屬于蘇醒狀態。Soukupová等[9]提出眼睛縱橫比(Eye Aspect Ratio, EAR)的概念,通過定位眼睛的12個關鍵點計算縱橫比,設定一個閾值判定眼睛的狀態。Nousias等[10]采用DeepLabv3+分割采集圖像中的雙眼虹膜和眼瞼,計算每只眼睛的眼瞼之間的距離和相應的虹膜直徑,然后經過自適應閾值處理,識別眨眼并確定它的類型。De La Cruz等[11]提出一種基于長期遞歸卷積網絡的眨眼檢測方法Eye LRCN(Eye Long-term Recurrent Convolutional Network),采用卷積神經網絡(Convolutional Neural Network,CNN)對眼睛圖像提取特征,結合雙向遞歸神經網絡執行序列學習和眨眼檢測。Chen等[12]通過多任務級聯CNN(Multi-Task CNN,MTCNN)實現人臉關鍵點的定位,再用VGG(Visual Geometry Group)16進行眼睛狀態的分類識別。 Wang等[13]通過深度CNN(Deep CNN, DCNN)提取眼睛的虹膜和瞳孔像素,再用結合了Unet和Squeezenet特點的像素級高效CNN進行分類。Prinsen等[14]使用基于區域的更快CNN(Faster Region-based CNN,Faster R-CNN)算法對預先訓練的殘差網絡(Residual Network,ResNet)進行微調,再用CNN定位評估兒童的眼睛圖像。以上方法盡管有不錯的效果,但大多數方法網絡模型較大、檢測速度較慢,不符合麻醉病人復蘇這一應用場景。

針對麻醉病人復蘇檢測的具體問題,方法的時效性和準確度是關鍵。本文提出一種基于改進單點多盒檢測器(Single Shot multibox Detector, SSD)[15]的麻醉復蘇目標檢測方法。本文采用基礎模型SSD檢測麻醉病人面部微動作變化,即通過檢測病人的眼睛睜閉、嘴巴開合判定病人是否有自我蘇醒意識;由于實際檢測的圖像中可能存在特征圖像尺度較小、背景復雜等因素,本文改進SSD,更換了輕量級的主干網絡,融合了注意力模塊,在降低計算量、維持高效、準確的前提下,提高檢測精度。

1 SSD結構

SSD是經典的多尺度單目標檢測算法模型,用VGG[16]作為主干特征提取網絡,SSD的結構如圖1所示。SSD通過主干網絡抽取6張從大到小的特征圖,預先在每個尺度的特征圖上設置不同長寬比的錨框,根據不同尺度的物體大小(小目標對應淺層特征圖、大目標對應深度特征圖)進行檢測,并使用自定義的非極大抑制(Non-Maximum Suppression,NMS)去除重復的預測框,保留最好的結果。SSD是最早采用淺層網絡探測小目標、深度網絡探測大目標的多尺度預測方法。淺層網絡雖然幾何信息豐富,定位也較準確,但感受野小,表達語義信息的能力不強;深度網絡的感受野更大,語義信息豐富,但分辨率較低,顯示幾何信息的能力更弱,所以SSD在實際檢測時會出現較嚴重的遺漏、錯誤現象。另外,SSD作為一種單階段的深度學習目標檢測算法,在高精確度的情況下檢測速度也較高,但是模型參數量大,對硬件算力要求高,在麻醉復蘇檢測的應用中不滿足實時性的要求。

2 改進SSD

為了改善SSD存在復雜目標檢測困難、定位不準確的問題,進一步提高SSD的檢測速度以滿足麻醉復蘇檢測的需求,首先將主干網絡VGG替換成輕量級網絡MobileNetV2[17],在不降低精確度的前提下,極大地減少參數量和運算量,提升檢測速度;其次在原始的模型中融入了注意力機制模塊,將SSD提取的6個尺度不同的特征層輸入注意力機制模型,增強特征圖提取關鍵信息的能力,優化網絡定位分類的表現。改進后的SSD的結構如圖2所示。

2.1 主干網絡替換

使用MobileNetV2替換SSD主干網絡VGG,通過對比目標大小與檢測單元大小,調整主干網絡特征抽取層的大小,由原本的38×38改為19×19,通道數減少至96,在不降低精確度的情況下減少了計算量。MobileNetV2采用線性激活函數(Linear)避免特征丟失,同時堆疊基于深度可分離的卷積塊即將通道、空間相關性完全分離,用深度可分離卷積代替傳統卷積,對輸入的特征圖先進行升維,使用卷積得到更多的特征信息,再降維輸出。圖3為MobileNetV2的卷積結構。

圖2 改進的SSD結構

圖3 MobileNetV2卷積結構

由于MobileNetv2結構采用了大量的深度可分離卷積結構提取特征,對模型的精確度影響較小且參數量較少,使計算量下降明顯,因此,更換模型的主干網絡不僅保證了精確度,也提升了計算速度,符合麻醉復蘇實時檢測的條件。

2.2 深度可分離卷積

深度可分離卷積主要將傳統卷積提取特征的運算過程替換為逐通道卷積(DepthWise convolution,DW)和逐點卷積(PointWise convolution,PW),聯合這兩個部分進行語義特征提取。結構如圖4所示。

圖4 深度可分離卷積

傳統卷積的參數量為:

深度可分離卷積的參數量為:

其中:為卷積核的長和寬,為輸入的通道數,為卷積核的具體個數。

以RGB 3通道的一個圖像為例,經過一個卷積層輸出4個特征圖,它們的大小與輸入圖像一樣;再計算傳統卷積的卷積層參數為108,替換為深度可分離卷積參數量為39,約為原來的1/3。減少深度可分離卷積的參數量,極大地降低了計算量,從而提高了模型特征檢測的速度。

2.3 注意力機制引入

人類視覺的本能特性就是看到物體的時候,不自覺地會將注意力放置在關鍵信息上,同時忽略其他信息。這種注意力的機制會提高提取特征的效率,而計算機視覺想要模擬人類視覺的這種能力就需要引入注意力機制。注意力機制的核心是讓網絡聚焦到更需要關注的地方。面對圖像處理任務,使CNN自適應地注意重要的物體是關鍵。

根據加權的方式不同,注意力機制通常可分為空間域注意力、通道域注意力和混合域注意力等。擠壓-激勵網絡(Squeezeand-Excitation Network, SE-Net)[18]是一種通過對各通道分別進行全局平均池化計算各通道重要性,并賦予不同權重的常用通道域注意力機制。高效通道注意力的DCNN(Efficient Channel Attention for deep convolutional neural Network, ECA-Net)[19]是SE-Net的改進版,通過使用一維卷積替代原SE-Net模塊中的全連接層,減少計算量和運算量,提高跨通道互動的覆蓋率。通道注意力對提升模型的效果顯著,但通常忽略了產生空間選擇性注意力圖像的位置信息。

坐標注意力(Coordinate Attention, CA)機制[20]是一種將位置信息嵌入通道注意力的移動網絡注意力機制。它使移動網絡在增加感受野的前提下,避免了一大筆計算開銷。CA模塊的結構如圖5所示。

圖5 CA模塊的結構

CA將通道注意力分解為沿寬度和高度兩個方向分別進行全局池化,獲得在寬度和高度兩個方向的特征圖,優點是可以沿著一個空間方向捕獲長程依賴,沿著另一個空間方向保留精確的位置信息。將生成的特征圖分別編碼,形成一對方向感知和位置敏感的特征圖,它們可以互補地應用于輸入特征圖,增強感興趣的目標表示,提高模型的定位準確性。

3 實驗與結果分析

3.1 實驗環境與數據集

本次實驗的硬件環境為:顯卡為NVIDIA GeForce RTX 3090, CUDA(Compute Unified Device Architecture)版本為 CUDA11.3, Python 3.8.13,深度學習框架為PyTorch 1.11.0。

實驗的數據集選用CEW(Closed Eyes in the Wild)公開數據集[21]全部1 192張閉眼照片、LFW(Labeled Faces in the Wild)數據集[22]1 100張睜眼照片和安徽省立醫院拍攝采集的1 000張患者面部照片,共計3 292張照片。如圖6所示,用labelimg軟件對選取的數據集進行VOC(Visual Object Classes)格式的四分類標注,分別為:睜眼、閉眼、張嘴和閉嘴。再將數據集按照8∶1∶1分成訓練集、測試集和驗證集。

圖6 數據集圖像標注

3.2 遷移學習策略

本文使用遷移學習方法[23]訓練網絡,主干網絡MobileNetV2的18層為特征提取層,先凍結主干網絡,使用在公開數據集上預訓練好的權重對后續網絡粗略訓練,僅對模型微調,提取適應檢測特征;再解凍特征提取層,進行完全訓練,模型所有的參數都發生改變。通過上述方法,在縮短模型訓練時間的同時,也能在數據集較少的情況下提高模型泛化能力。

3.3 訓練過程

模型一共訓練300個epoch,其中前50個epoch為主干網絡的凍結訓練,后250個epoch為解凍之后全部一起訓練,訓練的結果如圖7所示。損失函數在第250個epoch后的訓練集和驗證集中逐漸收斂并穩定下來。

圖7 網絡訓練結果

3.4 檢測結果

使用本文模型檢測測試數據集,模型檢測睜眼、閉眼、張嘴和閉嘴的精確度分別是97.15%、97.35%、98.25%和95.45%。檢測結果表明改進后的模型可以準確識別人面部微動作的變化。

模型實際用攝像頭預測的結果如圖8所示。由圖8可見,模型預測結果中定位框和置信度都較準確。圖8(b)在眼睛微睜的狀態下仍然判定為睜眼的行為,考慮到麻醉病人復蘇這一特定應用場景,病人的眼睛由完全閉合到微睜這一狀態的改變本身就是蘇醒的前兆行為,所以在數據集制作時,把微睜的狀態標注為睜眼狀態。從檢測結果可知,模型能準確地識別眼睛的狀態。

圖8 實際預測結果

4 模型評估

4.1 評價指標

本文采用目標檢測常見的評價指標平均精確度均值(mean Average Precision, mAP)進行對比。平均精確度(Average Precision ,AP)由精確度(Precision)/召回率(Recall)曲線與坐標軸圍成的面積計算,反映模型在該類別下的精確度;mAP是所有類別的AP求均值,反映模型在所有類別下的精確度。具體計算公式如下:

其中:(True Positive)表示預測正確的正樣本數;(False Positive)表示預測錯誤的正樣本數;(False Negative)表示將正樣本預測錯誤為負樣本的數量。

模型除了需要滿足一定的精度要求外,也要滿足實時性的要求,具有工程應用的能力,所以模型參數量和圖片每秒傳輸幀數(Frame Per Second, FPS)也是模型需要對比的指標。

4.2 對比實驗

分別對SSD[15]、CA-SSD(Coordinate Attention -Single Shot multibox Detector)、MobileNetV2-SSD(MobileNetV2-Single Shot multibox Detector)和本文模型在自制的數據集上訓練相同的epoch,針對人臉狀態的四分類識別效果進行對比實驗,得出每一類的AP和mAP。其中:SSD表示主干網絡為VGG的原模型,CA-SSD表示在原模型的基礎上在6個回歸預測層上引入CA的模型,MobileNetV2-SSD是將主干特征提取網絡更換為MobileNetV2的模型。實驗結果如表1所示。

表1不同模型的檢測精確度對比 單位:%

Tab.1 Comparison of detection precision of different models unit:%

相較于SSD,本文模型的mAP提高了1.39個百分點,同時每一類的識別精確度都有提升。相較于CA-SSD,本文模型的mAP提高了0.2個百分點,對嘴巴狀態的識別精確度有所提高,而對于眼睛狀態識別精確度有所降低,這是因為在小尺度的檢測下,網絡提取特征層越深則效果越好。相較于MobileNetV2-SSD,本文模型的mAP提高了0.24個百分點。另外,對比CA-SSD與SSD、本文模型和MobileNetV2-SSD可以看出,加入CA模塊對于模型整體精確度的提高有正向作用。SSD與CA-SSD對比、本文模型與MobileNetV2-SSD對比,這兩組對比結果可以看出,更換了更輕量級的主干網絡可以提高模型的精確度。總體地,本文模型在人臉各部位的狀態識別中有最好的檢測性能,可以滿足麻醉病人復蘇這一應用場景下的檢測要求。

為了驗證本文模型在精確度提升的同時檢測速度也滿足實時性的要求,進行對比實驗,實驗結果如表2所示。SSD雖然有較高的性能,但是模型較大,不符合現代化工程應用輕便的需求。將主干網絡更換為MobileNetV2后,模型大小約為原來的1/6,準確率也相應提高,本文模型在加入CA模塊后達到了最高性能。從表2中看出,更換為輕量級網絡的MobileNetV2-SSD和本文模型顯卡上的檢測速度分別為81 frame/s、74 frame/s,相較于SSD和CA-SSD的檢測速度153 frame/s、125 frame/s,降低至原來的1/2。在處理器上,MobileNetV2-SSD和本文模型檢測速度分別達到了25 frame/s和24 frame/s,約為SSD和CA-SSD的2.5倍。說明了基于深度可分離卷積的MobileNetV2在顯卡上并不能完全適配,得到絕對的計算加速。這驗證了網絡計算的速度不僅取決于計算量,還取決于諸如存儲器訪問成本和平臺特性的其他因素[24]。由于一般視頻流為25 frame/s,所以本文模型在對目標檢測精確度提升的同時,也達到了實時性的要求。

表2不同模型的大小和檢測速度對比

Tab.2 Comparison of size and detection speed of different models

綜合上述分析可知,本文模型比SSD的睜眼檢測精確度提升了1.27個百分點;閉眼檢測精確度提升了0.94個百分點;張嘴檢測精確度提升最高,為1.87個百分點;閉嘴檢測精確度提升了1.48個百分點,AP提升1.39個百分點;可以更精確地識別病人的面部特征。本文模型參數減少至原始SSD參數量的1/6,檢測速度是原始SSD的2.4倍,即檢測速度提升了140%,對病人的面部特征的檢測更實時。

4.3 數據分析

在臨床醫學中靈敏度(sensitivity)和平均對數漏檢率(Log-Average Miss Rate, LAMR)更具有實際參考價值。靈敏度指在所有的正樣本中模型預測對的比重,與模型的評價指標召回率Recall等同,靈敏度越大,模型的檢測越準;平均對數漏檢率指計算每張圖片誤檢數(False Positives Per Image,FPPI)和漏檢率(Miss Rate,MR)同時衡量模型性能。MR的計算如式(5)所示:

通過繪制MR-FPPI(Miss Rate- False Positives Per Image)曲線,取9個FPPI值下的平均漏檢率,記為MR-2,其中9個點是在對數區間[10-2,102]上的均勻采樣。MR-2表示在指定誤檢率的情況下檢測器的漏檢率。MR-2越低,表示模型漏檢率越低,檢測性能越好。對模型的實驗結果數據進行計算比較,結果如圖9、表3所示。

由圖9可見,模型的優劣順序為本文模型、CA-SSD、SSD和MobileNetV2-SSD。本文模型檢測閉眼的靈敏度比原始SSD略低,是由于更換了主干網絡的輕量化網絡模型對小尺度特征圖檢測不全面;在對睜眼、張嘴和閉嘴的檢測中,本文模型的靈敏度均為最高值、覆蓋最全面,綜合評估本文模型具有更好的靈敏度。

圖9 不同模型的靈敏度對比

表3不同模型的平均對數漏檢率對比

Tab.3 Comparison of log-average miss rate of different models

由表3可見,本文模型在每個分類檢測的平均對數漏檢率都為最低值,檢測性能最好。

綜上分析可知,本文模型具有更優的靈敏度和極低的平均對數漏檢率,可以準確地檢測麻醉病人復蘇期的面部特征,對麻醉病人檢測識別的遺漏少,這對麻醉復蘇檢測識別具有較大的實際意義。

4.4 麻醉復蘇判定方法

根據本文模型檢測的結果,先檢測每幀圖像中病人的面部特征,再引入是否復蘇的邏輯算法進行麻醉復蘇檢測。設定一個蘇醒狀態評價值由式(6)計算:

測試集選用的病人照片為235張,分為兩類(清醒和昏迷),其中清醒的照片為100張,昏迷的照片為135張。對檢測結果繪制受試者特征曲線(Receiver Operating Characteristic curve, ROC),如圖10所示。

圖10 受試者特征曲線

ROC的曲線下面積(Area Under Curve, AUC)值為0.88,驗證了本文模型的有效性及面部特征對麻醉復蘇判定具有較高的預測價值。

5 結語

本文提出一種基于改進SSD的麻醉復蘇目標檢測方法。將SSD的主干網絡VGG16更換為MobileNetV2,減少了特征提取網絡模塊的參數量,在保證模型精確度的情況下提高檢測速度;引入注意力模塊,通過注意力機制模塊,使模型將更多的關注點放在關鍵信息,增強模型對目標的識別能力。在醫院麻醉病患面部數據集HAPF上驗證了本文方法的可行性。實驗結果表明,本文模型(CA+MobileNetV2-SSD)具有較高的精確度和實時性,同時也滿足移動計算設備的應用需求,具有實際工程應用的潛能。下一步,將圍繞實際應用場景進行針對性的研究優化。

[1] DESBOROUGH J P. The stress response to trauma and surgery[J]. British Journal of Anaesthesia,2000,85(1):109-117.

[2] DOBSON G P. Addressing the global burden of trauma in major surgery[EB/OL].[2022-12-20]. doi:10.3389/fsurg.2015.00043.

[3] CUSACK B , BUGGY D J . Anaesthesia, analgesia, and the surgical stress response[J]. BJA Education, 2020,20(9): 321-328.

[4] HIROSE M, OKUTANI H, HASHIMOTO K, et al. Intraoperative assessment of surgical stress response using nociception monitor under general anesthesia and postoperative complications: a narrative review[J]. Journal of Clinical Medicine, 2022,11(20): No. 6080.

[5] PENSON D F. Re: relationship between occurrence of surgical complications and hospital finances[J]. The Journal of Urology, 2013, 190(6): 2211-2213.

[6] DOBSON G P . Trauma of major surgery: a global problem that is not going away [J]. International Journal of Surgery, 2020, 81:47-54.

[7] LUDBROOK G L. The hidden pandemic: the cost of postoperative complications [J]. Current Anesthesiology Reports, 2021, 12(1):1-9.

[8] 郭清厚,鐘嬈霞,莫玉林.靶向預控護理在全麻手術患者復蘇期躁動管理中的應用[J].齊魯護理雜志,2019,25(6):92-94.(GUO Q H, ZHONG R X, MO Y L. Application of targeted pre-control nursing in restlessness management of patients undergoing general anesthesia surgery during recovery [J]. Journal of Qilu Nursing, 2019, 25(6): 92-94.)

[9] SOUKUPOVá T, CECH J. Real-time eye blink detection using facial landmarks [EB/OL].[2022-12-20]. https://vision.fe.uni-lj.si/cvww2016/proceedings/papers/05.pdf.

[10] NOUSIAS G, PANAGIOTOPOULOU E-K, DELIBASIS K, et al. Video-based eye blink identification and classification[J]. IEEE Journal of Biomedical and Health Informatics, 2022, 26(7): 3284-3293.

[11] DE LA CRUZ G, LIRA M, LUACES O, et al. Eye-LRCN: a long-term recurrent convolutional network for eye blink completeness detection[J/OL]. IEEE Transactions on Neural Networks and Learning Systems, 2022[2022-11-29]. https://ieeexplore.ieee.org/abstract/document/9885029.

[12] CHEN Y, ZHAO D, HE G. Deep learning-based fatigue detection for online learners[C]// Proceedings of the 2022 5th International Conference on Pattern Recognition and Artificial Intelligence. Piscataway: IEEE, 2022 : 924-927.

[13] WANG Z, CHAI J, XIA S. Realtime and accurate 3D eye gaze capture with DCNN-based iris and pupil segmentation [J]. IEEE Transactions on Visualization and Computer Graphics, 2021,27(1):190-203.

[14] PRINSEN V, JOUVET P, OMAR S A, et al. Automatic eye localization for hospitalized infants and children using convolutional neural networks [J]. International Journal of Medical Informatics, 2021, 146: 104344.

[15] LIU W,ANGUELOV D,ERHAN D,et al. SSD:single shot multibox detector [C]// Proceedings of the 2016 European Conference on Computer Vision,LNCS 9905. Cham: Springer,2016: 21-37.

[16] SIMONYAN K , ZISSERMAN A . Very deep convolutional networks for large-scale image recognition[EB/OL].[2022-12-20]. https://arxiv.org/pdf/1409.1556.pdf.

[17] SANDLER M , HOWARD A , ZHU M , et al. MobileNetV2: inverted residuals and linear bottlenecks [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018:4510-4520.

[18] HU J , SHEN L , ALBANIE S , et al. Squeeze-and-excitation networks.[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8):2011-2023.

[19] WANG Q , WU B , ZHU P , et al. ECA-Net: efficient channel attention for deep convolutional neural networks[C]// Proceedings of the 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2020 :11531-11539.

[20] HOU Q , ZHOU D , FENG J . Coordinate attention for efficient mobile network design[C]// Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE,2021 :13708-13717.

[21] ZHAO L, WANG Z, ZHANG G,et al.Eye state recognition based on deep integrated neural network and transfer learning[J].Multimedia Tools and Applications, 2018, 77(15):19415-19438.

[22] HUANG G B, MATTAR M, BERG T,et al.Labeled faces in the wild: a database for studying face recognition in unconstrained environments [EB/OL].[2022-12-22].https://inria.hal.science/inria-00321923/document.

[23] TAN C, SUN F, KONG T, et al. A survey on deep transfer learning [C]// Proceedings of the 2018 International Conference on Artificial Neural Networks and Machine Learning. Cham: Springer, 2018:270-279.

[24] MA N, ZHANG X., ZHENG H T,et al. ShuffleNet v2: practical guidelines for efficient cnn architecture design [C]// Proceedings of the 2018 European Conference on Computer Vision. Cham:Springer, 2018 :122-138.

Anesthesia resuscitation object detection method based on improved single shot multibox detector

LUO Ronghao, CHENG Zhiyou, WANG Chuanjian*, LIU Siqian, WANG Zhentian

(,,230039,)

The target detection model of anesthesia resuscitation is often used to help medical staff to perform resuscitation detection on anesthetized patients. The targets of facial actions during patient resuscitation are small and are not obvious, and the existing Single Shot multibox Detector (SSD) is difficult to accurately detect the facial micro-action features of patients in real time. Aiming at the problem that the original model has low detection speed and is easy to have missed detection, an anesthesia resuscitation object detection method based on improved SSD was proposed. Firstly, the backbone network VGG (Visual Geometry Group)16 of the original SSD was replaced by the lightweight backbone network MobileNetV2, and the standard convolutions were replaced by the depthwise separable convolutions. At the same time, the calculation method of first increasing and then reducing the dimension of the extracted features from patient photos was used to reduce computational cost, thereby improving detection speed of the model. Secondly, the Coordinate Attention (CA) mechanism was integrated into the feature layers with different scales extracted by the SSD, and the ability of the feature map to extract key information was improved by weighting the channel and location information, so that the network positioning and classification performance was optimized. Finally, comparative experiments were carried out on three datasets:CEW(Closed Eyes in the Wild), LFW(Labeled Faces in the Wild), and HAPF(Hospital Anesthesia Patient Facial). Experimental results show that the mean Average Precision (AP) of the proposed model reaches 95.23%, and the detection rate of photos is 24 frames per second, which are 1.39 percentage points higher and 140% higher than those of the original SSD model respectively. Therefore, the improved model has the effect of real-time accurate detection in anesthesia resuscitation detection, and can assist medical staff in resuscitation detection.

anesthesia resuscitation; facial feature recognition; Single Shot multibox Detector (SSD); MobileNetV2; attention mechanism

This work is partially supported by National Natural Science Foundation of China (82272225).

LUO Ronghao, born in 1997, M. S. candidate. His research interests include object detection, micro-action recognition.

CHENG Zhiyou, born in 1972, Ph. D., professor. His research interests include analysis and control of power quality.

WANG Chuanjian, born in 1977, Ph. D., professor. His research interests include computer vision, medical artificial intelligence.

LIU Siqian, born in 1997, M. S. candidate. His research interests include object detection.

WANG Zhentian, born in 1999, M. S. candidate. His research interests include object detection, optical character recognition.

TP391.41

A

1001-9081(2023)12-3941-06

10.11772/j.issn.1001-9081.2022121917

2023?01?04;

2023?04?05;

2023?04?06。

國家自然科學基金資助項目(82272225)。

羅榮昊(1997—),男,安徽滁州人,碩士研究生,主要研究方向:目標檢測、微動作識別;程志友(1972—),男,安徽安慶人,教授,博士,主要研究方向:電能質量分析與控制;汪傳建(1977—),男,安徽安慶人,教授,博士,CCF會員,主要研究方向:計算機視覺、醫學人工智能;劉思乾(1997—),男,安徽巢湖人,碩士研究生,主要研究方向:目標檢測;汪真天(1999—),男,安徽銅陵人,碩士研究生,主要研究方向:目標檢測、光學文字識別。

猜你喜歡
精確度特征檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“硬核”定位系統入駐兗礦集團,精確度以厘米計算
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應用
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
易錯題突破:提高語言精確度
主站蜘蛛池模板: 久夜色精品国产噜噜| 亚洲黄色激情网站| 国产拍揄自揄精品视频网站| 精品国产自在在线在线观看| 色婷婷在线播放| 尤物精品视频一区二区三区| 国产自在自线午夜精品视频| 都市激情亚洲综合久久| 99视频免费观看| 亚洲三级色| 中文无码伦av中文字幕| 中文精品久久久久国产网址| 中文字幕丝袜一区二区| 青青青国产在线播放| 中文字幕在线一区二区在线| 久久综合一个色综合网| 亚洲性日韩精品一区二区| 欧美另类视频一区二区三区| 91亚瑟视频| 高清国产在线| 日本国产一区在线观看| 亚洲丝袜中文字幕| 久久精品国产精品青草app| 国产精品视频猛进猛出| 精品国产香蕉在线播出| a免费毛片在线播放| 亚洲一级毛片免费看| 亚洲性影院| 免费一级毛片不卡在线播放| 777午夜精品电影免费看| 伊人婷婷色香五月综合缴缴情| 日韩 欧美 小说 综合网 另类 | 欧美在线中文字幕| 精品午夜国产福利观看| 久久黄色视频影| 啪啪免费视频一区二区| 国产成人亚洲欧美激情| 亚洲一区毛片| 国产精品人成在线播放| 欧美日韩中文国产va另类| 中日无码在线观看| 国产一级α片| 一本无码在线观看| 久久精品aⅴ无码中文字幕| 亚洲精品制服丝袜二区| 日韩av无码精品专区| 91美女视频在线观看| 国产91小视频在线观看| 色综合综合网| 国产日韩丝袜一二三区| 亚洲资源站av无码网址| 免费毛片视频| 久久这里只有精品国产99| 日韩av电影一区二区三区四区| 精品久久香蕉国产线看观看gif| 成人福利视频网| 亚洲欧美日韩综合二区三区| 亚洲毛片在线看| 国产成人亚洲精品无码电影| 国产激爽爽爽大片在线观看| 成人精品区| 国产亚洲视频免费播放| 亚洲精品国产精品乱码不卞| 国产呦精品一区二区三区下载| 色哟哟国产成人精品| 午夜一级做a爰片久久毛片| 欧美第一页在线| 91精品专区国产盗摄| 8090成人午夜精品| 国内精品视频| 日本人妻一区二区三区不卡影院 | 99re精彩视频| 欧美影院久久| 国产精品夜夜嗨视频免费视频| 国产成人高清精品免费5388| 在线观看视频99| 国产新AV天堂| 欧美日韩精品在线播放| 婷婷综合亚洲| 日韩精品无码免费一区二区三区| 91无码人妻精品一区二区蜜桃| 无码高潮喷水在线观看|