












【摘要】 背景 隨著人口老齡化,壓力性損傷(PI)的發病率逐漸增加,這不僅嚴重影響了患者的生存質量,還增加了醫保支出。然而,PI的早期發現和準確分期極大地依賴于專業培訓。目的 構建并測試一個用于PI自動檢測和分期的人工智能模型,以提高PI診斷的實時性、準確性和客觀性。方法 選取常熟市第一人民醫院壓瘡電子化管理系統中2021年1月—2024年2月的693張PI圖像,將圖像隨機劃分為訓練集(551張)和測試集(142張),并按照2019 年美國壓瘡咨詢委員會(NPUAP)制訂的PI預防和治療指南分為6期,包括:Ⅰ期154張、Ⅱ期188張、Ⅲ期160張、Ⅳ期82張、深部組織損傷期57張、不可分期52張。利用基于5種不同版本的YOLOv8[nano(n)、small(s)、medium(m)、large(l)和extra large(x)]神經網絡和遷移學習,建立針對PI的深度學習目標檢測模型。模型評價指標包括精確度、準確率、靈敏度、特異度及檢測速度等。最后,通過Ultralytics Hub平臺將模型部署到手機應用程序(App)中,實現AI模型在臨床工作中的應用。結果 在對包含142張PI圖像的測試集進行評估時,YOLOv8l版本在確保高精確度(0.827)的同時,也展現了較快的推理速度(68.49 幀/s),與其他YOLO版本相比,在精確度與速度之間取得了最佳的平衡。具體而言,其在所有類別上的整體準確率為93.18%,靈敏度為76.52%,特異度為96.29%,假陽性率為3.72%。在6個PI分期中,模型預測Ⅰ期的準確率最高,達到95.97%;預測Ⅱ期、Ⅲ期、Ⅳ期、深部組織損傷期、不可分期分別取得了91.28%、91.28%、91.95%、95.30%和93.29%的準確率。就處理速度而言,YOLOv8l處理142張圖像的總耗時為2.07 s,平均每秒可處理68.49張PI圖像。結論 基于YOLOv8l網絡的AI模型能夠快速、準確地對PI進行檢測和分期。將該模型部署到手機App中,能夠在臨床實踐中便攜使用,具有很大的臨床應用潛力。
【關鍵詞】 壓力性損傷;人工智能;深度學習;YOLO;目標檢測;神經網絡模型;App
【中圖分類號】 R 473.75 【文獻標識碼】 A DOI:10.12114/j.issn.1007-9572.2024.0168
Construction of an Artificial Intelligence-assisted System for Automatic Detection of Pressure Injury Based on the YOLO Neural Network
WANG Zhenni1,XU Yueping2,XIA Kaijian3,XU Xiaodan1*,GU Lihua2*
1.Gastroenterology Department,Changshu No.1 People's Hospital,Changshu 215500,China
2.Nursing Department,Changshu No.1 People's Hospital,Changshu 215500,China
3.Key Laboratory of Medical Artificial Intelligence and Big Data,Changshu No.1 People's Hospital,Changshu 215500,China
*Corresponding authors:XU Xiaodan,Chief physician;E-mail:xxddocter@gmail.com
GU Lihua,Chief nurse;E-mail:xixi42490@gmail.com
【Abstract】 Background With the aging population,the incidence of pressure injury(PI)is gradually increasing. This not only severely impacts the quality of life for patients but also increases healthcare expenditures. However,the early detection and accurate staging of PI heavily depend on specialized training. Objective To construct and validate an artificial intelligence model for the automatic detection and staging of PI aimed at enhancing the real-time nature,accuracy,and objectivity of PI diagnostics. Methods A total of 693 PI images from the electronic management system of pressure ulcers at Changshu No.1 People's Hospital were selected from January 2021 to February 2024,the images were randomly divided into a training set(551 images)and a test set(142 images),and categorized into six stages according to National Pressure Ulcer Advisory Panel(NPUAP)guidelines:StageⅠ(154 images),StageⅡ(188 images),StageⅢ(160 images),StageⅣ
(82 images),deep tissue injury(57 images),and unstageable(52 images). A deep learning object detection model for PI was established using five different versions of the YOLOv8 [nano(n),small(s),medium(m),large(l)and extra large(x)]neural network and transfer learning. The model evaluation metrics included accuracy,sensitivity,specificity,1 positive rate,and detection speed. Finally,the model was deployed to a mobile application via the Ultralytics Hub platform,facilitating the application of the AI model in clinical practice. Results During the evaluation of a test set containing 142 PI images,the YOLOv8l version demonstrated high accuracy(0.827)and fast inference speed(68.49 fps),achieving the best balance between precision and speed among the YOLO versions. Specifically,it achieved an overall accuracy of 93.18% across all categories,a sensitivity of 76.52%,a specificity of 96.29%,and a 1 positive rate of 3.72%. Among the six stages of PI,the model achieved the highest accuracy for StageⅠat 95.97%. The accuracies for StageⅡ,StageⅢ,StageⅣ,deep tissue injury,and unstageable were 91.28%,91.28%,91.95%,95.30%,and 93.29%,respectively. In terms of processing speed,YOLOv8l took a total of 2.07 seconds to process 142 images,averaging 68.49 PI images per second. Conclusion The AI model based on the YOLOv8l network can quickly and accurately detect and stage PI. Deploying this model to a mobile app allows for portable use in clinical practice,demonstrating significant potential for clinical application.
【Key words】 Pressure injury;Artificial intelligence;Deep learning;YOLO;Object detection;Neural network models;App
壓力性損傷(pressure injury,PI)又稱壓瘡、褥瘡,是指由于壓力或壓力與剪切力的作用而導致的局部皮膚和/或皮下組織受損,常見于骨隆突部位,但也可能與醫療設備或其他物體有關[1-2]。一旦患者出現PI,可能會經歷疼痛、不適以及活動能力減弱等嚴重影響。在極端情況下,PI可能導致嚴重感染、住院甚至死亡,給患者和醫療系統帶來了重大挑戰[1]。損傷的程度可以從皮膚呈現的紅斑開始,一直到皮膚和組織的完全損失,甚至暴露出骨骼[2]。PI的預防與護理是臨床護理工作的重點和難點。全國各大醫院均開設了PI專項培訓,并成立了專科護理小組。然而,低年資護士可能由于缺乏專業知識、評估技巧及系統培訓,導致對PI損傷分期的準確性判斷受到影響[3-4]。
近年來,隨著大數據和云計算技術的迅速進步,人工智能(artificial intelligence,AI)已經開始在醫學領域中廣泛應用,計算機輔助診斷技術成為臨床研究的熱點[5]。李清等[3]利用臨床數據,通過機器學習算法構建預測模型,為PI的護理提供了有效指導。SAWYER LEE等[4]和AGNES等[5]使用深度學習技術開發卷積神經網絡(convolutional neural network,CNN)模型檢測乳腺X線攝影圖像中的乳腺腫瘤。LI等[6]和TING等[7]使用CNN檢測眼部圖像中的視網膜異常。然而,在國內數據庫中,鮮見利用PI圖數據,基于深度學習技術開發的AI模型用于實現PI的自動化檢測和分期的相關臨床研究。自YOLOv1于2015年推出以來,YOLO這種單階段目標檢測網絡不斷改進算法和加入新功能[8],2023年的YOLOv8采用了一種無錨點模型[9],通過直接預測對象中心,而非依賴錨框偏移,簡化了候選檢測篩選流程,并提升了非極大值抑制的效率,實現了處理速度與檢測精度之間的更好平衡。本研究目的是基于YOLOv8神經網絡和遷移學習開發的一款能夠快速檢測、自動化分期PI的AI輔助系統,以提高PI診斷的實時性、準確性和客觀性。
1 資料與方法
1.1 一般資料
本研究收集了2021年1月—2024年2月在常熟市第一人民醫院住院期間發生PI患者的圖像693張。所有數據存儲在專用的壓瘡電子化管理系統中。將收集的圖像隨機劃分為訓練集(551張)和測試集(142張)。本研究經常熟市第一人民醫院倫理委員會審批通過(審批號:L2024035)。
本研究參照2019年美國壓瘡咨詢委員會(National Pressure Ulcer Advisory Panel,NPUAP)[10-11]制訂的PI預防和治療指南將PI圖像分為6期,各分期圖像示例見圖1,研究流程見圖2。
1.2 圖像收集及標注
PI的圖像由常熟市第一人民醫院的住院護理團隊在進行臨床護理時收集,并被上傳到電子壓瘡管理系統。一旦檢測到PI患者,護理人員將使用醫用手持終端設備(personal digital assistant,PDA)或其個人手機來拍攝照片,同時確保相機與受影響區域的距離維持在40~65 cm。在拍照過程中,護理人員會小心操作以避免晃動,從而確保圖片的高質量。
本研究將圖像標注過程分為3個階段,參與標注的護士被分為3個團隊,負責各個階段的工作,詳細標注流程如圖3。只有按照標注流程標注和核查的圖像才會被用于深度學習模型的訓練。使用LabelMe(v5.3.1)工具對6個分期的PI圖像進行矩形框標注,為適配深度學習模型訓練,將LabelMe格式的JSON文件轉換為YOLO格式,矩形框標注的詳細情況參見圖4。
1.3 深度學習網絡
1.3.1 圖像預處理:本研究致力于通過一系列圖像預處理和增強措施,提升AI模型在識別PI圖像的準確性。在訓練階段采用在線數據增強技術[12-13],通過實時變更圖像數據而不產生新的圖像文件,確保模型每次迭代能接觸到略有變化的圖像,以提高模型對現實世界中圖像變異的適應能力。預處理措施包括調整圖像至640像素并維持比例,以及有50%的概率執行隨機水平翻轉,以增加數據的多樣性。此外,使用RandomResize和RandomCrop技術進行隨機的尺寸調整和裁剪,以增強模型對圖像尺寸變化和局部信息的識別能力。同時,采用YOLOX提供的HSVRandomAug技術[14]對色調(Hue)、飽和度(Saturation)和亮度(Value)即HSV色彩空間進行隨機調節,增強模型對不同光照和顏色變動的適應能力。
1.3.2 模型訓練配置:本研究采用遷移學習策略[15],選用了在COCO數據集上預訓練的5個不同版本的YOLOv8模型[16],分別用nano(n)、small(s)、medium(m)、large(l)和extra large(x)表示,這些版本代表了模型大小和復雜度的不同級別。模型權重進行了隨機初始化,隨后在PI圖像數據集上對所有層重新訓練。訓練過程中,模型自動選擇優化器,并根據配置文件調整學習率,以優化訓練結果。設置訓練周期最多為100個,每批次大小為25,最大檢測目標數為30。此外,啟用了圖形處理器上的自動混合精度訓練,以提高效率。所有訓練細節,包括將圖像大小調整至640像素,按照配置文件中的參數執行。為了防止過擬合,引入了早停法(early stopping),設定閾值為10,即如果在連續10個訓練周期內驗證集性能未見改善,則提前終止訓練。本研究提出的PI圖像目標檢測系統見圖5。
1.4 模型性能評估
本研究引入了多種評估指標來全面地評價AI模型的性能表現。針對目標檢測類的深度學習模型,主要評估集中在兩個關鍵方面:邊界框的精確定位和類別預測的準確性。對于邊界框的精度,使用mAP50和
mAP50-95。mAP50指的是在交并比(IoU)閾值為0.5時的平均精度,而mAP50-95則覆蓋了從IoU閾值0.50~0.95(每隔0.05)的平均精度。在評估AI模型對病變類別預測的性能時,使用靈敏度、特異度、準確率以及假陽性率。此外,模型的實時處理能力通過每秒能處理的圖像幀數(FPS)評估,這一指標直接顯示了模型的處理速度及其實時響應能力。
1.5 試驗平臺
本研究使用一臺裝配有RTX 3060顯卡(12.6 GB顯存)、6核E5-2680 v4 CPU和1 TB磁盤空間的計算機。模型的構建、訓練及圖像處理主要依賴于PyTorch(2.0.1)和其他Python庫。數據組織、分析與可視化通過Pandas(1.3.4)、NumPy(1.21.4)、Matplotlib(3.5.0)和Plotly(5.4.0)進行。模型優化使用了PyTorch(1.10.0+cu113)。最后,通過Ultralytics Hub在線平臺(https://hub.ultralytics.com)將訓練AI模型部署到手機應用程序中。該平臺的用戶友好界面和高效部署功能極大地簡化了部署過程,能夠快速且無縫地將復雜的AI模型轉化為能夠便攜使用的移動應用。
2 結果
2.1 模型訓練
本研究共計納入693張不同分期的PI圖像,其中訓練集551張,測試集142張;Ⅰ期有127張訓練圖像和27張測試圖像,總計154張圖像;Ⅱ期有155張訓練圖像和33張測試圖像,總計188張圖像;Ⅲ期有126張訓練圖像和34張測試圖像,總計160張圖像,詳見圖6。
YOLOv8l模型在訓練階段的損失函數呈下降趨勢,模型損失隨訓練周期增加而逐漸降低并趨于穩定,表明模型正向優化方向收斂(圖7A)。YOLOv8l模型在訓練過程中邊界框定位性能指標的變化呈上升趨勢,隨著訓練周期的增加,性能指標首先出現顯著提升,隨后逐漸穩定。具體來說,模型的邊界框精確度達到了0.816,召回率為0.696;同時,mAP50和mAP50-95兩個指標分別達到了0.781和0.538,展示了模型在目標檢測方面的良好性能(圖7B)。
2.2 模型性能評估
2.2.1 不同版本YOLOv8模型性能:在測試集上對不同版本的YOLOv8模型進行了性能對比,YOLOv8l版本在保持高mAP50(平均精確度)的同時,也展現出較快的推理速度,相較于其他版本,實現了更好的精確度與速度的平衡,從而在整體性能上表現更為優越(圖8)。
2.2.2 不同版本YOLO模型邊界框定位性能:YOLOv8l模型在對圖像中PI病灶邊界的定位精確度方面,達到了最高的mAP50(0.824)、mAP50-95(0.575)和精確度(0.827),盡管其召回率(0.749)略低于YOLOv8m(0.752)。在處理速度方面,YOLOv8l處理142張圖像的總耗時為2.07 s,平均處理速度為14.6 ms/img(相當于68.49幀/s),詳細數據見表1。
2.2.3 YOLOv8l模型在測試集上的分類預測性能:在對圖像中不同分期PI病灶分類準確性方面,YOLOv8l模型在所有類別上的整體準確率為93.18%,靈敏度為76.52%,特異度為96.29%,假陽性率為3.72%。在6個PI分期中,模型預測Ⅰ期PI的準確率最高,達到95.97%,而預測Ⅱ期和Ⅲ期PI的準確率最低,為91.28%,詳細數據見表2。
2.2.4 AI模型在精確度、召回率、F1分數與置信度之間的關系:YOLOv8l目標檢測AI模型被應用于定位PI病變并評估其置信度。在視頻分析過程中,模型對每幀圖像執行連續的檢測。該模型在置信度為0.428時,F1分數達到最高(圖9)。在較低置信度的條件下,AI模型能有效地調和精確度與召回率,確保在初步篩選階段不漏檢大量潛在的病變,這在臨床環境中尤為關鍵,最終的診斷依賴于專業護理團隊對AI標注結果的核實。在典型的目標檢測任務中,精確度和召回率之間需要維持一種平衡,而最佳的截斷點通常是在F1分數達到峰值時設定。在臨床實際應用場景中,PI小組護士會復核模型的標注結果。當置信度≤0.1時,F1分數迅速提升,隨后呈逐漸增加的趨勢。
2.3 模型預測結果
AI模型在圖像預測方面表現出色,不僅能夠準確地通過矩形框定位目標PI病變,還能正確識別病變的分期,覆蓋了6個不同的PI分期。在每個識別的矩形框上方,模型還標注了預測的PI分期及其置信度,從而提升了預測結果的直觀性和可信度,見圖10。
將模型部署到手機應用程序中,以便在臨床上便捷使用,需要經歷以下幾個步驟:首先,建立并標注專用的PI圖像數據集;接著,通過遷移學習在Ultralytics Hub平臺上微調訓練YOLOv8模型,并將其發布;最后,以蘋果手機(iPhone)為例,在海外版蘋果商店(App Store)下載“Ultralytics Hub”軟件,并加載本課題組之前發布的模型。為了方便觀看模型在實時定位并自動分類PI病變的能力,兩個視頻鏈接及其對應的二維碼見表3。通過點擊鏈接或掃描二維碼,用戶可以直接觀看視頻,從而直觀地了解AI模型的表現。視頻1和視頻2從不同角度展示了一位護理人員正在使用載有AI模型的手機實時檢測PI病變的演示過程。
3 討論
PI是全球數百萬人面臨的重大健康問題,尤其影響活動能力受限的人群。PI的早期檢測和分期對于防止其進展及減少相關的發病率和死亡率至關重要。在歐美地區,Ⅱ期及以上的PI被視為“絕不應發生的事件”,相關治療費用經常不予報銷。盡管投入了大量資源進行預防和治療,但長時間手術的患者中有66%的PI發生率,而重癥監護病房的發病率更是高達50%[17]。在中國,由于人口眾多、老齡化問題嚴重以及醫療資源不足,許多慢性病老年患者長期臥床,通常在康復中心或家中接受治療。雖然PI發生率已被納入國內醫院質量評估指標[18-19],但專業的PI小組人員主要集中在大型綜合醫院,這使得在非大型醫療機構中進行PI的早期診斷和分期面臨持續挑戰。相關研究表明,PI治愈率僅為5.1%~29.9%[20],這不僅延長了患者的住院時間,同時也增加了治療成本[21]。
2019年NPUAP指南[10]中規定的PI分期為1~4期及兩種特殊類型(深部組織損傷期和難以分期),并明確指出清創后需要對深部組織損傷期和難以分期重新分期并歸為3~4期。然而,本研究在按照2019年NPUAP指南進行PI分期時,刻意加入了兩種特殊類型(深部組織損傷期和難以分期)的PI圖像,用于訓練人工智能模型,其理由如下:(1)PI存在的普遍性。許多慢性病老年患者長期臥床,通常在康復中心或家中接受治療。在綜合性醫院的ICU、消化內科、腫瘤科和呼吸科等科室,也經常出現PI患者。(2)PI專業知識人員的缺乏。擁有PI專業知識的人員主要集中在大型綜合醫院,使得在非大型醫療機構中進行PI的早期診斷和分期面臨持續挑戰。(3)早發現PI的重要性。一旦患者出現PI,可能會經歷疼痛、不適及活動能力減弱等嚴重影響,并顯著增加患者的醫療費用。PI的治療效果與其及早發現息息相關;提高早期發現和準確分期的能力,能夠降低PI的漏診率并減少其進展為高分期的風險。(4)分為6期的臨床意義。在非大型醫療機構、養老機構及居家等場景中,通常不具備清創條件,因此無法對兩種特殊類型的PI患者進行清創后分期。本研究的目的是開發一種PI自動識別和分期的人工智能模型,通過AI的使用,使得在不具備強PI專業知識及清創條件的場景中,也能盡早發現這類PI患者,引起重視,并在必要時轉至大型醫院進一步診治。
有效的PI管理依賴于其早期和準確的識別[22]。對于經驗較少的醫護人員,準確分期PI是具有挑戰性的,因為可能受到培訓不足、信息缺乏、觀察者偏見以及傷口外觀多樣性的影響[23-24]。此外,患者的皮膚色、年齡和健康狀況也可能干擾視覺判斷[25]。因此,迫切需要開發更有效、更準確、更客觀的自動化PI檢測和分期方法。隨著大數據和云計算技術的發展,AI正逐漸應用于醫學領域,計算機輔助診斷技術已成為臨床研究的熱點。?íN等[26]的研究利用重癥監護患者的臨床數據進行機器學習預測PI,結果表明隨機森林模型的準確率達到96.0%。在PI圖像處理方面,LIU等[27]利用圖像分割技術提出了一種用于PI自動化評估的AI輔助系統。然而,該系統在包含100張PI圖像的測試集上僅取得了0.603的mAP。ALDUGHAYFIQ等[28]使用YOLOv5開發的模型獲得了0.769的mAP50,而本研究采用更新的YOLOv8網絡,實現了更高的檢測精度(mAP50為0.824),并在自動化PI分期方面展現了93.18%的整體準確率、76.52%的靈敏度和96.29%的特異度。特別是對Ⅰ期PI病變,準確率高達95.97%。本研究模型已部署到手機App中,以每秒68.49張圖像的速度運行,充分滿足實時診斷PI的需求。該App相當于一位經驗豐富的PI小組成員,在不同場景(如醫院、護理院、家庭)使用,能夠提高早期發現和準確分期的能力,進而降低PI的漏診和進展為高分期的風險。目前支持蘋果手機(安卓手機無法使用),在手機上同時安裝GitHub和Ultralytics Hub軟件;本研究訓練的PI模型已上傳至GitHub模型存儲倉庫,這兩個軟件同時登錄同一個賬號后,就能夠將模型從GitHub模型倉庫傳輸至Ultralytics Hub中,之后每次打開Ultralytics Hub就能使用本團隊開發的PI模型。
4 小結與展望
本研究為PI的自動化檢測和分期開發了一個AI模型,該模型在定位和分類性能方面均表現優秀,通過手機終端的部署,可在不同場景中為不同人群提供有力輔助。該模型通過實現PI的早期發現和準確分期,為制訂治療策略及監測治療效果提供了關鍵支持,從而改善患者的治療效果并降低醫療成本。
本研究初步評估了YOLOv8神經網絡在自動化PI檢測和分期的潛力并將該模型部署至手機應用程序,并計劃從不同醫療中心前瞻性收集PI圖像進行外部測試。此外,今后將與不同經驗的PI小組成員進行人機對比實驗,系統驗證模型在臨床環境中的有效性。這將為技術改進和臨床應用提供寶貴數據和經驗。
作者貢獻:王珍妮、須月萍進行文章的構思與設計;須月萍、夏開建進行數據收集及數據整理并進行統計學處理與代碼報錯解決;王珍妮、徐曉丹撰寫論文并進行論文的修訂;顧麗華對文章整體負責,監督管理。
本文無利益沖突。
王珍妮:https://orcid.org/0009-0001-0889-1755
參考文獻
MERVIS J S,PHILLIPS T J. Pressure ulcers:Pathophysiology,epidemiology,risk factors,and presentation[J]. J Am Acad Dermatol,2019,81(4):881-890. DOI:10.1016/j.jaad.2018.12.069.
HEADLAM J,ILLSLEY A. Pressure ulcers:an overview[J]. Br J Hosp Med:Lond,2020,81(12):1-9. DOI:10.12968/hmed.2020.0074.
李清,蘇強,林英,等. 基于機器學習的住院患者壓力性損傷分析與預測[J]. 同濟大學學報(自然科學版),2020,48(10):1530-1536. DOI:10.11908/j.issn.0253-374x.20096.
SAWYER LEE R,DUNNMON J A,HE A,et al. Comparison of segmentation-free and segmentation-dependent computer-aided diagnosis of breast masses on a public mammography dataset[J]. J Biomed Inform,2021,113:103656. DOI:10.1016/j.jbi.2020.103656.
AGNES S A,ANITHA J,PANDIAN S I A,et al. Classification of mammogram images using multiscale all convolutional neural network(MA-CNN)[J]. J Med Syst,2019,44(1):30. DOI:10.1007/s10916-019-1494-z.
LI F,CHEN H,LIU Z,et al. Fully automated detection of retinal disorders by image-based deep learning[J]. Graefe's Arch Clin Exp Ophthalmol,2019,257(3):495-505. DOI:10.1007/s00417-018-04224-8.
TING D S W,PENG L,VARADARAJAN A V,et al. Deep learning in ophthalmology:the technical and clinical considerations[J]. Prog Retin Eye Res,2019,72:100759. DOI:10.1016/j.preteyeres.2019.04.003.
TERVEN J,CóRDOVA-ESPARZA D M,ROMERO-GONZáLEZ J A. A comprehensive review of YOLO architectures in computer vision:from YOLOv1 to YOLOv8 and YOLO-NAS[J]. Mach Learn Knowl Extr,2023,5(4):1680-1716. DOI:10.3390/make5040083.
LOU H T,DUAN X H,GUO J M,et al. DC-YOLOv8:small-size object detection algorithm based on camera sensor[J]. Electronics,2023,12(10):2323. DOI:10.3390/electronics12102323.
KOTTNER J,CUDDIGAN J,CARVILLE K,et al. Prevention and treatment of pressure ulcers/injuries:the protocol for the second update of the international clinical practice guideline 2019[J]. J Tissue Viability,2019,28(2):51-58. DOI:10.1016/j.jtv.2019.01.001.
陳麗娟,孫林利,劉麗紅,等. 2019版《壓瘡/壓力性損傷的預防和治療:臨床實踐指南》解讀[J]. 護理學雜志,2020,35(13):41-43,51. DOI:10.3870/j.issn.1001-4152.2020.13.041.
ATHALYE C,ARNAOUT R. Domain-guided data augmentation for deep learning on medical imaging[J]. PLoS One,2023,
18(3):e0282532. DOI:10.1371/journal.pone.0282532.
KANG L W,WANG I S,CHOU K L,et al. Image-based real-time fire detection using deep learning with data augmentation for vision-based surveillance applications[C]//2019 16th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). Taipei,China. IEEE,2019:1-4. DOI:10.1109/AVSS.2019.8909899.
QIU Z R,RONG S Y,YE L K. YOLF-ShipPnet:improved RetinaNet with pyramid vision transformer[J]. Int J Comput Intell Syst,2023,16(1):58. DOI:10.1007/s44196-023-00235-4.
SHIN H C,ROTH H R,GAO M C,et al. Deep convolutional neural networks for computer-aided detection:CNN architectures,dataset characteristics and transfer learning[J]. IEEE Trans Med Imaging,2016,35(5):1285-1298. DOI:10.1109/TMI.2016.2528162.
JOCHER G,CHAURASIA A,QIU J. Ultralytics YOLOv8[EB/OL]. [2024-03-20]." https://github.com/ultralytics/ultralytics.
HAJHOSSEINI B,LONGAKER M T,GURTNER G C. Pressure injury[J]. Ann Surg,2020,271(4):671-679. DOI:10.1097/SLA.0000000000003567.
侯學峰,張慧玲,牛瑞紅,等. 山西省某三甲綜合醫院住院患者壓瘡現狀調查分析[J]. 中國藥物與臨床,2019,19(14):2365-2367. DOI:10.11655/zgywylc2019.14.012.
王悅,鄭晨,宋輝. 手術患者壓力性損傷預防管理的研究進展[J]. 護士進修雜志,2022,37(21):1948-1952. DOI:10.16821/j.cnki.hsjx.2022.21.006.
SUN X F,NI P W,WU M J,et al. A clinicoepidemiological profile of chronic wounds in wound healing department in Shanghai[J]. Int J Low Extrem Wounds,2017,16(1):36-44. DOI:10.1177/1534734617696730.
HAESLER E,PITTMAN J,CUDDIGAN J,et al. An exploration of the perspectives of individuals and their caregivers on pressure ulcer/injury prevention and management to inform the development of a clinical guideline[J]. J Tissue Viability,2022,31(1):1-10. DOI:10.1016/j.jtv.2021.10.008.
HAAVISTO E,STOLT M,PUUKKA P,et al. Consistent practices in pressure ulcer prevention based on international care guidelines:a cross-sectional study[J]. Int Wound J,2022,19(5):1141-1157. DOI:10.1111/iwj.13710.
LEBLANC K,WOO K,BASSETT K,et al. Professionals' knowledge,attitudes,and practices related to pressure injuries in Canada[J]. Adv Skin Wound Care,2019,32(5):228-233. DOI:10.1097/01.ASW.0000554444.52120.f6.
BATES-JENSEN B M,MCCREATH H E,HARPUTLU D,et al. Reliability of the Bates-Jensen wound assessment tool for pressure injury assessment:the pressure ulcer detection study[J]. Wound Repair Regen,2019,27(4):386-395. DOI:10.1111/wrr.12714.
BOYKO T V,LONGAKER M T,YANG G P. Review of the current management of pressure ulcers[J]. Adv Wound Care,2018,
7(2):57-67. DOI:10.1089/wound.2016.0697.
?íN P,HOKYNKOVá A,MARIE N,et al. Machine learning-based pressure ulcer prediction in modular critical care data[J]. Diagnostics,2022,12(4):850. DOI:10.3390/diagnostics12040850.
LIU H,HU J,ZHOU J Y,et al. Application of deep learning to pressure injury staging[J]. J Wound Care,2024,33(5):368-378. DOI:10.12968/jowc.2024.33.5.368.
ALDUGHAYFIQ B,ASHFAQ F,JHANJHI N Z,et al. YOLO-based deep learning model for pressure ulcer detection and classification[J]. Healthcare,2023,11(9):1222. DOI:10.3390/healthcare11091222.
(收稿日期:2024-05-27;修回日期:2024-07-12)
(本文編輯:康艷輝)