關鍵詞:改進youonly lookonce(YOLO)
;精子檢測;輕量化中圖分類號:TP183 文獻標志碼:A 文章編號:1000-5137(2025)02-0160-06
Abstract:For theembedded deployment requirementsof home sperm testing devices forpatients witholigospermia and asthenospermia,alightweight sperm detectionalgorithm was proposed basedon an improved youonly look once(YOLO) v8n.Fisrtly,byoptimizing thestructureofthe YOLOv8n model,theeficient multi-branchamp;scale featurepyramid network (EMBSFPN)was introducedinthe Neck layer,which improvedaccuracywhileensuringthe model'slightweight.Secondly, thelightweight shared deformableconvolutional detection(LSDECD)head was usedtoreplace theoriginal detectionhead inthe detection headpart,which significantlyreduced thenumberof parametersandcomputational complexity of he model.Experimentalresultsshowed thatthe improvedalgorithmachieved excelent performance inthespermdetection task,with an average accuracy improvement of 2.3% and a model computational load reduction of 26.8% ,providing an effective solution for sperm detectionapplication on embedded system.
Keywords:improvedyouonlylookonce(YOLO) v8 ;spermdetection;lightweight
0 引言
為滿足廣大少精、弱精患者的自我檢測需求,精子檢測儀的算法研發不僅要確保較高的精度,還需實現輕量化部署,以便于用戶操作,并有效控制檢測成本.因此,開展家用精子檢測嵌人式系統的研究,為加強精子質量的監測、提高評估能力、應對男性精子質量普遍下降,以及不育癥等難題提供了解決方案,具有深遠的研究意義與實際應用價值.
深度學習以其強大的數據處理能力和模式識別能力,正逐步改變著傳統醫療診斷的面貌.特別是在男性生殖健康領域,精子檢測作為評估男性生育能力的重要指標,其準確性和效率直接關系到不育癥的診斷和治療方案的制定.JATI等基于卡爾曼濾波算法檢測精子的位置,并使用匈牙利法推斷每個精子的運動軌跡.LAVIN等2提出了GoogleNet網絡,引人Inception模塊,替代了傳統的卷積和池化操作,在相同條件下能夠提取更多特征,從而提高了網絡效率并優化了模型結構.李林3提出一種基于改進you only look once(YOLO) ΔV5 的精子檢測技術,使用DeepSort算法實現了多目標匹配,并通過卡爾曼濾波對精子目標位置進行估算.LYU等4建立了一個新的數據集,該數據庫由來自20多名男性不育癥患者的1207張精子細胞圖像組成,并提出了一種高效的深度學習算法,將擴展卷積集成到U-Net網絡結構中,用于人類精子頭部的自動分割.
隨著卷積神經網絡(CNN)技術的不斷發展,圖像處理領域迎來了前所未有的變革.其中,R-CNN[5]作為早期基于深度學習的目標檢測算法之一,通過引人區域候選框(Region Proposals)和CNN相結合的方式,實現了對圖像中目標的準確檢測.Single Shot MultiBox Detector(SSD)算法的提出,進一步簡化了目標檢測的過程,實現了單次前向傳播即可完成目標檢測和定位的任務,大大提高了檢測速度.而YOLO算法將目標檢測問題轉化為一個單一的回歸問題,通過一次前向傳播即可同時得到目標的類別、位置和置信度等信息,極大地簡化了檢測流程,提高了檢測效率.
本研究提出一種高效、準確的精子檢測算法,支持精子檢測技術在便攜式醫療和輔助生殖領域的廣泛應用,為男性不育癥診斷和精子評估提供便捷、準確的解決方案,推動醫療診斷技術的智能化、便攜化發展.
1 YOLOv8n模型改進
1.1 YOLOv8模型
YOLOv8模型主要由輸入模塊、主干網絡(backbone)和頭部(head)三部分構成.
主干網絡是YOLOv8模型的核心之一,由Conv(卷積層)、改進的空間金字塔池化模塊(SPPF)和參考ELAN模塊設計而成的新模塊(C2f)等組件構成.其中,C2f模塊為網絡提供了更高效的特征處理能力.SPPF模塊則是對傳統空間金字塔池化的一種創新改進,通過串聯模式大幅降低了計算量,同時保留了捕捉多尺度特征信息的能力.
在頭部結構中,YOLOv8模型采用了基于特征金字塔網絡(FPN)的路徑聚合網絡(PAN)結構,將上層特征有效地融入淺層網絡特征中.檢測頭則采用了當前主流的解耦頭結構(decoupled-head),分離分類任務和檢測任務,使它們各自獨立計算損失.這種設計使得模型能夠更加專注于關鍵任務,從而提高了運算效率和檢測性能.
1.2基于YOLOv8n的算法改進
YOLOv8細分為5個版本模型,將批次大小設置為16,對各版本模型進行測試.考慮到后續需要在嵌入式系統上進行部署,采用模型較為輕量的YOLOv8n作為基準模型進行改進.
1.2.1 特征金字塔網絡
采用高效多分支尺度特征金字塔網絡(EMBSFPN)作為檢測模型中的關鍵特征融合模塊,這個模塊借鑒了雙向特征金字塔網絡(BiFPN)的多尺度特征加權融合策略,將Concat替換成了Add操作,減少了模型的參數量和計算量.采用了高效上采樣卷積模塊(EUCB),便于目標特征的檢測,提高了模型的性能.
1.2.2 改進檢測頭
由于基準模型的檢測頭占據模型總參數量的 25% 左右,影響了運算的效率,通過引入一種更加輕量級的檢測頭(LSDECD)[8,改進后的檢測頭僅占用基線模型1/3左右的參數量.該檢測頭實現了組歸一化(GN),同時,采用共享卷積能夠降低模型的運算量(DEConv模塊),減少了模型對批量大小的依賴,提高了在小批量數據上的訓練穩定性,也使得模型更加輕量化.
1.2.3 引入EIoU損失函數
交并比(IoU)常用于衡量預測框與真實框之間的重疊程度.YOLOv8模型原本采用DFLLoss結合CIoULoss作為回歸損失函數,CIoULoss主要依賴于縱橫IoU這一相對值,可能導致在某些復雜場景下,對邊界框之間關系的描述不夠精確.本文采用EIoU作為預測框的損失函數,引入了嵌入空間的概念,將每個邊界框映射為一個高維向量,并在該空間中計算邊界框之間的距離,從而能夠更精確地捕捉不同尺寸和長寬比的邊界框之間的關系.EIoU的公式計算如下:

式中: IoU 表示交并比; ρ 表示兩點之間的歐氏距離; wc 和 hc 分別是最小外接矩形的寬度和高度; b 和 bgt 分別表示預測框和真實框的中心點; w,h 分別表示預測框的寬和高; wgt,hgt 分別表示真實框的寬和高.
改進后的算法結構如圖1所示.本研究使用 ΥOLOv8n 作為基線模型進行改進,首先,采用了EMBSFPN替換了模型的Neck層,優化特征提取和融合過程,增強了模型的特征表征能力.其次,采用了一種較新的LSDECD檢測頭,通過引入對損失較為敏感的上下文信息捕捉機制,有效提高了模型對目標物體的敏感度和檢測準確性,同時提高了模型的輕量化程度.
2 實驗分析
2.1 實驗設備
本研究采用GPU服務器作為實驗平臺,服務器的參數如表1所示.
2.2 數據集介紹
采用expert visual cell annotation(EVISAN)數據集作為實驗數據集,在數據集劃分方面,將6000張已標注的圖片劃分為數據集、驗證集和測試機,其中4200張圖片作為訓練集,用于訓練模型;900張圖片則作為驗證集,防止出現過擬合等問題;900張圖片作為測試集,用于評估模型性能.
2.3 評估指標
本文采用精確度 P 、召回率 R 、平均精度均值 mAP 指標來衡量模型的性能,




Ap=∈t01P(R)dR,

式中: Tp 是真陽性; Fp 是假陽性, Fv 是假陰性; AP 是平均精度.
2.4 消融實驗
為驗證算法改進的有效性,進行消融實驗.圖片的統一輸入格式為640 pixelx640 pixel,使用隨機梯度下降(SGD)優化器進行梯度優化,初始學習率設置為0.01,批次大小為32,訓練迭代輪次為300輪,以NVIDIA的CUDA11.3版本作為訓練過程中的加速器.實驗結果如表2所示,其中,
和 mAP50-90 分別表示IoU閾值為 50% 和 50%~95% 范圍內模型的 mAP 值;FLOPS為每秒浮點運算量.改進后的模型與基線模型相比, P 值有所下降,但 mAP50 提高了 2.3%,mAP50-95 提高了近 1% ,整體精度有所提升,參數量和浮點數運算量分別下降了 40.0% 和 26.8%

2.5 對比實驗
為了進一步驗證本模型的有效性,對比了近兩年YOLO系列的各模型性能,結果如表3所示.本模型盡管在準確率上有所降低,但整體性能上相較于其他模型仍舊具有一定的優勢,召回率和平均精度在4個模型中最高,其中 mAP50 到達了 91.6% ,較最新版本的YOLOv1ln模型提高了 0.3% ,參數量降低了30.8% ,浮點運算量降低了 4.8%

2.6嵌入式應用部署
YOLO系列的模型通常的保存格式為.pt,這種格式適用于
架構的權重文件,而高級精簡指令集機器(ARM)設備通常無法直接運行PyTorch模型.考慮后續將展開嵌人式應用研究,本文作者通
過將.pt權重文件轉換為openneural networkexchange(ONNX)格式,再將其 轉換為rockchipneuralnetwork(RKNN) 格式,最終在ARM板卡中實現高效推 理,如圖2所示.
3結語
本文提出一種基于YOLOv8n的改進模型,實現精子目標檢測,通過優化模型結構和特征提取方法,提高了精子檢測的準確率和穩定性.同時,本文對模型進行了輕量化處理,FLOPS降低了 26.8% ,減少了模型參數量,為嵌入式平臺上的部署提供了一種可行的解決方案,具有一定的實際應用價值.未來,將根據從醫院采集的精子檢測數據自制數據集,并將算法進一步改進,開展目標追蹤工作,同時將其部署到嵌入式系統中,開發一套完整的家用精子活力檢測系統.

參考文獻:
[1]JATI G,GUNAWANA A S,LESTARI SW,et al. Multi-sperm tracking using Hungarian Kalman Filteron low frame
ratevideo[C]//International Conference onAdvanced Computer Science and Information Systems.Malang:IEEE, 2016:530-535.
[2]LAVINA,GRAY S.Fast algorithms for convolutional neural networks[C]// Computer Visionamp;Pattern Recognition. Las Vegas:IEEE,2016:1-9.
[3]李林.基于深度學習的醫學精子圖像分類算法研究[D].長春:吉林大學,2020. LI L.Research on medical sperm image clasification algorithm based on deep learning[D]. Changchun:Jilin University,2020.
[4] LYU QX,YUAN XR,QIAN JZ,et al.An improved U-Net for human sperm head segmentation[J].Neural ProcessingLetters,2022,24:537-557.
[5]任青陽,王彥丁,施儉.卷積神經網絡目標檢測算法研究進展[J].科學技術與工程,2024,24(32):13665-13677. RENQY,WANG YD,SHIJ.Research progresson target detectionalgorithms based onconvolutional neural networks[J]. Science,Technology and Engineering,2024,24(32):13665-13677.
[6] 謝譽,包梓群,張娜,等.基于特征優化與深層次融合的目標檢測算法[J].浙江大學學報(工學版),2022, 56(12):2403-2415. XIE Y,BAO Z Q,ZHANG N,et al. Object detectionalgorithmbased on feature optimizationand deep-levelfusion[J]. Journalof Zhejiang University (Engineering Science),2022,56(12):2403-2415.
[7]湯偉博,方強,李沛根,等.基于RSD-YOLO的無人機航拍圖像的小目標檢測[J/OL].計算機工程[2024-12- 19].https://doi.org/10.19678/j.issn.1000-3428.0070151. TANG WB,FANG Q,LIPG,et al.Smallobject detection inuav aerial images based on RSD-YOLO[J/OL].Computer Engineering[2024-12-19]. https://doi.org/10.19678/j.issn.1000-3428.0070151.
[8]LI X,LIG,ZHANG Z,etal.Research onimproved algorithms for cone bucket detection in formula unmanned competition[J].Sensors 2024,24(18):5945-5962.
(責任編輯:包震宇,顧浩然)