999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙目視覺和改進YOLOv8n的火災檢測及測距方法

2025-01-25 00:00:00劉振董紹江羅家元孫世政潘學嬌
陜西科技大學學報 2025年1期

摘 要:針對火災檢測出現的漏檢誤檢、模型參數量大及定位困難的問題,基于雙目視覺和改進YOLOv8n提出了一種輕量化火災檢測及測距方法.通過雙目相機拍攝圖片,使用改進的檢測算法YOLOv8n-AEM和現有的測距算法SGBM進行檢測和測距.首先,在主干網絡中引入可變核卷積AKConv和EMA注意力機制,通過構建不規則卷積核有效提取火災的特征;然后,在頸部網絡中構建C2f-SCConv模塊,通過特征重組降低模型參數,提高檢測速度;其次,基于最小點距離改進損失函數,解決火源與光源重疊導致的漏檢與誤檢問題;最后,增加小目標檢測頭,提高對小火苗的檢測能力.實驗結果表明,改進后的檢測算法P、R、mAP分別為83.6%、76.4%、83.6%,分別提高了2.5%、3.6%、4.8%;參數量和模型大小分別為2.54 M和5.1 MB,分別降低了15.3%和15%;測距精度誤差不超過2.5%,證明改進的方法能準確完成火災的檢測及測距.

關鍵詞:火災檢測; 雙目視覺; 測距; YOLOv8n; 輕量化

中圖分類號:TP391.4

文獻標志碼: A

Fire detection and ranging method based on binocular vision and improved YOLOv8n

LIU Zhen, DONG Shao-jiang*, LUO Jia-yuan, SUN Shi-zheng, PAN Xue-jiao

(College of Mechatronics and Vehicle Engineering, Chongqing Jiaotong University, Chongqing 400074, China

Abstract:Aiming at the problems of missing detection and misdetection,large number of model parameters and difficult location in fire detection,a lightweight fire detection and ranging method based on binocular vision and improved YOLOv8n was proposed.Pictures were taken by binocular camera,and the improved detection algorithm YOLOv8n-AEM and the existing ranging algorithm SGBM were used for detection and ranging.Firstly,variable kernel convolution AKConv and EMA attention mechanisms are introduced into the backbone network to effectively extract fire features by constructing irregular convolutional nuclei.Then,the C2f-SCConv module is constructed in the neck network to reduce the model parameters and improve the detection speed through feature recombination.Secondly,the loss function is improved based on the minimum point distance to solve the problem of missing detection and 1 detection caused by overlapping fire source and light source.Finally,the detection head of small target is added to improve the detection ability of small flame.The experimental results show that the improved detection algorithms P,R and mAP are 83.6%,76.4% and 83.6% respectively,which are improved by 2.5%,3.6% and 4.8% respectively.The parameter number and model size were 2.54 M and 5.1 MB,which decreased by 15.3% and 15%,respectively.The accuracy error of ranging is less than 2.5%,which proves that the improved method can accurately complete the fire detection and ranging.

Key words:fire detection; binocular vision; distance measurement; YOLOv8n; light weight

0 引言

正確用火是人類進步的象征,火提供便捷的同時也會帶來災難.火災規模雖不如其他自然災害,但其發生更頻繁.因此,火災的準確快速預警具有重大意義.

隨著計算機視覺的發展,火災檢測從傳感器演變為基于深度學習的圖像檢測技術;速度快、成本低、可結合定位技術準確感知火災的位置,其較好的應用屬性使它逐漸成為了火災檢測預警的主流技術.He等[1]提出了一種基于改進的YOLOv5模型的火災探測算法DCGC(Dual Channel Group Convolution)-YOLO,該算法檢測精度高且魯棒性好.Yang等[2]設計了一個結合CNN和Transformer的網絡,該網絡可以對全局和局部信息進行建模,并實現精度和速度的平衡.Zhao等[3]提出了一種改進的Fire-YOLO深度學習算法,針對森林火災該算法有較好的性能表現.Sun等[4]提出了一種基于YOLOv7的微小火苗探測算法,有效提高了針對小火苗的檢測精度.Yun等[5]提出了一種輕量級森林火災探測模型,該算法結合知識蒸餾,有效降低誤檢率.Cao等[6]提出一種分段檢測算法YOLO-SF,將實例分割技術與YOLOv7-Tiny目標檢測算法相結合,提高了其準確性.Choutri等[7]基于無人機和YOLO模型提出新模型YOLO-NAS,將改進后的算法部署到自研無人機設備,有效檢測野外火災.

上述檢測方法頗有成效,但仍存在問題.首先,對小火苗的檢測效果不佳;其次,模型參數量大,不便于部署應用;最后,對火源進行測距及定位較困難.

針對目前火災檢測存在的問題,本研究提出了一種基于雙目視覺和改進YOLOV8n的輕量化火災檢測及測距方法.

YOLO系列是目前圖像檢測技術應用的主流模型,而YOLOv8是目前YOLO系列模型中集成度最高、檢測效果最好、泛用性最強的模型,共有YOLOv8-n、s、m、l、x五個版本,其中yolov8n是最輕量級的模型,擁有更快的檢測速度和更低的資源消耗,適用于資源受限的移動設備部署應用.故本研究選用YOLOv8n為改進的基準模型,檢測算法改進如下:

(1)火災發生初期煙火像素占比低,特征不明顯,增加一個檢測頭來提高模型對小目標的檢測能力.

(2)利用可變核卷積AKConv優化主干網絡中的普通卷積,有效降低模型參數量.

(3)在主干網絡中引入EMA注意力機制,提高模型的特征提取能力.

(4)引入MPDIOU改進損失函數,防止火源與光源重疊出現漏檢和誤檢.

(5)設計了C2f-SCConv模塊,并引入到頸部網絡中減少冗余特征處理,進一步降低模型參數.

1 檢測算法改進

1.1 可變核卷積

火災具有多尺度特性,在模型中引入可變核卷積更準確地提取目標特征.AKConv(Convolutional Kernel with Arbitrary Sampled Shapes and Arbitrary Number of Parameters)是2023年由Zhang等[8]開發的一種可變核的靈活卷積,它允許卷積核具有任意采樣形狀和參數量.

AKConv將特征堆疊到行或列上,利用對應行、列卷積提取不規則采樣形狀的特征,如圖1所示.

輸入圖像具有維度(C,H,W),其中C是通道數,H為圖像的高度,W為圖像的寬度,首先通過Conv2d對圖像進行操作,然后使用學習得到的偏移量來調整采樣形狀并進行重采樣.通過特征重塑將特征變為4個維度(C,N,H,W),然后使用步長和卷積大小為(N,1,1)的Conv3d來提取特征;或者將通道維度上的特征堆疊為三個維度(CN,H,W),然后用1×1卷積將維度降為(C,H,W),再用Conv2d進行特征提取.重采樣后的特征圖經過重塑、卷積、標準化,再通過激活函數SiLU輸出最終結果.

1.2 C2f-SCConv模塊

SCConv(Spatial and channel reconstruction convolution)是2023年由Li等[9]開發的一種用于特征重建的輕量化卷積,由空間重建單元(SRU)和通道重建單元(CRU)組成,其結構如圖2(a)所示.

式(4)~(8)中:X為給定的中間特征;μ為X的平均值;σ為X的標準差;ε為輔助除法穩定性的小正常數;γ,β為可訓練的仿射變換.

對空間細化特征XW執行CRU操作,其主要分割、轉換和融合三步操作消除通道維度上的冗余特征,其原理如圖2(c)所示.

利用1×1卷積壓縮特征圖的兩個通道,將XW分為Xup和Xlow.對Xup執行GWC和PWC運算,提取出高代表性信息Y1,整個過程可表示為式(9):

Y1=MGXup+MP1Xup

(9)

式(9)中:MG,MP1是GWC和PWC的可學習權重矩陣;Xup,Y1是上部輸入和輸出特征圖.

對Xlow執行PWC,生成含隱藏細節的特征作為Xup的補充,將生成特征和Xlow結合形成特征Y2,概括為式(10):

Y2=MP2Xlow∪Xlow

(10)

式(10)中:MP2是PWC的可學習權重矩陣;Xlow,Y2是下部輸入和輸出特征圖.

執行完分割和轉換操作后,再利用簡化的SKNet方法自適應地融合特征Y1和Y2,得到通道細化特征Y,自此完成對特征的重建.將SCConv模塊融合進C2f模塊,如圖3所示.

先將Bottleneck模塊中的普通卷積替換為SCConv,得到Bottleneck-SC模塊,再將改進后的Bottleneck-SC模塊引入C2f模塊中替換Bottleneck模塊,得到改進后的C2f-SCConv模塊.該模塊消除了模型對冗余特征的處理過程,提高了計算速度,減少了模型參數量.

1.3 損失函數改進

當前大多數損失函數梯度相似,導致梯度稀疏、減緩邊界框回歸的收斂速度和準確性;針對這一問題,Siliang等[10]在2023年提出了一種準確有效的損失函數MPDIOU.它是基于最小點距離的損失函數,可以直接最小化預測邊界框與真實邊界框之間的左上角與右下角的點距離,具體計算公式如式(11)~(13)所示:

d21=(xB1-xA1)2+(yB1-yA1)2

(11)

d22=(xB2-xA2)2+(yB2-yA2)2

(12)

MPDIoU=A∩BA∪B-d21w2+h2-d22w2+h2

(13)

式(11)~(13)中:A,B為任意的兩個凸形狀;W,h為輸入圖像的寬度和高低;(xA1,yA1),(xA2,yA2)為A的左上角和右下角坐標;(xB1,yB1),(xB2,yB2)為B的左上角和右下角坐標.

引入MPDIOU簡化了邊界框之間的相似性比較,幫助選擇最佳邊界框以實現準確定位.當火源與其他光源重疊時,使用MPDIOU可以有效解決檢測框失真問題,降低漏檢率和誤檢率.

1.4 EMA注意力機制

EMA(Efficient Multi-Scale Attention Module with Cross-Spatial Learning)是Ouyang等[11]在2023年提出的一種高效多尺度注意力模塊,其結構如圖4所示.

該模塊結合了多尺度注意力機制,能在不同空間尺度上有效捕捉特征.通過多通道加權最大限度的保留了每個通道的特征信息,使模型能更全面地理解和處理不同大小和復雜度的火災.

1.5 添加小目標檢測頭

改進后的檢測算法整體模型如圖5所示.

火災檢測更多的是火災預防,是針對火源的檢測,而火源檢測隸屬于多尺度小目標的檢測.當火災剛發生時,視覺傳感器能捕捉到的畫面是大場景下的小目標.火焰和煙霧表現出的特征在輸入圖像中占比很小、像素覆蓋率很低,YOLOv8n現有的三種檢測頭針對小目標的檢測效果不佳,會出現漏檢和誤檢.本研究通過調整網絡結構,添加一個檢測頭,重新定義了四個檢測頭的檢測模型.提高了模型對小目標的檢測能力,降低了模型的誤檢率和漏檢率.

2 測距功能實現

2.1 雙目相機標定及校正

視覺測距是利用攝像頭獲取圖像信息來估計物體距離的方法.常見的視覺測距方法包括:

單目視覺測距:通過單個攝像頭獲取的圖像,利用物體在圖像中的大小和視角信息推斷其距離.通常需要知道物體的實際尺寸或參考物體,如標定板.

雙目視覺測距:利用雙目立體視覺系統中左右兩個攝像頭的視差來計算物體的深度信息.需要進行攝像頭的精確標定.

本研究采用英特爾實感深度雙目相機完成對目標的測距任務,該相機能夠同時獲取同一場景的兩幅圖像,通過分析這些圖像之間的視差,可以計算出場景中不同物體的距離和深度信息.實物如圖6所示.

使用相機前首先標定相機系統的參數,包括內參和外參,通過拍攝棋盤格并借助MATLAB自帶工具箱對相機進行標定,來確定相機的內參矩陣、畸變參數、外參矩陣,過程如圖7所示.

本研究采用6行*9列棋盤格作為標定物,每個方格尺寸為270 mm*270 mm.通過標定得到雙目相機各項參數如表1所示.

相機鏡頭的畸變會使得圖像的幾何形狀發生變化,從而影響視差計算的準確性.通過使用標定得到的畸變參數,對圖像進行校正,修正這些畸變,使得圖像更加接近實際場景,從而提高后續計算的準確性.

2.2 雙測距算法實現

深度雙目相機測距的原理基于立體視覺技術,核心在于通過兩個相機從不同角度拍攝同一場景,利用這些圖像之間的視差和深度信息來計算場景中物體的實際距離.視差是指在左右相機拍攝的同一場景中,同一物體的圖像之間的像素偏移量,計算視差的過程稱為立體匹配.

立體匹配算法主要分為局部、半全局和全局立體匹配.Xu等[12]對局部匹配進行了全面的概述,就是在像素周圍進行小區域約束匹配,適用于有明顯特征的場景;Chen等[13]介紹了全局匹配的概念,對整幅圖像進行約束匹配,計算復雜度高.Hirschmuller等[14]闡述了半全局匹配算法SGBM(Semi-Global Block Matching),其結合了預處理、代價計算、動態規劃和后處理步驟,既優于局部匹配算法,又復雜度低于全局匹配算法.本研究選擇SGBM作為立體匹配算法,以滿足對精確度和效率的雙重需求,立體匹配結果如圖8所示.

3 實驗數據及環境配置

3.1 實驗數據獲取

所用數據部分來自Wu等[15]在2022年發表的論文中公開的火焰和煙霧的數據集;部分使用網絡爬蟲獲取.共計5 250張圖片,包括城市、森林、房屋等火災場景;為了提高模型性能,加入其他類似火源的圖片做干擾項,共計1 293張圖片,兩種數據圖片共計6 543張圖片.

使用MakeSense工具手動標注;本實驗共有三種標簽類別:fire、smoke、other.為保證數據集分布均勻,分別將兩類圖片按照80%、10%、10%的比例分為訓練集、驗證集和測試集,再進行混合完成實驗.在測試集中加入偶然拍得真實火災場景圖片共24張,驗證模型的泛化能力.

3.2 環境配置

在本研究中,模型的訓練和測試都在同一環境.設備的操作系統為Windows10,GPU的型號為NVIDIA GeForce GTX 1050 Ti,CPU的型號為Intel(R) Core(TM) i5-8300H CPU @2.30 GHz,內存為16 G;使用Python 3.9版本,pytorch版本為1.9.1,Cuda版本為11.1;Epoch設置為300輪,batch size設置為16,其余參數均為默認初始值.

4 實驗設計及結果分析

4.1 模型評估標準

本研究使用目標檢測常用的性能評價指標來對模型進行評價,包括精確度(Precision)、召回率(Recall)、平均精度均值(Mean average precision)、模型參數量(Parameter)、模型計算量(Floating point of operations)、每秒幀率FPS(Frames Per Second).

4.2 注意力機制對比

為了驗證本研究所提出模型中引入的EMA注意力機制的有效性,設計了幾組添加不同注意力機制的對比實驗.在模型的同一個位置添加引入四種不同注意力機制模塊,分別將添加了注意力機制的模型和原模型的訓練結果進行對比分析,表2顯示了引入不同注意力機制后模型的效果.

由表2可以看出,將四種注意力機制分別引入到YOLOv8n的模型中,對模型的性能都有一定程度的提升.其中對平均精度均值mAP提升較大的是CBAM模塊和EMA模塊,分別提升了1.7%和1.8%;但是EMA模塊引入的參數量更少,模型的計算復雜度更低,更有利用模型的輕量化.

4.3 損失函數對比

針對目標重疊導致的漏檢誤檢問題,本研究改進提出的模型中引入了MPDIOU損失函數,為了驗證它在本模型中的有效性,以YOLOv8n為基礎模型設計了幾組引入不同損失函數的對比實驗,結果如表3所示.

表3結果顯示,本實驗對比的其他損失函數在本模型中的表現都不及MPDIOU.分析原因可能是本研究使用的數據集中存在大量被檢測目標之間交錯重疊的現象,所以聚焦于邊框相似性比較的MPDIOU表現效果更好,精確度為79.3%,召回率為72.9%,mAP為79.8%,mAP50-90為%51.3%,各項指標都最高.

4.4 不同模型對比

為了驗證本研究改進提出的算法模型綜合性能的優越性,設計了幾種不同模型的預測結果對比實驗.由于本研究主要做模型輕量化改進,故選取參數量相當的YOLO系列模型作為實驗對象;此外,為了驗證本研究提出模型在火災監測領域的科學性和有效性,對比了三種現有文獻提出的火災檢測算法,實驗結果如表4所示.

從表4可以看出,在參數量相當的各種YOLO模型和現有的火災檢測算法中,本研究所改進提出的模型是綜合性能最優的.相較于YOLOv5s、YOLOv6n、YOLOv7-tiny、YOLOv8n、YOLOv9s和三種現有火災檢測算法,mAP均有一定程度的提升,分別提升了0.6%、3.8%、3.5%、4.8%、3%、14.7%、3.2%和1.9%.其中YOLOv8n的GFLOPs是最優的,模型復雜度最小,但mAP不及改進后的模型;而文獻\中提出的模型參數量和檢測時間是最優的,但精度不及本研究提出的模型.本研究改進模型的mAP值在所對比的9種模型算法中排第一位,檢測精度較高;浮點運算量GFLOPs排在第二位,計算復雜度較低,且模型的參數量較少;模型中借鑒特征重組的思想引入了C2f-SCConv模塊,剔除了信息較少的冗余特征處理,所以檢測時間短,FPS值也優于對比的其他算法模型.綜合來看,本研究改進的模型YOLOv8n-AEM提高了檢測精度,降低了模型的參數量,減少了計算時間成本,能有效滿足實時準確檢測.

4.5 消融實驗

為了進一步探究本研究中各模塊的改進對最終模型的影響,以YOLOv8n為基礎模型設計一組消融實驗進行對比分析.其中A表示添加小目標檢測頭,B表示改進AKConv卷積,C表示引入設計的C2f-SCConv模塊,D表示添加EMA注意力機制,E表示改進MPDIOU損失函數.為保證實驗結果的準確性,所有實驗均在同一環境下進行.實驗結果如表5所示.

由表5可以看出,增加小目標檢測頭,雖然模型的參數量增加了0.2 M,但mAP50提升了2.8%,表明火災檢測更多的是小目標檢測;改進AKConv卷積,模型的參數量降低了0.48 M并且mAP提升了1.1%,因為AKConv提供不規則卷積核,能更好的應對火災的多尺度特征提取,并且AKConv允許參數線性變化,所以提高mAP的同時,參數量也大幅度下降;在此基礎上使用融合了SCConv卷積的C2f-SCConv模塊,mAP值基本不變,但是參數量降低了0.21 M,分析原因可能是因為SCConv模塊本身是用于特征重建的輕量化卷積,本研究中實驗對象的特征較為分明,所以去除的冗余特征較少,mAP基本不變同時參數量下降;最后改進MPDIOU損失函數作為檢測框回歸函數,主要是針對火源與其他光源檢測框重疊導致的漏檢和誤檢,mAP提升了0.7%,說明改進是有效果的.

4.6 損失函數可視化

在火災檢測任務中,光源與火源重疊通常會導致漏檢甚至誤檢情況出現,為了有效解決這一問題,本研究基于最小點距離的思想引入MPDIOU改進了損失函數的回歸檢測框.以YOLOv8n為基礎模型,分析改進MPDIOU損失函數前后模型對相同場景的檢測結果,驗證了本研究改進的合理性與有效性.實驗所用的測試集數據是來自網上的視頻分幀截取和開源火災數據集,在所有檢測圖片中選擇兩張有代表性的圖片分析,結果對比如圖9所示.

圖9(a)、(b)中左側圖片是在夜晚城市路口發生的車輛起火,火勢較大,包含有火焰、煙霧和其他光源三種檢測目標.圖9(a)左側圖片是引入MPDIOU損失函數前的模型檢測效果,雖然能檢測到三種目標存在,但是由于火勢太大,火焰與路燈的光影出現交錯和部分重疊,錯誤的將路燈檢測為火焰;圖9(b)左側圖片是引入MPDIOU損失函數后的檢測效果,能準確的將光影與火源區分開,不僅準確的檢測到了三種目標,而且置信度更高,有效改善了目標重疊引起的誤檢情況.

圖9(a)、(b)中右側圖片是夜晚路邊的物體起火,火勢較小.圖9(a)右側圖片是改進前的檢測效果,準確檢測到火焰和其他干擾項,但是由于火勢不大,煙霧并未呈現黑褐色,與夜晚的背景類似,所以并未檢測到煙霧存在;圖9(b)右側圖片是改進后的檢測效果,在暖色背景下準確檢測出了三種目標的存在,并且置信度更高,有效改善了背景相似引起的漏檢情況.

通過損失函數改進的可視化實驗,驗證了本研究針對目標交錯重疊導致的漏檢和誤檢情況而引入的MPDIOU損失函數改進是有效的.

4.7 檢測算法可視化

為了更直觀的表現本研究改進提出的算法YOLOv8n-AEM的有效性,將相同測試集分別用不同算法進行預測,其中部分來自偶然拍得真實火災場景的視頻中分幀截取.選取三張具有代表性的預測結果圖進行對比分析,如圖10所示.

圖10(a)~(i)中左側圖片場景是在白天熙攘的街道上,遠處的房屋起火,火勢較小,有出現明煙,但火焰的像素占比低,目標小.在對比的9種算法中,只有本研究提出的YOLOv8n-AEM完成了所有目標的檢測,如圖10(a)左側圖片所示.其他8種算法都只檢測到了煙霧或是類似火焰的干擾項,分析原因應該是圖中的火焰目標較小,屬于小目標檢測的范疇,而本研究針對小火苗檢測任務在模型中增加了小目標檢測頭,所以能準確的完成對小火苗的檢測任務;

圖10(a)~(i)中中間圖片場景是在夜晚的道路上,遠處的樓房起火,圖片中存在許多光源干擾項,肉眼看不出有明煙出現,在對比的算法中,只有本研究的算法、YOLOv9s、YOLOv5s和文獻\中提出的算法完成了對遠處火焰目標的準確檢測,分別如圖10(a)、(c)、(d)、(i)的中間圖片所示.但本研究算法檢測到其他光源干擾項更多,模型性能更好且置信度更高.

圖10中(a)~(i)中右側圖片是偶然拍到的真實火災場景.圖片是在上午拍攝的,火災發生的場景是一般住房區的集中快遞站,火勢較小,但已經出現明火和煙霧,現場存在類似火焰顏色的紅色橫幅和黃色交通指示牌.檢測結果顯示,由于圖片中的各種被檢測目標特征較為明顯,對比的所有算法模型都完成了全部目標的檢測,但本研究提出的算法檢測到煙霧區域更多、更細致,并且置信度更高.

通過設計9種檢測算法對比實驗及可視化分析,驗證了本研究提出算法YOLOv8n-AEM的科學性和有效性;不僅提高了檢測精度,提高了對小目標的檢測能力,并且檢測結果的置信度更高,還能有效避免漏檢和誤檢.

4.8 測距結果可視化

由于火災數據的特殊性,實驗通過人為制造檢測目標進行結果可視化分析,如圖11所示.

圖11(a)中三張圖片是在試驗場地實際拍攝,被燃物是蘸酒精的衛生紙,不同角度不同距離拍攝了三張圖片.左側圖片為俯視,檢測距離顯示1.26 m,實測大約在1.28 m左右;中間圖片是側視,檢測距離顯示2.16 m,實測大約2.20 m左右;右側圖片也是側視,檢測距離為2.24 m,實測大約在2.22 m左右.

圖11(b)是將帶有三種被檢測目標圖片放置在顯示器上,通過拍攝顯示器進行實驗.結果顯示三種目標都被檢測到,能準確完成對目標的檢測任務;算法測量得到的距離為1.18 m,實測距離大約在1.21 m左右,能實現對目標的精確測距.

實驗結果表明,本研究提出的火災檢測及測距方法能完成對火災的準確檢測;測距精度誤差不超過2.5%,在可接受誤差范圍內也能完成測距.

5 結論

本研究基于雙目視覺和改進YOLOv8n提出了一種輕量化火災檢測及測距方法.主要工作如下:

(1)基于YOLOv8n改進了火災檢測算法.在主干網絡中引入可變核卷積并結合EMA注意力機制,提高模型的特征提取能力,更好的應對火災的多尺度特性;將SCConv模塊融合到頸部網絡中的C2f模塊,通過特征重組保留有效信息的同時減少了模型參數量;基于最小點距離思想對損失函數進行改進,降低算法對重疊目標的誤檢率.

通過實驗驗證,改進算法的P、R、mAP分別為83.6%、76.4%、83.6%,比原模型提高了2.5%、3.6%、4.8%;參數量和模型大小分別為2.54 M和5.1 MB,比原模型降低了15.3%和15%.

(2)將改進后的檢測算法YOLOv8n-AEM和現有的測距算法SGBM結合深度雙目相機設計實驗應用.

通過實驗驗證,本研究提出的方法在誤差可接受范圍內能完成對火災的準確檢測及測距.

參考文獻

[1] He Y,Hu J,Zeng M,et al.DCGC-YOLO:The efficient dual-channel bottleneck structure YOLO detection algorithm for fire detection[J].IEEE Access,2024,12:65 254-65 265.

[2] Yang C,Pan Y,Cao Y,et al.CNN-transformer hybrid architecture for early fire detection[C]//International Conference on Artificial Neural Networks.Cham:Springer Nature Switzerland,2022:570-581.

[3] Zhao L,Zhi L,Zhao C,et al.Fire-YOLO:A small target object detection method for fire inspection[J].Sustainability,2022,14(9):4 930.

[4] Sun B,Bi K,Wang Q.YOLOv7-FIRE:A tiny-fire identification and detection method applied on UAV[J].Aims Mathematics,2024,9(5):10 775-10 801.

[5] Yun B,Zheng Y,Lin Z,et al.FFYOLO:A lightweight forest fire detection model based on YOLOv8[J].Fire,2024,7(3):93.

[6] Cao X,Su Y,Geng X,et al.YOLO-SF:YOLO for fire segmentation detection[J].IEEE Access,2023,11:111 079-111 092.

[7] Choutri K,Lagha M,Meshoul S,et al.Fire detection and geo-localization using UAV′s aerial images and yolo-based models[J].Applied Sciences,2023,13(20):11 548.

[8] Zhang X,Song Y,Song T,et al.AKConv:Convolutional kernel with arbitrary sampled shapes and arbitrary number of parameters[J].Arxiv Preprint Arxiv,2023,23(11):11 587.

[9] Li J,Wen Y,He L.Scconv:spatial and channel reconstruction convolution for feature redundancy[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.Vancouver,BC,Canada:IEEE,2023:6 153-6 162.

[10] Siliang M,Yong X.MPDIOU:A loss for efficient and accurate bounding box regression[J].Arxiv Preprint Arxiv,2023,23(7):7 662.

[11] Ouyang D,He S,Zhang G,et al.Efficient multi-scale attention module with cross-spatial learning[C]//ICASSP 2023-2023 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP).Rhodes Island,Greece:IEEE,2023:1-5.

[12] Xu S,Chen S,Xu R,et al.Local feature matching using deep learning:A survey[J].Information Fusion,2024,107:102 344.

[13] Chen Q,Yao J,Long J.Similar image matching via global topology consensus[J].The Visual Computer,2024,40(2):937-952.

[14] Hirschmuller H.Accurate and efficient stereo processing by semi-global matching and mutual information[C]//2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR′05).San Diego,CA,USA:IEEE,2005:807-814.

[15] Wu S,Zhang X,Liu R,et al.A dataset for fire and smoke object detection[J].Multimedia Tools and Applications,2023,82(5):6 707-6 726.

【責任編輯:陳 佳】

主站蜘蛛池模板: 亚洲欧美精品日韩欧美| 毛片网站观看| 亚洲AⅤ永久无码精品毛片| 精品国产污污免费网站| 手机在线看片不卡中文字幕| 国产精彩视频在线观看| 国产美女在线观看| 欧美精品v| 五月婷婷亚洲综合| 日韩欧美成人高清在线观看| 58av国产精品| 91精品免费久久久| 99精品视频九九精品| 国产成人免费| 国产欧美高清| 青青久视频| www.精品国产| AV天堂资源福利在线观看| 欧美精品H在线播放| 成年av福利永久免费观看| 动漫精品中文字幕无码| 免费又爽又刺激高潮网址| 色婷婷亚洲综合五月| 无码一区中文字幕| 国产最新无码专区在线| 一级黄色片网| 狠狠色丁香婷婷| 亚洲国产精品日韩专区AV| 亚洲欧美在线精品一区二区| 国产无码精品在线| 青青国产视频| 亚洲国产精品一区二区第一页免 | 国产亚洲欧美在线视频| 亚洲高清日韩heyzo| www亚洲天堂| 欧美另类精品一区二区三区| 免费人成视网站在线不卡| 中文字幕不卡免费高清视频| 又爽又黄又无遮挡网站| 美女内射视频WWW网站午夜| 亚洲美女久久| 999国产精品永久免费视频精品久久| 永久在线精品免费视频观看| 国产AV无码专区亚洲A∨毛片| 亚洲无码高清免费视频亚洲| 日韩精品中文字幕一区三区| 欧美一级专区免费大片| 国产一区二区三区在线观看免费| 国产成人精品亚洲日本对白优播| 福利一区在线| 国产一二三区在线| 亚洲日韩欧美在线观看| 国产H片无码不卡在线视频 | 99在线观看精品视频| 亚洲综合天堂网| 精品三级网站| 国产男女免费完整版视频| 中文字幕天无码久久精品视频免费 | 内射人妻无码色AV天堂| 五月婷婷综合色| 久996视频精品免费观看| 久久中文字幕av不卡一区二区| 婷婷综合缴情亚洲五月伊| 欧美成人精品在线| 黄色一及毛片| 26uuu国产精品视频| 亚洲A∨无码精品午夜在线观看| 久久午夜夜伦鲁鲁片不卡| 亚洲无限乱码一二三四区| 欧美啪啪视频免码| 亚洲欧美自拍中文| 国产视频a| 中文字幕在线观看日本| 中文字幕波多野不卡一区| 风韵丰满熟妇啪啪区老熟熟女| 片在线无码观看| 五月天综合网亚洲综合天堂网| a级毛片一区二区免费视频| 欧美日韩第二页| 亚洲男女在线| 中文字幕欧美日韩| 国产精品一区在线麻豆|