999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv7的顯著性目標(biāo)檢測(cè)

2025-03-04 00:00:00劉偉楊蕾徐爭(zhēng)超龔大偉
物聯(lián)網(wǎng)技術(shù) 2025年5期
關(guān)鍵詞:深度學(xué)習(xí)

摘 要:隨著信息顯示技術(shù)的持續(xù)發(fā)展,信息顯示的安全性問(wèn)題愈發(fā)突出。信息加密顯示技術(shù)的實(shí)現(xiàn)依賴(lài)于目標(biāo)檢測(cè)技術(shù),需要根據(jù)不同信息的特點(diǎn)來(lái)選用相應(yīng)的加密算法。為此,提出一種基于YOLOv7的顯著性目標(biāo)檢測(cè)算法,該算法可以通過(guò)自建數(shù)據(jù)集標(biāo)定顯著性區(qū)域,對(duì)模型進(jìn)行訓(xùn)練,并將得到的顯著性區(qū)域用于自適應(yīng)加密顯示算法,以實(shí)現(xiàn)可分級(jí)的加密顯示。實(shí)驗(yàn)結(jié)果表明,該模型性能優(yōu)越,有著較高的檢測(cè)準(zhǔn)確率,能夠?yàn)楹罄m(xù)針對(duì)敏感信息區(qū)域進(jìn)行加密提供有力的支撐。

關(guān)鍵詞:YOLOv7;目標(biāo)檢測(cè);深度學(xué)習(xí);信息安全;CBAM;加密顯示

中圖分類(lèi)號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2025)05-00-03

0 引 言

當(dāng)前,隱私保護(hù)議題受到社會(huì)各界的廣泛關(guān)注,信息顯示安全也成為人們討論的熱點(diǎn)。主流的加密顯示技術(shù)通過(guò)生成與原圖相關(guān)性很高的干擾幀,將其與原圖疊加并進(jìn)行前后幀間隔顯示,再通過(guò)主動(dòng)式快門(mén)眼鏡在人眼接收端濾去干擾幀,從而達(dá)到加密顯示的目的[1]。干擾幀的生成需借助目標(biāo)檢測(cè)算法檢測(cè)出顯著性區(qū)域,并根據(jù)區(qū)域內(nèi)容特點(diǎn),選擇合適的自適應(yīng)加密算法對(duì)區(qū)域進(jìn)行加密。顯著性區(qū)域主要包括人臉和字符。本文提出一種基于YOLOv7的顯著性區(qū)域檢測(cè)算法,通過(guò)自建數(shù)據(jù)集訓(xùn)練模型權(quán)重。當(dāng)該算法與加密顯示技術(shù)相結(jié)合時(shí),能夠廣泛應(yīng)用于會(huì)議室、作戰(zhàn)室等場(chǎng)景,對(duì)多種類(lèi)型的敏感信息進(jìn)行加密處理,使得擁有不同權(quán)限的人僅能看到與其權(quán)限相匹配的保密信息。

1 研究現(xiàn)狀

本文提出了一種基于YOLOv7的顯著性目標(biāo)檢測(cè)算法,該算法通過(guò)對(duì)圖像各個(gè)位置進(jìn)行采樣分析,檢測(cè)是否存在特定對(duì)象,并根據(jù)測(cè)試結(jié)果動(dòng)態(tài)調(diào)整區(qū)域邊界,從而更準(zhǔn)確地預(yù)測(cè)對(duì)象的真實(shí)邊界框。當(dāng)前,目標(biāo)檢測(cè)技術(shù)主要分為附著錨點(diǎn)和非附著錨點(diǎn)兩類(lèi)。無(wú)錨點(diǎn)算法能夠借助密集預(yù)測(cè)直接推測(cè)目標(biāo)位置與尺度,但該方法往往會(huì)產(chǎn)生大量候選框,其中大部分為無(wú)目標(biāo)的背景框,從而增加了計(jì)算負(fù)擔(dān)及誤檢風(fēng)險(xiǎn)。此外,對(duì)于體積小、不易察覺(jué)的目標(biāo),當(dāng)感受野過(guò)大時(shí),無(wú)法對(duì)目標(biāo)進(jìn)行準(zhǔn)確提取,導(dǎo)致檢測(cè)精度下降。針對(duì)上述問(wèn)題,本文選擇基于錨點(diǎn)的算法,其中一階段檢測(cè)算法將圖像分成若干網(wǎng)格,再利用聚類(lèi)算法找出每個(gè)網(wǎng)格內(nèi)的錨點(diǎn);二階段檢測(cè)算法,如Mask R-CNN[2]、Faster R-CNN[3]、Cascade R-CNN[4]等則使用區(qū)域建議網(wǎng)絡(luò)(RPN)篩選錨點(diǎn)。常見(jiàn)的一階段檢測(cè)算法包括YOLOv4[5]、YOLOv5[6]、SSD等。自2016年推出以來(lái),YOLO已被廣泛應(yīng)用于基于深度神經(jīng)網(wǎng)絡(luò)的實(shí)時(shí)目標(biāo)識(shí)別和定位系統(tǒng),并且隨著不斷迭代和改進(jìn),YOLO在平衡速度和精度方面不斷精進(jìn),成為目標(biāo)檢測(cè)的主流技術(shù)。YOLOv5作為YOLO系列的一個(gè)經(jīng)典版本,性能表現(xiàn)優(yōu)越。而YOLOv7在YOLOv5的基礎(chǔ)上將模型重新參數(shù)化引入到網(wǎng)絡(luò)架構(gòu)中,并提出了一種新的高效網(wǎng)絡(luò)結(jié)構(gòu)ELAN,以及一種包括輔助頭部的訓(xùn)練方法。該方法使得YOLOv7得以在高達(dá)5~160幀/s的畫(huà)面刷新率下保持優(yōu)異的性能[7-9]。故本文選用YOLOv7作為本次研究的基準(zhǔn)網(wǎng)絡(luò)。

2 目標(biāo)檢測(cè)網(wǎng)絡(luò)

YOLOv7創(chuàng)新地引入了高效的ELAN網(wǎng)絡(luò)架構(gòu),以控制最長(zhǎng)與最短的梯度路徑,優(yōu)化網(wǎng)絡(luò)特性學(xué)習(xí)并增強(qiáng)其抗干擾能力。圖1所示為ELAN網(wǎng)絡(luò)架構(gòu),該網(wǎng)絡(luò)由兩部分組成,第一部分采用1×1卷積對(duì)通道數(shù)進(jìn)行調(diào)整;第二部分運(yùn)用1×1卷積模塊與3×3卷積模塊對(duì)特征進(jìn)行深度抽取。最后將兩個(gè)部分的特征融合,形成最終的特征提取結(jié)果。

3 CBAM-YOLOv7改進(jìn)算法

CBAM即卷積塊注意力模塊,是一種輕量級(jí)的注意力機(jī)制,它融合了通道注意力和空間注意力兩個(gè)關(guān)鍵組件。圖2所示為CBAM模型結(jié)構(gòu),輸入特征F∈RC×H×W,進(jìn)行通道注意力模塊一維卷積,則MC∈RC×1×1;將卷積結(jié)果和原圖點(diǎn)乘,進(jìn)行空間注意力模塊二維卷積,則MS∈R1×H×W,再將輸出結(jié)果與原圖點(diǎn)乘[10]。

通道注意力模塊的核心任務(wù)在于增強(qiáng)各通道的特征表達(dá)能力。空間注意力模塊的主要目的是凸顯圖像中不同位置的重要性。CBAM模塊通過(guò)自適應(yīng)地學(xué)習(xí)通道和空間注意力權(quán)重,顯著提升了卷積神經(jīng)網(wǎng)絡(luò)的特征表達(dá)能力。通過(guò)將通道注意力和空間注意力相結(jié)合,CBAM模塊能夠同時(shí)捕捉不同維度上特征之間的相關(guān)性,進(jìn)而優(yōu)化圖像識(shí)別的性能。

4 實(shí)驗(yàn)與結(jié)果分析

4.1 自制數(shù)據(jù)集

圖像中的信息分為動(dòng)態(tài)信息和靜態(tài)信息,動(dòng)態(tài)信息包括移動(dòng)的人或物體,常出現(xiàn)在畫(huà)面中部,表示情景、過(guò)程等信息;靜態(tài)信息包括相對(duì)靜止的說(shuō)明性字符、符號(hào)、圖表等,常出現(xiàn)在畫(huà)面底部、側(cè)邊,表示狀態(tài)名稱(chēng)、型號(hào)類(lèi)別等信息。針對(duì)動(dòng)態(tài)信息,需要對(duì)其運(yùn)動(dòng)變化趨勢(shì)進(jìn)行跟蹤與標(biāo)記,及時(shí)捕捉其位置,確保加密的全面性;針對(duì)靜態(tài)信息,其在畫(huà)面中的位置相對(duì)靜止,重點(diǎn)在于捕捉圖像內(nèi)部的光學(xué)特征,包括亮度、對(duì)比度、飽和度、邊緣信息豐富程度等,結(jié)合人眼的觀(guān)看習(xí)慣,針對(duì)性地進(jìn)行加密。

人臉和字符檢測(cè)作為計(jì)算機(jī)視覺(jué)領(lǐng)域的常見(jiàn)算法,已被廣泛應(yīng)用于多個(gè)場(chǎng)景。因此,為了獲得準(zhǔn)確詳細(xì)的結(jié)果,構(gòu)建一個(gè)場(chǎng)景豐富、規(guī)模龐大、注釋更詳細(xì)準(zhǔn)確的數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試顯得尤為重要。網(wǎng)上已有的數(shù)據(jù)集往往只針對(duì)某一動(dòng)態(tài)信息進(jìn)行歸納收集,比如固定攝像頭拍攝的車(chē)輛車(chē)牌檢測(cè)數(shù)據(jù)集只包括動(dòng)態(tài)的車(chē)輛車(chē)牌,而缺乏對(duì)路邊的固定指示牌等靜態(tài)信息的標(biāo)記。為了滿(mǎn)足靜態(tài)信息和動(dòng)態(tài)信息并存的要求,通過(guò)官網(wǎng)下載新聞聯(lián)播錄像,并借助MATLAB R2017a工具對(duì)錄像按照固定的時(shí)間間隔提取視頻幀。通過(guò)手動(dòng)篩選,刪除重復(fù)的演播室圖像,得到2 000張分辨率為1 280×720的圖像。隨后,使用labelimg工具進(jìn)行手動(dòng)標(biāo)注,標(biāo)注內(nèi)容包括人臉和字符兩種標(biāo)簽,采用YOLO格式標(biāo)簽并保存為txt文件,用于訓(xùn)練YOLOv7目標(biāo)檢測(cè)網(wǎng)絡(luò)。將訓(xùn)練集、驗(yàn)證集和測(cè)試集按8∶1∶1的比例進(jìn)行分配,劃分為1 600張訓(xùn)練集、200張驗(yàn)證集和200張測(cè)試集,進(jìn)行300輪訓(xùn)練。選用CBAM-YOLOv7、YOLOv7-d6和YOLOv7-tiny三種網(wǎng)絡(luò)進(jìn)行訓(xùn)練。

4.2 實(shí)驗(yàn)環(huán)境

本實(shí)驗(yàn)使用的服務(wù)器為七彩虹BATTLE-AX B560M-FPRO臺(tái)式電腦,搭載Intel i5-10400F@2.90 GHz六核處理器,配備2塊16 GB威剛DDR4 3 200 MHz內(nèi)存條,具體實(shí)驗(yàn)環(huán)境配置見(jiàn)表1。

4.3 評(píng)價(jià)指標(biāo)

通過(guò)查準(zhǔn)率(Precision Rate)、查全率(Recall Rate)和mAP(mean Average Precision)等指標(biāo)來(lái)衡量目標(biāo)檢測(cè)網(wǎng)絡(luò)的性能。其中,mAP指標(biāo)是對(duì)每種類(lèi)別分別求出精確度,然后進(jìn)行平均處理;而針對(duì)特定IoU區(qū)間的mAP,例如mAP@.5:.95,則代表了在0.5至0.95的間隔中按照步長(zhǎng)0.05逐步選擇IoU數(shù)值進(jìn)行評(píng)估后得到的所有mAP值的平均結(jié)果。查準(zhǔn)率、查全率的計(jì)算公式如下:

5 結(jié) 語(yǔ)

本文提出了一種基于YOLOv7的目標(biāo)檢測(cè)網(wǎng)絡(luò),自建新聞聯(lián)播數(shù)據(jù)集并進(jìn)行訓(xùn)練,針對(duì)人臉和字符進(jìn)行檢測(cè)。實(shí)驗(yàn)結(jié)果表明,該網(wǎng)絡(luò)在檢測(cè)查準(zhǔn)率和查全率方面均表現(xiàn)出色,特別在CBAM-YOLOv7模型上,查準(zhǔn)率高達(dá)99.1%。這一成果為后續(xù)針對(duì)敏感信息區(qū)域進(jìn)行加密處理奠定了堅(jiān)實(shí)的基礎(chǔ)。今后將增加更多的檢測(cè)標(biāo)簽,不局限于人臉和字符,還將納入槍械、坦克等武器裝備,進(jìn)一步增強(qiáng)敏感區(qū)域的檢測(cè)能力。

參考文獻(xiàn)

[1]王鵬,王鹍. 一種用于信息安全防護(hù)的同步式屏幕顯示: CN202011003136. X [P]. 2021-01-01.

[2] HE K M, GKIOXARI G, DOLLAR P, et al. Mask R-CNN [J]. IEEE transactions on pattern analysis and machine intelligence, 2020, 42(2): 386-397.

[3] DING X T, LI Q D, CHENG Y Q, et al. Local keypoint-based faster R-CNN [J]. Applied intellgence, 2020, 50: 3007-3022.

[4] CHENG M, FAN C, CHEN L, et al. Partial atrous cascade R-CNN [J]. Electronics, 2022, 11(8): 1241.

[5] ZENG L, DUAN X, PAN Y, et al. Research on the algorithm of helmet-wearing detection based on the optimized YOLOv4 [J]. The visual computer, 2023, 39: 2165-2175 .

[6] ZHANG R, ZHENG K, SHI P, et al. Traffic sign detection based on the improved YOLOv5 [J]. Applied sciences, 2023, 13(17): 9748.

[7]劉虎成.基于YOLOv7的交通標(biāo)志目標(biāo)檢測(cè)方法研究[D].西安:西安電子科技大學(xué),2023.

[8]韓朔.基于YOLOv7的缺陷雞蛋在線(xiàn)檢測(cè)系統(tǒng)的研究[D].銀川:寧夏大學(xué),2023.

[9]馬銘駿.基于YOLOv7的市區(qū)道路擁堵檢測(cè)研究[D].蘭州:蘭州交通大學(xué),2023.

[10] YANG K, ZHANG Y, ZHANG X, et al. YOLOX with CBAM for insulator detection in transmission lines [J]. Multimedia tools and applications, 2023, 83: 43419-43437.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類(lèi)器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 午夜高清国产拍精品| 亚洲丝袜中文字幕| 国产a在视频线精品视频下载| 综合网久久| 国产成人一二三| 亚洲区欧美区| 国产亚洲欧美日韩在线一区二区三区| 欧美精品v欧洲精品| 中文字幕啪啪| 午夜视频www| 国产无码精品在线播放| 在线观看无码av免费不卡网站| 老司国产精品视频| 免费不卡视频| 久久久久国产精品免费免费不卡| 在线精品自拍| 国产精品真实对白精彩久久| 婷婷成人综合| 日韩在线1| 国产女人在线视频| 中文成人在线视频| 91青青草视频在线观看的| 综合亚洲网| 国产欧美日韩免费| 久久精品国产91久久综合麻豆自制| 国产欧美精品一区二区| 久草视频一区| 婷婷丁香色| 国产高清无码麻豆精品| 99在线视频精品| 免费aa毛片| 极品尤物av美乳在线观看| 亚洲一区二区约美女探花| 天天摸夜夜操| 欧美日韩激情在线| a级毛片免费播放| 日本草草视频在线观看| 青青久久91| 中文字幕波多野不卡一区| 又污又黄又无遮挡网站| 毛片视频网| 91精品国产91久久久久久三级| 91小视频在线观看免费版高清| 欧美激情福利| 久久久久无码精品| 中文字幕有乳无码| www亚洲精品| 国产打屁股免费区网站| 老司机精品一区在线视频| 国产哺乳奶水91在线播放| 亚洲精品免费网站| 久久精品国产精品青草app| 小13箩利洗澡无码视频免费网站| 黄色网页在线观看| 狼友av永久网站免费观看| 国产欧美视频在线| 久久国产亚洲偷自| 欧美精品亚洲二区| 国产在线观看第二页| 成人伊人色一区二区三区| 日韩视频福利| www精品久久| 亚洲无码一区在线观看| 亚洲国产成人麻豆精品| 97在线免费视频| 久久黄色影院| av在线手机播放| 激情视频综合网| 日本精品αv中文字幕| 国产欧美日韩专区发布| 亚洲综合九九| 亚洲视频免费播放| 国产成人精品亚洲日本对白优播| 欧美国产精品拍自| 国产精品亚洲专区一区| 亚洲一区二区无码视频| 日本三级黄在线观看| 国产一区二区三区免费| 日韩人妻精品一区| 久久国产热| 欧美不卡二区| 99久久国产精品无码|