中圖分類(lèi)號(hào):U462.3 收稿日期:2025-05-12
DOI:10.19999/j.cnki.1004-0226.2025.08.004
Research on Low-computational-power Vehicle Data Desensitization Technology Based on Mobilenetv1-YOLOv4
Zhu ZhanglinglLiu Peng2Wang Yixuan2 Wang Houzheng1Liu Yixuan2He Ting1 1.Anhui Pusi Standard Technology Co.,Ltd.,Wuhu 241ooo,China 2.CATARC Automotive Test Center(Wuhan)Co.,Ltd.,Wuhan 430056,China
Abstract:Withtherapiddevelopmentofintellgentandconnectedvehicles,anincreasingnumberofvehiclesareequippedwith advanceddriverassistancesystems thatrelyonextealsensorssuchascamerasandlidarforroadenvironmentperceptionanddriving decision-making.isprocssivolvesalageamountofextealinteractieifoationtransmsioaingeicledatauityissuesincreasinglyprominent.Toensuredriingsafety,extealpersonalinformationthatcanotbecollectedwithpersonalcosetand transmitedovertheetworkuchasicenseplatesandacsustbeonyiedncludingdeletingimagesthacontainiiable naturalpersosoaplingpartialcontouringproesingtoacialifomationineimags.Tddresstisisue,tispaperrosesa low-computational-powervehicledata desensitization methodbasedonMobilenetv1-YOLOv4.This methodcombinessuper-resolution enhancementreconstructiontechnologyforimageenhancement,enablingdesensitizationofboth externalfacesandvehiclelicense platesatlowomputatioalcosts.Iomplexenvionments,teodelcanstllmaitainhighdetectionacuracyandeal-tiepefor mance.Theimplementationof tisresearchnotonlycomplieswiththerequirementsofthe“SeveralProvisionsontheManagementof AutomotiveDataSecurity”andthenatioalstandardGB/T4464-2024“GeneralRequirementsforAutomotiveData”,butalsohasimportant practical significance for protecting personal privacy and enhancing the security of automotive data.
Key words:Object detection; YOLOv4;Image enhancement;Anonymization processing
1前言
隨著智能網(wǎng)聯(lián)汽車(chē)的飛速發(fā)展和高階自動(dòng)駕駛技術(shù)的廣泛應(yīng)用,車(chē)輛已不再僅是一個(gè)交通工具,更是一個(gè)移動(dòng)的數(shù)據(jù)中心,涉及大量的數(shù)據(jù)采集與傳輸。這一過(guò)程中,數(shù)據(jù)安全問(wèn)題日益凸顯,尤其是對(duì)車(chē)外個(gè)人信息的保護(hù),如車(chē)牌和人臉信息,已成為關(guān)注焦點(diǎn)。為應(yīng)對(duì)這一挑戰(zhàn),《汽車(chē)數(shù)據(jù)安全管理若干規(guī)定》和國(guó)家標(biāo)準(zhǔn)GB/T44464—2024《汽車(chē)數(shù)據(jù)通用要求》明確指出,對(duì)于無(wú)法征得個(gè)人同意收集并通過(guò)網(wǎng)絡(luò)傳輸?shù)能?chē)外個(gè)人信息,必須進(jìn)行匿名化處理。這包括刪除含有能夠識(shí)別自然人的畫(huà)面,或?qū)Ξ?huà)面中的人臉信息等進(jìn)行局部輪廓化處理。此舉旨在確保行車(chē)安全的同時(shí),保護(hù)個(gè)人隱私不受侵犯。然而,如何在車(chē)端低算力成本下兼顧目標(biāo)檢測(cè)精度與實(shí)時(shí)性要求,部署高效的脫敏檢測(cè)算法,成為了一個(gè)重要的研究任務(wù)。這不僅需要算法本身的優(yōu)化和創(chuàng)新,還需要在硬件限制和實(shí)時(shí)性要求之間找到平衡點(diǎn)。
隨著人工智能技術(shù)的飛速演進(jìn),基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法已徹底重塑計(jì)算機(jī)視覺(jué)領(lǐng)域的技術(shù)格局,成為目標(biāo)檢測(cè)任務(wù)的絕對(duì)主流方向。相較于傳統(tǒng)依賴(lài)人工設(shè)計(jì)特征(如HOG、SIFT等)的檢測(cè)方法,深度學(xué)習(xí)算法通過(guò)構(gòu)建多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),能夠從原始圖像數(shù)據(jù)中自動(dòng)學(xué)習(xí)層次化的特征表示,從低級(jí)的邊緣、紋理信息到高級(jí)的語(yǔ)義特征,實(shí)現(xiàn)對(duì)復(fù)雜場(chǎng)景下目標(biāo)的精準(zhǔn)捕捉與定位。
針對(duì)智能網(wǎng)聯(lián)汽車(chē)車(chē)端數(shù)據(jù)脫敏的核心需求,本研究提出一種基于深度學(xué)習(xí)目標(biāo)檢測(cè)的車(chē)外人臉與汽車(chē)號(hào)牌信息匿名化處理方法。該方法以YOLOv4模型[1]為基礎(chǔ)框架,創(chuàng)新性地將其原始主干網(wǎng)絡(luò)替換為輕量級(jí)MobileNetv12網(wǎng)絡(luò),通過(guò)深度可分離卷積顯著降低模型參數(shù)量與運(yùn)算成本,實(shí)現(xiàn)車(chē)端低算力環(huán)境下的高效部署;同時(shí),為解決復(fù)雜交通場(chǎng)景中小目標(biāo)(如遠(yuǎn)距離人臉、模糊車(chē)牌)檢測(cè)精度不足的問(wèn)題,引入超分辨率增強(qiáng)重建技術(shù)對(duì)原始圖像進(jìn)行預(yù)處理,提升小目標(biāo)區(qū)域的細(xì)節(jié)特征清晰度,進(jìn)而增強(qiáng)模型對(duì)車(chē)外人臉與汽車(chē)號(hào)牌的精準(zhǔn)定位能力,最終通過(guò)對(duì)檢測(cè)到的敏感區(qū)域進(jìn)行實(shí)時(shí)匿名化處理,確保在滿(mǎn)足法規(guī)要求的前提下,兼顧目標(biāo)檢測(cè)的精度與實(shí)時(shí)性,為智能網(wǎng)聯(lián)汽車(chē)的車(chē)外數(shù)據(jù)安全防護(hù)提供技術(shù)支撐。
2國(guó)內(nèi)外研究進(jìn)展
2.1目標(biāo)檢測(cè)綜述
在計(jì)算機(jī)視覺(jué)領(lǐng)域,確定圖像中所含目標(biāo)的類(lèi)別及其位置的問(wèn)題被稱(chēng)為目標(biāo)檢測(cè)。與圖像分類(lèi)不同,目標(biāo)檢測(cè)任務(wù)需要對(duì)每個(gè)目標(biāo)實(shí)例進(jìn)行識(shí)別。因此,目標(biāo)檢測(cè)本質(zhì)上是一種基于實(shí)例的視覺(jué)任務(wù)。在深度學(xué)習(xí)廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域之前,目標(biāo)檢測(cè)主要依靠手工設(shè)計(jì)的機(jī)器學(xué)習(xí)特征來(lái)實(shí)現(xiàn)[3]。
當(dāng)前目標(biāo)檢測(cè)領(lǐng)域的方法主要分為兩大類(lèi):基于區(qū)域提議的方法和基于分類(lèi)的方法。其中,基于區(qū)域提議的方法以R-CNN、FasterR-CNN[4]等為代表;基于分類(lèi)的方法則涵蓋YouOnlyLookOnce(YOLO)、Single ShotDetector(SSD)[5]等算法。
2.2卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用綜述
卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)[6]是一類(lèi)深度神經(jīng)網(wǎng)絡(luò)模型,專(zhuān)門(mén)用于處理具有網(wǎng)格結(jié)構(gòu)的數(shù)據(jù)(如圖像、視頻、音頻等)。其核心特征在于通過(guò)卷積操作提取數(shù)據(jù)的局部特征一一借助滑動(dòng)窗口(卷積核)對(duì)輸人數(shù)據(jù)進(jìn)行局部感知,能夠高效捕捉數(shù)據(jù)中的空間相關(guān)性。同時(shí),CNN通常包含池化層(用于降維并保留關(guān)鍵特征)激活函數(shù)(引入非線性特性)及全連接層(用于完成最終的分類(lèi)或回歸任務(wù))等結(jié)構(gòu)。憑借在圖像數(shù)據(jù)處理方面的卓越性能,CNN已成為計(jì)算機(jī)視覺(jué)領(lǐng)域的基礎(chǔ)性技術(shù),廣泛應(yīng)用于圖像分類(lèi)、目標(biāo)檢測(cè)、圖像分割、人臉識(shí)別等諸多任務(wù)中。
Rosenblat等[7]提出了單層感知器模型,該模型在MP模型的基礎(chǔ)上增加了學(xué)習(xí)能力,但單層感知器網(wǎng)絡(luò)無(wú)法處理線性不可分問(wèn)題;Zhang等[8]提出了首個(gè)二維CNN——移位不變?nèi)斯ど窠?jīng)網(wǎng)絡(luò)(shift-invariantANN);Lecun等9]則構(gòu)建了用于手寫(xiě)郵政編碼識(shí)別的CNN,并首次引人“卷積\"這一術(shù)語(yǔ),該模型成為L(zhǎng)eNet的原始版本;Aloysius等[10]按時(shí)間脈絡(luò)梳理了深度學(xué)習(xí)的框架體系;Rawat等[11]聚焦于CNN在圖像識(shí)別中的應(yīng)用進(jìn)行了綜述;Liu等[12]也針對(duì)用于圖像識(shí)別的CNN展開(kāi)討論。這些綜述大多側(cè)重于CNN在特定場(chǎng)景下的應(yīng)用,但缺乏從更為宏觀、通用的視角對(duì)CNN進(jìn)行考量。
2.3YOLO算法發(fā)展綜述
YOLO(YouOnlyLookOnce)算法是目標(biāo)檢測(cè)領(lǐng)域極具影響力的單階段檢測(cè)算法,其核心特點(diǎn)是將目標(biāo)檢測(cè)任務(wù)轉(zhuǎn)化為一個(gè)端到端的回歸問(wèn)題,通過(guò)單次神經(jīng)網(wǎng)絡(luò)前向傳播即可同時(shí)完成目標(biāo)的定位(邊界框預(yù)測(cè))和分類(lèi),極大提升了檢測(cè)速度,滿(mǎn)足實(shí)時(shí)檢測(cè)需求。
Redmon等[13]提出的 You OnlyLook Once(YOLO)方法是首個(gè)基于回歸的單階段目標(biāo)檢測(cè)方法。在此基礎(chǔ)上,Redmon等[14]進(jìn)一步提出了YOLOv2(You OnlyLookOnceversion2),該版本通過(guò)移除全連接層與最后一個(gè)池化層、引入錨框機(jī)制進(jìn)行邊界框預(yù)測(cè),并設(shè)計(jì)了名為DarkNet-19的新型基礎(chǔ)網(wǎng)絡(luò)架構(gòu)。
Chun等人[15]提出的通過(guò)對(duì)先驗(yàn)框進(jìn)行重新聚類(lèi),后再基于最佳分?jǐn)?shù)值的先驗(yàn)框?qū)δ繕?biāo)進(jìn)行檢測(cè),可以顯著提升模型在復(fù)雜環(huán)境,例如遮擋環(huán)境下的目標(biāo)檢測(cè)。陳文玉等人[16在空間金字塔結(jié)構(gòu)中融入軟池化操作,通過(guò)融合多重感受最大程度保留細(xì)節(jié)信息,從而高效提取小目標(biāo)特征;并且引入坐標(biāo)注意力機(jī)制與采用新的KI-oULoss作為邊界框損失函數(shù),能顯著提升算法對(duì)小目標(biāo)的檢測(cè)精度。
2.4數(shù)據(jù)脫敏技術(shù)綜述
數(shù)據(jù)脫敏(DataMasking)是一種數(shù)據(jù)安全技術(shù),指通過(guò)對(duì)原始數(shù)據(jù)中的敏感信息(如個(gè)人身份信息、商業(yè)機(jī)密等)進(jìn)行修改、替換、混淆或隱藏,在保持?jǐn)?shù)據(jù)格式、結(jié)構(gòu)及業(yè)務(wù)可用性的同時(shí),防止敏感信息被未授權(quán)訪問(wèn)或泄露的過(guò)程。其核心特點(diǎn)是保留數(shù)據(jù)的“形式有效性”(即處理后的數(shù)據(jù)仍能符合原有格式規(guī)范,可用于測(cè)試、開(kāi)發(fā)、培訓(xùn)等場(chǎng)景),但去除或掩蓋了數(shù)據(jù)的“真實(shí)敏感性”。
目前常用的數(shù)據(jù)脫敏技術(shù)有替換(Replacement)、加密(Encryption)、屏蔽(MaskingOut)等技術(shù)。替換(Re-placement)是指用外觀真實(shí)且與原始數(shù)據(jù)類(lèi)型一致的隨機(jī)值替換數(shù)據(jù)庫(kù)中現(xiàn)有敏感數(shù)據(jù)的技術(shù)。經(jīng)過(guò)替換處理后的數(shù)據(jù)可能與原始數(shù)據(jù)存在關(guān)聯(lián),也可能完全無(wú)關(guān)。該技術(shù)的顯著優(yōu)勢(shì)在于,即便完成替換操作,數(shù)據(jù)的格式與呈現(xiàn)形式仍能保持不變。加密方法(Encryp-tion)[17]則需要數(shù)據(jù)通過(guò)算法進(jìn)行處理。由于加密后的數(shù)據(jù)會(huì)包含特殊字符,其呈現(xiàn)形式與原始數(shù)據(jù)存在明顯差異。基于密鑰的加密技術(shù)需通過(guò)密鑰才能還原數(shù)據(jù),這意味著一旦密鑰落入未授權(quán)者手中,他們便能輕易解密數(shù)據(jù)。此外,加密技術(shù)因存在諸多局限性,在多數(shù)場(chǎng)景下并不優(yōu)于其他數(shù)據(jù)脫敏技術(shù)。屏蔽(MaskingOut)是指用特定字符(如X或*替換數(shù)據(jù)中的部分敏感內(nèi)容。在對(duì)數(shù)據(jù)進(jìn)行合理屏蔽時(shí),需注意避免掩蓋關(guān)鍵信息一若關(guān)鍵信息被誤屏蔽,整個(gè)字段將失去使用價(jià)值。
3數(shù)據(jù)集構(gòu)建
3.1開(kāi)源數(shù)據(jù)集
為提升模型對(duì)復(fù)雜場(chǎng)景下人臉檢測(cè)的精準(zhǔn)度與魯棒性,本文選用國(guó)際公認(rèn)的人臉檢測(cè)基準(zhǔn)數(shù)據(jù)集Wider-Face作為模型訓(xùn)練與驗(yàn)證的核心數(shù)據(jù)支撐。該數(shù)據(jù)集包含32203張高質(zhì)量人臉圖像,涵蓋393703個(gè)精確標(biāo)注的人臉實(shí)例,其核心優(yōu)勢(shì)在于場(chǎng)景覆蓋的全面性。數(shù)據(jù)集按事件類(lèi)型劃分為61個(gè)類(lèi)別(如街頭、集會(huì)、運(yùn)動(dòng)等),包含不同光照條件(強(qiáng)光、逆光)動(dòng)態(tài)背景(車(chē)流、人群)及極端視角(俯拍、側(cè)視)的復(fù)雜樣本,這些樣本可針對(duì)性地提升模型對(duì)非理想狀態(tài)人臉的識(shí)別能力。通過(guò)在該數(shù)據(jù)集上進(jìn)行訓(xùn)練,模型可充分學(xué)習(xí)人臉在尺度變化、姿態(tài)擾動(dòng)、遮擋干擾下的不變性特征,顯著增強(qiáng)對(duì)車(chē)外復(fù)雜交通場(chǎng)景中遠(yuǎn)距離行人、側(cè)臉、戴口罩/墨鏡等特殊狀態(tài)下人臉的檢測(cè)精度。
3.2自采數(shù)據(jù)集
為系統(tǒng)性提升模型在真實(shí)道路環(huán)境下對(duì)不同畸變、多視角及多分辨率目標(biāo)的檢測(cè)精度,并增強(qiáng)其魯棒性與跨場(chǎng)景泛化能力,本文構(gòu)建了大規(guī)模、多維度的真實(shí)車(chē)端自采數(shù)據(jù)集,通過(guò)覆蓋復(fù)雜變量的場(chǎng)景設(shè)計(jì)與嚴(yán)格的數(shù)據(jù)篩選流程,確保訓(xùn)練樣本的多樣性與代表性。具體而言,數(shù)據(jù)采集環(huán)節(jié)選取8款主流智能網(wǎng)聯(lián)車(chē)型,涵蓋轎車(chē)、SUV、MPV等多元品類(lèi),品牌包括蔚來(lái)、理想、小鵬、小米、特斯拉、長(zhǎng)安深藍(lán)、嵐圖、極氪等,以模擬不同廠商攝像頭硬件參數(shù)的差異(光學(xué)畸變率、鏡頭焦距、分辨率)。
采集車(chē)輛分別以靜止?fàn)顟B(tài)及 30km/h,60km/h,90 km/h,120km/h 五種速度工況采集動(dòng)態(tài)場(chǎng)景,覆蓋城市主輔干道、高架快速路、商圈密集區(qū)、學(xué)校周邊、高速公路等典型交通場(chǎng)景,并同步納入白天強(qiáng)光、夜晚低照度及雨霧等惡劣天氣條件,完整復(fù)現(xiàn)實(shí)際行車(chē)中的光照變化、運(yùn)動(dòng)模糊及環(huán)境干擾。采集周期歷時(shí)2個(gè)月,累計(jì)行駛里程超 5000km ,原始圖像采集量達(dá)50萬(wàn)張;經(jīng)人工篩選與去重處理(剔除相似度 gt;85% 的冗余樣本),最終保留5萬(wàn)張高質(zhì)量標(biāo)注數(shù)據(jù),包含不同車(chē)型攝像頭因安裝角度(前視、側(cè)視、環(huán)視)導(dǎo)致的視角差異、鏡頭畸變(如魚(yú)眼攝像頭桶形畸變、長(zhǎng)焦鏡頭枕形畸變)及分辨率動(dòng)態(tài)變化(從 720P 至 4K 不等)的真實(shí)樣本,如圖1所示。
圖1多視角圖像采集

該自采數(shù)據(jù)集通過(guò)硬件異構(gòu)性(多品牌傳感器特性)場(chǎng)景復(fù)雜性(全路況 + 全天氣)、目標(biāo)多樣性(動(dòng)態(tài)速度 + 尺度變化)的三維度設(shè)計(jì),可有效彌補(bǔ)開(kāi)源數(shù)據(jù)集在車(chē)端實(shí)際部署場(chǎng)景中的局限性,有效提升模型對(duì)車(chē)外人臉、車(chē)牌等敏感目標(biāo)的跨場(chǎng)景檢測(cè)魯棒性與泛化能力。
4脫敏目標(biāo)檢測(cè)模型與訓(xùn)練
4.1YOLOv4檢測(cè)模型
本文選定MobileNetv1-YOLOv4作為核心目標(biāo)檢測(cè)算法架構(gòu),通過(guò)輕量化特征提取與高精度檢測(cè)網(wǎng)絡(luò)的深度融合,實(shí)現(xiàn)車(chē)端低算力環(huán)境下敏感目標(biāo)(人臉、車(chē)牌)的高效檢測(cè)。該架構(gòu)的優(yōu)勢(shì)在于:MobileNetv1的深度可分離卷積設(shè)計(jì)將標(biāo)準(zhǔn)卷積分解為\"逐通道濾波 + 跨通道融合”,使模型計(jì)算量降低約 90% ,參數(shù)量減少 70% 以上,顯著提升了運(yùn)算速度;而相比YOLOv3,YOLOv4的技術(shù)增強(qiáng)進(jìn)一步保障了檢測(cè)精度——通過(guò)Mosaic數(shù)據(jù)增強(qiáng)技術(shù)融合多尺度樣本,提升網(wǎng)絡(luò)對(duì)復(fù)雜場(chǎng)景的魯棒性;模型采用CIoU_Loss損失函數(shù)優(yōu)化邊界框回歸,加速預(yù)測(cè)框收斂速度并提高定位準(zhǔn)確度。二者的結(jié)合實(shí)現(xiàn)了“精度-效率”的平衡。
YOLOv4網(wǎng)絡(luò)首先將輸入圖像填充并調(diào)整至 416× 416的尺寸,隨后通過(guò)主干網(wǎng)絡(luò)CSPDarknet53提取出13×13、26×26 及 52×52 三種不同尺度的特征圖,分別對(duì)應(yīng)大、中、小目標(biāo)的檢測(cè)需求。這些特征圖接著送入SPP模塊和PANet網(wǎng)絡(luò)以增強(qiáng)特征提取與融合效果,最后由YoloHead完成預(yù)測(cè)并輸出結(jié)果,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
MobileNetV1是面向移動(dòng)端的輕量級(jí)深層神經(jīng)網(wǎng)絡(luò),其通過(guò)采用深度可分離卷積進(jìn)行特征提取:將標(biāo)準(zhǔn)卷積分解為兩步,先以單通道卷積核對(duì)輸入各通道單獨(dú)卷積(輸入輸出通道數(shù)一致),再通過(guò)逐點(diǎn)卷積提升維度,如圖3所示。
圖2YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)圖

圖3深度可分離卷積

Mobilenetv1采用 3×3 大小的卷積核,其通過(guò)采用深度可分離卷積,網(wǎng)絡(luò)運(yùn)算量與參數(shù)量減少約為標(biāo)準(zhǔn)卷積的1/9~1/8,Mobilenetv1的基本結(jié)構(gòu)如圖4所示。
圖4標(biāo)準(zhǔn)卷積與深度可分離卷積結(jié)構(gòu)圖

MobileNetV1網(wǎng)絡(luò)總計(jì)28層,具體結(jié)構(gòu)如下:第一層為標(biāo)準(zhǔn)卷積( 3×3 ,步長(zhǎng)2)進(jìn)行下采樣,隨后堆疊13個(gè)深度可分離卷積塊(共26層,部分深度卷積含步長(zhǎng)2下采樣),接著通過(guò) 7×7 平均池化層壓縮特征,最后根據(jù)任務(wù)類(lèi)別數(shù)連接全連接層與Softmax輸出概率。性能對(duì)比顯示,MobileNetV1準(zhǔn)確率較VGG16僅下降 1% ,卻比GoogleNet高 0.8% ;而參數(shù)量和計(jì)算量方面,GoogleNet分別為其1.6倍和2.7倍,VGG16更是達(dá)到32倍和27倍。
將 YOLOv4 的主干網(wǎng)絡(luò)CSPDarknet53替換為Mo-bileNetV1,并將其輸出的最后三個(gè)尺度特征層直接接入原YOLOv4的SPP與PANet模塊;同時(shí),為進(jìn)一步降低計(jì)算成本,將PANet中的所有標(biāo)準(zhǔn)卷積替換為深度可分離卷積,形成MobileNetV1-YOLOv4輕量化網(wǎng)絡(luò)結(jié)構(gòu),如圖5所示。
4.2FSRCNN超分模型
針對(duì)部分車(chē)型攝像頭分辨率較低導(dǎo)致小目標(biāo)檢測(cè)精度不足的問(wèn)題,采用基于FSRCNN超分辨率網(wǎng)絡(luò)對(duì)低分辨率圖像進(jìn)行增強(qiáng)重建。該網(wǎng)絡(luò)通過(guò)“收縮-映射-擴(kuò)展-反卷積\"的緊湊結(jié)構(gòu)設(shè)計(jì),可在極小算力成本下(參數(shù)量?jī)H為傳統(tǒng)方法的1/10)提升圖像細(xì)節(jié)特征(如人臉五官、車(chē)牌字符邊緣等),進(jìn)而增強(qiáng)模型對(duì)遠(yuǎn)距離、低清狀態(tài)下車(chē)外人臉與汽車(chē)號(hào)牌的敏感區(qū)域定位精度。
圖5Mobilenetv1-YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)圖

FSRCNN網(wǎng)絡(luò)首先使用 d 個(gè) 5×5 卷積核對(duì)輸入圖像進(jìn)行初始特征提取;接著通過(guò) s 個(gè) 1×1 卷積核對(duì)提取到的低分辨率特征進(jìn)行降維處理,以降低后續(xù)計(jì)算復(fù)雜度;隨后,通過(guò) Ωm 個(gè)串聯(lián)的 3×3 卷積核構(gòu)成的映射層進(jìn)行非線性特征變換;之后,再利用 d 個(gè) 1×1 卷積核將特征維度升維至與初始特征提取階段一致;最終,使用1個(gè) 9×9 卷積核通過(guò)反卷積操作將特征圖上采樣至目標(biāo)高分辨率尺寸,完成圖像重建。
網(wǎng)絡(luò)預(yù)測(cè)的高分辨率圖片與真實(shí)高分辨率圖片之間,采用均方誤差作為損失函數(shù),公式如下:

其中 θ={W1,W2,W3,B1,B2,B3} 是所有濾波器的權(quán)值與偏置,為模型學(xué)習(xí)需優(yōu)化的參數(shù)。經(jīng)過(guò)FSRCNN超分辨率網(wǎng)絡(luò)對(duì)圖像進(jìn)行增強(qiáng)可以顯著提升圖像紋理特征,如圖6所示。
圖6圖像增強(qiáng)重建前后對(duì)比

4.3模型訓(xùn)練
為適配MobileNetV1-YOLOv4模型的訓(xùn)練需求,實(shí)驗(yàn)環(huán)境配置如下:硬件采用Windows10系統(tǒng),搭載13thGenIntelCorei9-13900KCPU、NVIDIAGeForceRTX3090GPU(24GB顯存)及128GB運(yùn)行內(nèi)存;軟件基于Python3.8.20和PyTorch2.4.1框架搭建。訓(xùn)練階段統(tǒng)一將輸入圖像分辨率調(diào)整為 960×960 ,設(shè)置訓(xùn)練總輪次為100epoch、批處理大小(Batch-size)為32,并通過(guò)啟用自動(dòng)優(yōu)化器及數(shù)據(jù)增強(qiáng)策略(含Mosaic、隨機(jī)翻轉(zhuǎn)、色彩抖動(dòng)等)提升模型的泛化性能與收斂效率,訓(xùn)練結(jié)果如圖7所示,橫軸和縱軸分別表示迭代次數(shù)(step)損失(loss)。
圖7模型訓(xùn)練結(jié)果

MobileNetV1-YOLOv4模型在測(cè)試中展現(xiàn)出優(yōu)異的綜合性能:精確率達(dá) 99.3% ,召回率為 92.5% , mAP@0.5 和 mAP@0.5:0.95 分別達(dá)到 96.4% 和 83.9% ,表明其在目標(biāo)檢測(cè)準(zhǔn)確性和復(fù)雜場(chǎng)景適應(yīng)性上表現(xiàn)突出,可滿(mǎn)足實(shí)際應(yīng)用需求。同時(shí),相較于原始YOLOv4模型,該輕量化模型的平均檢測(cè)幀率提升 40% ,顯著增強(qiáng)了實(shí)時(shí)性,更適配車(chē)端低算力環(huán)境。模型在測(cè)試集上可對(duì)人臉與汽車(chē)號(hào)牌進(jìn)行準(zhǔn)確的識(shí)別,如圖8所示。
圖8人臉與汽車(chē)號(hào)牌識(shí)別

在完成人臉與汽車(chē)號(hào)牌的精準(zhǔn)識(shí)別后,系統(tǒng)可進(jìn)一步對(duì)敏感區(qū)域?qū)嵤┒鄬哟蚊撁籼幚恚詫?shí)現(xiàn)數(shù)據(jù)安全與隱私保護(hù)的雙重目標(biāo)。具體而言,針對(duì)識(shí)別出的人臉區(qū)域,可采用純色塊覆蓋(如統(tǒng)一灰色或黑色色塊)高斯模糊(通過(guò)調(diào)整模糊半徑控制模糊程度)或馬賽克處理(按預(yù)設(shè)網(wǎng)格尺寸進(jìn)行像素化)等方式,有效降低面部特征的可識(shí)別性,如圖9所示。
圖9圖像脫敏處理

5結(jié)語(yǔ)
a.本文提出了一種面向低算力環(huán)境的汽車(chē)數(shù)據(jù)脫敏處理方法。該方法創(chuàng)新性地引入基于MobileNetV1-YOLOv4的輕量化目標(biāo)檢測(cè)網(wǎng)絡(luò),通過(guò)深度優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì),在保證人臉、汽車(chē)號(hào)牌等敏感目標(biāo)檢測(cè)精度的前提下,顯著降低了模型參數(shù)量與運(yùn)算復(fù)雜度,有效減小了車(chē)端算力成本。相較于原始 YOLOv4 模型,該輕量化方案的平均檢測(cè)幀率提升約 40% ,實(shí)現(xiàn)了高實(shí)時(shí)性與低資源消耗的平衡。
b.本文提出了多數(shù)據(jù)集融合訓(xùn)練方法以提升模型魯棒性與泛化能力。其中,自采數(shù)據(jù)集通過(guò)硬件異構(gòu)性、場(chǎng)景復(fù)雜性、目標(biāo)多樣性的三維度設(shè)計(jì),系統(tǒng)性構(gòu)建了貼近真實(shí)車(chē)端部署場(chǎng)景的樣本庫(kù)。該融合策略有效彌補(bǔ)了開(kāi)源數(shù)據(jù)集在車(chē)載場(chǎng)景適應(yīng)性上的局限性,使模型對(duì)車(chē)外動(dòng)態(tài)人臉、車(chē)牌等敏感自標(biāo)的跨場(chǎng)景檢測(cè)能力顯著增強(qiáng)。
c.本文提出針對(duì)低分辨率圖像的增強(qiáng)方案,通過(guò)引入基于FSRCNN(快速超分辨率卷積神經(jīng)網(wǎng)絡(luò))的超分模型,實(shí)現(xiàn)圖像紋理細(xì)節(jié)特征的顯著提升。有效恢復(fù)遠(yuǎn)距離拍攝或低清狀態(tài)下的圖像高頻信息,大幅提升了模型對(duì)人臉與汽車(chē)號(hào)牌的檢測(cè)精度。
參考文獻(xiàn):
[1]BochkovskiyA,WangCY,Liao HYM.Yolov4:Optimal speed and accuracyofobjectdetection[J].ArXivPreprint ArXiv:2OO4.10934, 2020.
[2]SandlerM,HowardA,ZhuM,etal.Mobilenetv2:Inverted residuals andlinear bottlenecks[C]//Proceedingsof the IEEE conference on computer visionand pattern recognition,2018:4510-4520.
[3]Everingham M,Van Gool L,WilliamsC KI,et al.The pascal visual object classes(voc)challenge[J].International Journal of Computer Vision,2010,88(2):303-338.
[4]LeeJ,Bang J,Yang SI.Object detection with sliding window in imagesincludingmultiple similarobjects[C]//2O17international conferenceon information and communication technology convergence (ICTC).IEEE,2017:803-806.
[5]LiuW,AnguelovD,Erhan D,etal.Ssd:Single shot multibox detector[C]//European conference on computer vision.Cham:Springer InternationalPublishing,2016:21-37.
[6]LiZ,Liu F,YangW,etal.A surveyofconvolutional neural networks:analysis,applications,and prospects[J].IEEE Transactions On Neural Networks And Learning Systems,2021,33(12): 6999- 7019.
[7]Rosenblatt F.The perceptron:a probabilistic model for information storage and organization in the brain[J].Psychological Review, 1958,65(6):386.
[8]ZhangW,TanidaJ,ItohK,etal.Shift-invariantpatternrecognition neural network and its optical architecture[C]//Proceedings of annual conference of theJapan Society ofApplied Physics,1988:564.
[9] Lecun Y,Boser B,Denker J S,et al.Backpropagation applied to handwritten zipcode recognition[J].Neural Computation,1989,1 (4):541-551.
[10]Aloysius N,Geetha M.A review on deep convolutional neural networks[C]//2017 international conference on communication and signal processing(ICCSP).IEEE,2017:0588-0592.
[11]Rawat W,Wang Z.Deep convolutional neural networks for image classification:A comprehensive review[J].Neural Computation, 2017,29(9):2352-2449.
[12]Liu Q,Zhang N,YangW,etal.A review of image recognition with deep convolutional neural network [C]//International conference on intelligent computing.Cham:Springer International Publishing, 2017:69-80.
[13]RedmonJ,Divvala S,GirshickR,etal.You only look once:Unified,real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2O16:779-788.
[14]RedmonJ,F(xiàn)arhadiA.YOLO9ooo:better,faster,stronger[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2017:7263-7271.
[15]Chun L Z,Dian L,ZhiJY,et al.YOLOv3:face detection in complex environments[J]. International Journal of Computational Intelligence Systems,2020,13(1):1153-1160.
[16]陳文玉,趙懷慈,劉鵬飛,等.基于改進(jìn)YOLOv3的車(chē)輛檢測(cè)算法 [J].控制與決策,2024(4):1151-1159.
[17]Mining W ID.Data mining:Concepts and techniques[J]. Morgan Kaufinann,2006,10(559-569): 4.
作者簡(jiǎn)介:
朱張玲,女,1984年生,工程師,研究方向?yàn)槠?chē)標(biāo)準(zhǔn)、認(rèn)證和測(cè)試。劉鵬(通訊作者),男,1996年出生,工程師,研究方向?yàn)橹悄芫W(wǎng)聯(lián)汽車(chē)信息安全、數(shù)據(jù)安全及圖像視覺(jué)領(lǐng)域。