999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度可分離的多尺度Lw-YOLO輕量化人臉檢測網(wǎng)絡(luò)

2023-01-31 08:55:54陳偉民于津強(qiáng)
關(guān)鍵詞:深度特征檢測

陳偉民 段 錦 于津強(qiáng) 吳 杰 陳 宇

(長春理工大學(xué)電子信息工程學(xué)院 吉林 長春 130022)

0 引 言

近些年來,隨著深度學(xué)習(xí)的飛速發(fā)展,越來越多的卷積神經(jīng)網(wǎng)絡(luò)相繼誕生,與此同時(shí),相關(guān)的改進(jìn)網(wǎng)絡(luò)也是層出不窮。但是絕大多數(shù)網(wǎng)絡(luò)都是適用于帶有GPU的PC機(jī)。目前所謂的“實(shí)時(shí)”性,驗(yàn)證的模型都是建立在TitanX[1]或者Tesla這類強(qiáng)大獨(dú)立顯卡的基礎(chǔ)上,而在實(shí)際的應(yīng)用場景中,例如超市的人臉識(shí)別、自動(dòng)售貨機(jī)的人臉識(shí)別等,并不能配備這些裝備。所以這類模型一旦移植到計(jì)算和內(nèi)存相對(duì)不足的嵌入式平臺(tái)時(shí),檢測的速度就非常不理想,達(dá)不到實(shí)時(shí)的要求。

因此,實(shí)時(shí)性高的檢測網(wǎng)絡(luò)進(jìn)入到了人們的視野。例如,Redmon等[2]提出的YOLO和Liu等[3]提出的SSD等網(wǎng)絡(luò)都是旨在提高目標(biāo)檢測的速度。其中,YOLO-LITE[4]是致力于CPU和嵌入式檢測的網(wǎng)絡(luò)模型,其有效地加快了檢測速度,但是帶來了檢測精度的損失。本文設(shè)計(jì)一種計(jì)算參數(shù)量小、人臉檢測精度高的輕量化網(wǎng)絡(luò)Lw-YOLO。該網(wǎng)絡(luò)以YOLO-LITE為基礎(chǔ),由深度可分離卷積(depthwise separable convolution)[5]替代傳統(tǒng)卷積,以減少參數(shù)量;同時(shí)利用多個(gè)1×1的點(diǎn)卷積提升網(wǎng)絡(luò)深度,獲得更多的特征;采用改進(jìn)的多尺度預(yù)測方法,將淺層的特征充分地提取與深層的特征結(jié)合[6],提高了人臉檢測的精度。將該網(wǎng)絡(luò)應(yīng)用到本文的樹莓派人臉檢測系統(tǒng)中,可以達(dá)到較高的檢測精度和速度,基本滿足實(shí)際應(yīng)用場景,具有較好的市場前景。

本文從Lw-YOLO人臉檢測網(wǎng)絡(luò)原理出發(fā),通過深度可分離卷積的方法減少網(wǎng)絡(luò)的參數(shù)量及改進(jìn)的多尺度預(yù)測方法提高網(wǎng)絡(luò)的精度,達(dá)到速度和精度的雙平衡。最后,在WiderFace和Extended Yale B數(shù)據(jù)集上通過多組的實(shí)驗(yàn)比較,驗(yàn)證Lw-YOLO網(wǎng)絡(luò)的實(shí)用性、合理性,為無GPU嵌入式平臺(tái)的輕量化網(wǎng)絡(luò)設(shè)計(jì)提供一條新的思路。

1 基于Lw-YOLO的目標(biāo)檢測原理

本文提出的Lw-YOLO輕量化網(wǎng)絡(luò)是基于無GPU嵌入式平臺(tái)設(shè)計(jì)的網(wǎng)絡(luò)架構(gòu),對(duì)輸入圖像提取特征,通過邏輯回歸預(yù)測每個(gè)邊界框分?jǐn)?shù),篩選得到每個(gè)類別的預(yù)測結(jié)果,實(shí)現(xiàn)端到端[7]的快速目標(biāo)檢測。

圖1為整個(gè)網(wǎng)絡(luò)的原理圖,網(wǎng)絡(luò)首先將一幅未知分辨率圖片的輸入分辨率重置為224×224,并等分成S×S個(gè)柵格,如果目標(biāo)中心落在某個(gè)柵格內(nèi),就由該柵格負(fù)責(zé)此目標(biāo)的檢測任務(wù)。然后網(wǎng)絡(luò)通過目標(biāo)中心、柵格寬高和預(yù)設(shè)邊界框(anchor box)進(jìn)行目標(biāo)邊界框的預(yù)測。每個(gè)人臉得出三個(gè)預(yù)測的邊界框,每個(gè)邊界框輸出5個(gè)參數(shù),分別是預(yù)測邊界框的中心坐標(biāo)(Bx,By)、預(yù)測邊界框的寬高(Bw,Bh)和最終的預(yù)測置信值C,最后篩選出置信值最高的邊界框,加上標(biāo)簽。

邊界框預(yù)測過程如圖1中間的大圖所示,虛線矩形框?yàn)轭A(yù)設(shè)邊界框,實(shí)線邊界框?yàn)橥ㄟ^網(wǎng)絡(luò)預(yù)測的偏移量計(jì)算得到的預(yù)測邊界框。其中:(Cx,Cy)表示柵格的邊距;(Pw,Ph)為預(yù)設(shè)邊界框的寬和高;(Tx,Ty)和(Tw,Th)分別為網(wǎng)絡(luò)預(yù)測的邊界框中心偏移量以及寬高縮放比。從預(yù)設(shè)邊界框到預(yù)測邊界框的轉(zhuǎn)換公式為:

Bx=σ(Tx)+Cx

(1)

By=σ(Ty)+Cy

(2)

Bw=PweTw

(3)

Bh=PheTh

(4)

Pr(obj)×IOU(box,obj)=σ(To)

(5)

C=max(σ(To))

(6)

式中:(Tx,Ty)用Sigmoid函數(shù)歸一化處理,使取值在0~1之間;σ函數(shù)表示歸一化值轉(zhuǎn)化為真實(shí)值;Pr(obj)為目標(biāo)屬于某一類的概率;IOU(Intersection over Union)是預(yù)測的邊界框和真實(shí)標(biāo)定框之間的交并比[8];σ(To)表示預(yù)測邊界框的置信值。

網(wǎng)絡(luò)根據(jù)維度聚類(dimension clusters)[9]的方法對(duì)人臉數(shù)據(jù)集聚集6組預(yù)設(shè)邊界框的寬高(即anchors值),一次預(yù)測選定三個(gè)預(yù)設(shè)邊界框,依照不同大小的人臉尺寸,分別進(jìn)行兩次不同尺度的獨(dú)立預(yù)測。維度聚類方法可以自適應(yīng)地找到更好的邊界框?qū)捀叱叽纾欣谔嵘俾屎途W(wǎng)絡(luò)收斂程度。而傳統(tǒng)網(wǎng)絡(luò)的距離指標(biāo)使用的是歐氏距離函數(shù),這意味著較大的邊框會(huì)比較小的邊框產(chǎn)生更多的錯(cuò)誤,聚類結(jié)果可能會(huì)偏移。為此,網(wǎng)絡(luò)采用IOU得分的評(píng)判標(biāo)準(zhǔn),削減了邊框產(chǎn)生錯(cuò)誤的概率,最終的距離函數(shù)表達(dá)式為:

d(box,obj)=1-IOU(box,obj)

(7)

在訓(xùn)練過程中,網(wǎng)絡(luò)用二元交叉熵?fù)p失來預(yù)測類別。二元交叉熵?fù)p失公式為:

(8)

(9)

當(dāng)且僅當(dāng)yi和yj相等時(shí),Loss為0;否則,Loss為一個(gè)正數(shù)。

2 Lw-YOLO輕量化網(wǎng)絡(luò)模型

2.1 Lw-YOLO網(wǎng)絡(luò)架構(gòu)

針對(duì)YOLO-LITE在嵌入式設(shè)備檢測精度較低的問題,本文設(shè)計(jì)一種計(jì)算參數(shù)量小、人臉檢測精度高的輕量化網(wǎng)絡(luò)Lw-YOLO,通過深度可分離卷積的方法減少網(wǎng)絡(luò)的參數(shù)量及改進(jìn)的多尺度預(yù)測方法,添加多個(gè)1×1卷積提高網(wǎng)絡(luò)的精度,達(dá)到速度和精度的雙平衡。

Lw-YOLO輕量化網(wǎng)絡(luò)相比較于圖2 YOLO-LITE網(wǎng)絡(luò),具有網(wǎng)絡(luò)更深、精度更高的優(yōu)勢。如圖3所示,首先,網(wǎng)絡(luò)以YOLO-LITE為基礎(chǔ)架構(gòu),選取224×224的圖片輸入,增加網(wǎng)絡(luò)層數(shù)至20層,將除第一層卷積外的所有是3×3卷積核的傳統(tǒng)卷積都替換成更高效的深度可分離卷積,減少計(jì)算量,提升網(wǎng)絡(luò)深度。增加濾波器個(gè)數(shù)至512個(gè),以獲得更多的特征。其次,改進(jìn)多尺度預(yù)測,同時(shí)利用低層特征和高層特征,將7×7×128特征圖(feature-maps)[10]經(jīng)過上采樣2倍后得到14×14×128特征圖,再與之前14×14×256特征圖疊加融合,形成14×14×384的特征圖,最后分別在YOLO1(7×7×18)和YOLO2(14×14×18)兩個(gè)尺度做獨(dú)立檢測。

圖2 YOLO-LITE網(wǎng)絡(luò)架構(gòu)

圖3 Lw-YOLO網(wǎng)絡(luò)架構(gòu)

YOLO-LITE為每個(gè)特征圖的每個(gè)柵格設(shè)置5個(gè)預(yù)設(shè)邊界框,所以每個(gè)柵格的張量(tensor)為5×(4+1+1)=30,其中:4表示(Tx,Ty,Tw,Th)4個(gè)坐標(biāo)偏移;前一個(gè)1表示包含目標(biāo)得分;后一個(gè)1表示1個(gè)類別,因此得到總輸出張量為7×7×30=420。而Lw-YOLO網(wǎng)絡(luò)為每個(gè)柵格設(shè)置3個(gè)預(yù)設(shè)邊界框,每個(gè)柵格的張量為3×(4+1+1)=18,總輸出張量為7×7×18+14×14×18=4 410。

2.2 深度可分離卷積

Lw-YOLO輕量化網(wǎng)絡(luò)模型將傳統(tǒng)卷積替換成深度可分離卷積提高網(wǎng)絡(luò)的計(jì)算效率,大大減少了計(jì)算的參數(shù)量。多個(gè)1×1點(diǎn)卷積的引入增加網(wǎng)絡(luò)模型的深度,保證網(wǎng)絡(luò)的精度。

如圖4所示,若原始圖像是二維的,大小是CI×CI,有M個(gè)通道,相當(dāng)于是一個(gè)三維的圖片。其輸入圖片格式是CI×CI×M。卷積核大小是Dk×Dk。輸入圖片被M個(gè)不同Dk×Dk大小的卷積核遍歷N次,產(chǎn)生M×N個(gè)特征圖譜,進(jìn)而通過疊加M個(gè)輸入通道對(duì)應(yīng)的特征圖譜融合得到1個(gè)特征圖譜,最后產(chǎn)生的輸出圖像大小是CI×CI×N。則傳統(tǒng)卷積計(jì)算的參數(shù)量為:

C=Dk×Dk×M×N×CI×CI

(10)

圖4 傳統(tǒng)卷積

如圖5所示,深度可分離卷積是通過兩次卷積實(shí)現(xiàn)的,即將傳統(tǒng)的卷積分解為一個(gè)深度卷積(depthwise convolution)和一個(gè)1×1的點(diǎn)卷積(pointwise convolution)[5,11]。第一步,用M個(gè)Dk×Dk的卷積分別對(duì)輸入圖片的M個(gè)通道做一次卷積,生成M個(gè)特征圖譜。第二步,M個(gè)特征圖譜中分別通過N個(gè)1×1的卷積核,生成M×N個(gè)特征圖譜。最終疊加M個(gè)輸入通道對(duì)應(yīng)的特征圖譜后融合得到1個(gè)特征圖譜。深度可分離卷積計(jì)算的參數(shù)量為深度卷積和1×1點(diǎn)卷積的參數(shù)量[12]之和為:

D=Dk×Dk×M×CI×CI+M×N×CI×CI

(11)

忽略N,當(dāng)Dk=3時(shí),深度可分離卷積和傳統(tǒng)卷積分別計(jì)算的參數(shù)量之比為:

(12)

由式(12)可見,深度可分離卷積的參數(shù)量縮減為傳統(tǒng)卷積的1/9左右。

(a) 深度卷積

(b) 點(diǎn)卷積圖5 深度可分離卷積

2.3 改進(jìn)的多尺度預(yù)測

由于一幅圖片中可能具有多個(gè)不同大小的目標(biāo),對(duì)于簡單的目標(biāo)僅僅需要淺層的特征就可以檢測到它;而對(duì)于復(fù)雜的目標(biāo),就需要利用復(fù)雜的特征來檢測它。因此,區(qū)分不同大小的目標(biāo)需要不同尺度的特征。本文借鑒FPN[13]網(wǎng)絡(luò)的思想,采用改進(jìn)的多尺度預(yù)測方法預(yù)測目標(biāo),7×7尺度特征圖采用(10,24)、(11,15)、(41,54)三個(gè)預(yù)設(shè)邊界框預(yù)測較大簡單的目標(biāo)。14×14尺度特征圖同時(shí)利用低層特征和高層特征,采用(4,5)、(6,7)、(8,10)三個(gè)預(yù)設(shè)邊界框預(yù)測較小復(fù)雜的目標(biāo),所以能在較小的計(jì)算開銷下產(chǎn)生不同尺度的獨(dú)立預(yù)測。它的優(yōu)點(diǎn)是在不同尺度的層上負(fù)責(zé)輸出不同大小的目標(biāo),在有不同大小的目標(biāo)時(shí),較大的目標(biāo)直接由7×7預(yù)測層輸出,不需要進(jìn)行下面的卷積操作,而14×14預(yù)測層不需要再一次經(jīng)過第三層卷積就能輸出對(duì)應(yīng)的小目標(biāo)(即對(duì)于有些目標(biāo)來說,不需要進(jìn)行多余的前向卷積操作),這樣可以在一定程度上對(duì)網(wǎng)絡(luò)進(jìn)行加速操作,同時(shí)可以提高算法的檢測性能。

整個(gè)過程如圖6(b)所示,首先網(wǎng)絡(luò)對(duì)輸入的圖片進(jìn)行深度卷積,在基礎(chǔ)網(wǎng)絡(luò)之后對(duì)第二個(gè)卷積層上的特征進(jìn)行降維操作(即添加一層1×1的卷積層),在第四個(gè)卷積層輸出第一個(gè)尺度7×7的特征圖;對(duì)第四個(gè)卷積層上的特征進(jìn)行上采樣操作(×2),使得它的尺寸擴(kuò)大兩倍,即與第二個(gè)卷積層的尺寸相同,然后對(duì)經(jīng)過深度卷積處理后的第二個(gè)卷積層和處理后的第四個(gè)卷積層執(zhí)行加法操作(即對(duì)應(yīng)元素相加),將獲得的結(jié)果輸入到第五個(gè)卷積層中去,這樣做能找到早期特征映射的上采樣特征和細(xì)粒度特征[14],并獲得更有意義的語義信息。之后,網(wǎng)絡(luò)添加多個(gè)卷積層來處理這個(gè)特征映射組合,得到相比第一個(gè)尺度變大兩倍的第二個(gè)尺度14×14特征圖。

(a) FPN的多尺度金字塔 (b) 輕量化的多尺度金字塔圖6 多尺度金字塔結(jié)構(gòu)

本文從兩種不同尺度的特征圖譜上進(jìn)行預(yù)測任務(wù),網(wǎng)絡(luò)用相似的概念提取這些尺度的特征,以形成特征金字塔網(wǎng)絡(luò)。這次本文使用了輕量化的深度可分離卷積層來構(gòu)造特征金字塔,提高網(wǎng)絡(luò)的計(jì)算效率;相比較圖6(a),網(wǎng)絡(luò)只進(jìn)行兩次預(yù)測,即將處理過的低層特征和處理過的高層特征進(jìn)行累加,這樣做的目的是因?yàn)榈蛯犹卣骺梢蕴峁└訙?zhǔn)確的位置信息,而多次的降采樣和上采樣操作使得深層網(wǎng)絡(luò)的定位信息存在誤差;因此,我們將其結(jié)合起來使用,這樣就構(gòu)建了一個(gè)更淺更輕量化的多尺度特征金字塔,融合了兩層特征信息,并在不同的尺度進(jìn)行獨(dú)立預(yù)測輸出。

3 實(shí)驗(yàn)結(jié)果分析

3.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)集

模型訓(xùn)練環(huán)節(jié)的實(shí)驗(yàn)是在較高配置的PC端進(jìn)行的,具體硬件環(huán)境為:處理器:Intel Core i7- 6700 3.4 GHz處理器;顯卡:GeForce GTX 1060顯卡,顯存為6 GB。實(shí)驗(yàn)的軟件平臺(tái)環(huán)境為:訓(xùn)練框架:DarkNet;開源庫:OpenCV;界面設(shè)計(jì):PyQt4。

測試使用樹莓派3B+作為嵌入式平臺(tái),樹莓派軟件配置樹莓派Respbian系統(tǒng)、OpenCV3.4.4、Python3.5編程語言。

本文使用WiderFace和Extended Yale B人臉數(shù)據(jù)集作為人臉檢測的訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集。WiderFace包含32 203幅圖像和393 703幅人臉圖像,在尺度、姿勢、閉塞、表達(dá)、裝扮、關(guān)照等方面表現(xiàn)出了大的變化。Wider Face是基于61個(gè)事件類別組織的,本文對(duì)于每一個(gè)事件類別,選取其中的50%作為訓(xùn)練集,10%作為驗(yàn)證集,40%作為測試集。

擴(kuò)展Yale人臉數(shù)據(jù)庫B中包含28個(gè)人16 128幅圖像,包括9種姿態(tài)、64種光照條件下的圖像。本文將它用作模型對(duì)不同光照、角度人臉檢測的測試集。

根據(jù)維度聚類方法對(duì)WiderFace人臉數(shù)據(jù)集進(jìn)行聚類,得出6組anchor值。anchor box為特征圖上的點(diǎn)預(yù)測的寬高比例不同的預(yù)設(shè)邊界框,anchor值表示預(yù)設(shè)邊界框的寬高尺寸,用相對(duì)于原圖的大小來定義,大小范圍為(0×0,224×224)。網(wǎng)絡(luò)對(duì)于輸入圖像考慮6個(gè)預(yù)設(shè)邊界框,結(jié)果如表1所示。

表1 WiderFace人臉數(shù)據(jù)集6組anchor值

3.2 Lw-YOLO網(wǎng)絡(luò)訓(xùn)練結(jié)果分析

網(wǎng)絡(luò)在3.1節(jié)實(shí)驗(yàn)環(huán)境中,初始學(xué)習(xí)率learning-rate為0.001,衰減系數(shù)decay為0.000 5,動(dòng)量參數(shù)momentum為0.9,每10 000次迭代保存一次此時(shí)的網(wǎng)絡(luò)權(quán)重,在訓(xùn)練迭代次數(shù)為40 000和60 000時(shí),分別將學(xué)習(xí)率降低至0.000 1,總訓(xùn)練迭代次數(shù)為100 000。為了證明所設(shè)計(jì)的網(wǎng)絡(luò)可以完成對(duì)數(shù)據(jù)集的學(xué)習(xí),將訓(xùn)練中的Loss數(shù)據(jù)收集起來,并利用matlabplot庫將數(shù)據(jù)可視化,最終得到如圖7所示的Loss變化曲線。

圖7 Lw-YOLO網(wǎng)絡(luò)訓(xùn)練中Loss變化曲線

可以看出,Lw-YOLO網(wǎng)絡(luò)在訓(xùn)練過程中可以快速收斂,在40 000次后曲線趨于平穩(wěn),Loss曲線變化趨勢正常,最后的Loss值下降到0.4左右。這說明優(yōu)化得到的Lw-YOLO網(wǎng)絡(luò)可以學(xué)習(xí)到數(shù)據(jù)集中的內(nèi)容,訓(xùn)練結(jié)果比較理想。接下來要對(duì)訓(xùn)練過程中產(chǎn)生的多個(gè)權(quán)重進(jìn)行選擇,選出其中最好的權(quán)重文件完成下文的網(wǎng)絡(luò)對(duì)比,因此本文選擇的權(quán)重為迭代40 000次的權(quán)重。

3.3 Lw-YOLO網(wǎng)絡(luò)測試結(jié)果分析

實(shí)驗(yàn)一:選取WiderFace的測試集對(duì)三種人臉檢測模型進(jìn)行測試,測試結(jié)果如表2、表3所示。

表2 三種人臉檢測模型在WiderFace精度測試結(jié)果(%)

表3 三種人臉檢測模型在WiderFace速度測試結(jié)果

由表2知,Lw-YOLO人臉檢測模型的平均精度與YOLOv3-tiny基本持平,比YOLO-LITE模型高23.22百分點(diǎn),平均IOU是三者中最高的,同樣平均Recall是三者之中最優(yōu),說明Lw-YOLO模型檢測結(jié)果與預(yù)設(shè)邊界框最接近,漏檢的概率最小。

在表3中,Lw-YOLO模型較小,只比YOLO-LITE模型大0.8 MB,在GPU和樹莓派3B+上的檢測速度也與YOLO-LITE模型相近,YOLOv3-tiny模型大小最大,檢測速度也最慢。雖然在GPU上三個(gè)模型耗時(shí)差距并不明顯,但是在計(jì)算能力有限且無GPU的樹莓派3B+上測試時(shí),可以發(fā)現(xiàn)Lw-YOLO檢測速度幾乎是YOLOv3-tiny的1/7。

根據(jù)表2、表3可知,改進(jìn)后的Lw-YOLO人臉檢測模型在樹莓派3B+上保持檢測速度與YOLO-LITE模型相近,而檢測精度有較大提高,網(wǎng)絡(luò)更深,計(jì)算參數(shù)量卻較少,輕量化成效顯著,綜合性能最佳,更適合嵌入式平臺(tái)應(yīng)用。

實(shí)驗(yàn)二:在Extended YaleB人臉數(shù)據(jù)集中選擇9種不同角度共252幅人臉圖像作為測試圖像,衡量三種不同人臉檢測模型的性能。

表4 三種人臉檢測模型在不同角度下的性能指標(biāo)(%)

可以看出,三種人臉檢測模型在人臉角度一致的前提下,基于Lw-YOLO模型檢測準(zhǔn)確率最佳比YOLO-LITE模型高4.59百分點(diǎn),漏檢率最低。其次是基于YOLOV3-tiny模型,誤檢率與Lw-YOLO模型相同,準(zhǔn)確率略低于改進(jìn)的模型。最后是YOLO-LITE模型,漏檢個(gè)數(shù)最多,準(zhǔn)確率最低。實(shí)驗(yàn)結(jié)果表明,基于Lw-YOLO人臉檢測模型相較于原始模型,檢測性能有明顯的提升,對(duì)不同角度魯棒性最強(qiáng)。三種模型對(duì)不同角度檢測效果如圖8-圖10所示。

(a) 仰視30度人臉(b) 俯視30度人臉(c) 側(cè)面45度人臉圖8 基于不同角度的YOLO-LITE人臉檢測方法效果示例

(a) 仰視30度人臉(b) 俯視30度人臉(c) 側(cè)面45度人臉圖9 基于不同角度的YOLOv3-tiny人臉檢測方法效果示例

(a) 仰視30度人臉(b) 俯視30度人臉(c) 側(cè)面45度人臉圖10 基于不同角度的Lw-YOLO人臉檢測方法效果示例

實(shí)驗(yàn)三:在Extended YaleB人臉數(shù)據(jù)集選擇64種共1 792幅不同角度光照環(huán)境下的正面人臉圖像作為測試圖像,衡量三種不同人臉檢測模型的性能。

如表5所示,三種人臉檢測模型在不同角度光照條件下有較好的檢測效果,其中基于YOLO-LITE的人臉檢測模型在64種光照條件下出現(xiàn)較多的漏檢,漏檢率比改進(jìn)的模型高11.94百分點(diǎn),準(zhǔn)確率最低。而改進(jìn)的Lw-YOLO模型在三者中準(zhǔn)確率最高,漏檢率和誤檢率都是最低,表明改進(jìn)的模型魯棒性較好,在光照條件不均勻的情況下,檢測精度更高。三種模型對(duì)不同光照檢測效果如圖11-圖13所示。

表5 三種人臉檢測模型在不同光照角度下的性能指標(biāo)(%)

(a) 上方45度光照(b) 下方30度光照(c) 側(cè)面95度光照?qǐng)D11 基于不同光照的YOLO-LITE人臉檢測方法效果示例

(a) 上方45度光照(b) 下方30度光照(c) 側(cè)面95度光照?qǐng)D12 基于不同光照的YOLOv3-tiny人臉檢測方法效果示例

(a) 上方45度光照(b) 下方30度光照(c) 側(cè)面95度光照?qǐng)D13 基于不同光照的Lw-YOLO人臉檢測方法效果示例

從上述3組實(shí)驗(yàn)結(jié)果可知,Lw-YOLO人臉檢測方法相較于原始方法,性能有了較大的提升,并且在多角度、不同光照條件下人臉數(shù)據(jù)集的評(píng)測中,基于Lw-YOLO人臉檢測模型的魯棒性、準(zhǔn)確性等性能表現(xiàn)綜合最優(yōu),更適合實(shí)際應(yīng)用場景下的人臉檢測。

4 結(jié) 語

本文設(shè)計(jì)一個(gè)基于深度可分離的輕量化人臉檢測網(wǎng)絡(luò),采用深度學(xué)習(xí)的方法,針對(duì)現(xiàn)有神經(jīng)網(wǎng)絡(luò)復(fù)雜、計(jì)算量大的缺點(diǎn),提出一種解決無GPU嵌入式平臺(tái)計(jì)算能力和內(nèi)存空間不足的人臉檢測網(wǎng)絡(luò)Lw-YOLO。該網(wǎng)絡(luò)將傳統(tǒng)卷積換成深度可分離卷積,顯著降低了網(wǎng)絡(luò)參數(shù)量,提高了嵌入式平臺(tái)的檢測效率。同時(shí)利用多個(gè)1×1的點(diǎn)卷積提升網(wǎng)絡(luò)深度,獲得更多的特征,最后使用多尺度預(yù)測方法提高網(wǎng)絡(luò)的檢測精度。網(wǎng)絡(luò)在WiderFace數(shù)據(jù)集的多次迭代訓(xùn)練,選擇最優(yōu)的權(quán)重,得到輕量化的人臉檢測網(wǎng)絡(luò),實(shí)驗(yàn)結(jié)果表明該網(wǎng)絡(luò)在樹莓派3B+嵌入式平臺(tái)上進(jìn)行人臉檢測,具有良好的檢測效果,在檢測速度和精度上大大提升,對(duì)實(shí)際場景下的人臉檢測有較好的應(yīng)用價(jià)值。

猜你喜歡
深度特征檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
深度理解一元一次方程
如何表達(dá)“特征”
不忠誠的四個(gè)特征
深度觀察
深度觀察
深度觀察
抓住特征巧觀察
主站蜘蛛池模板: 97人妻精品专区久久久久| 又大又硬又爽免费视频| 99久久精品免费看国产免费软件| 天堂中文在线资源| 欧美日本在线| 亚洲第一黄色网址| 婷婷在线网站| 91精品人妻一区二区| 久久久久国产精品熟女影院| 国产精品白浆在线播放| 999国产精品永久免费视频精品久久| 国产免费网址| 国产一区二区精品福利| 国产成人AV男人的天堂| 国产精品亚洲αv天堂无码| 天堂成人av| av天堂最新版在线| 久久香蕉国产线看观看亚洲片| 国产一级视频在线观看网站| 国产精品深爱在线| 青青操国产| 国产一级片网址| 青青青国产视频手机| 亚洲国产精品一区二区第一页免 | 亚洲中文字幕手机在线第一页| 99青青青精品视频在线| 久草中文网| 日韩不卡免费视频| 精品国产99久久| 乱系列中文字幕在线视频| 69免费在线视频| 国产成人亚洲毛片| 日本福利视频网站| 亚洲区视频在线观看| www.99精品视频在线播放| 久久亚洲美女精品国产精品| 亚洲精品国产自在现线最新| 毛片视频网| 亚洲天堂免费| 99精品一区二区免费视频| 97久久免费视频| 久久不卡国产精品无码| 一级毛片网| 手机成人午夜在线视频| 久久久波多野结衣av一区二区| 在线观看精品自拍视频| 不卡午夜视频| 精品国产Ⅴ无码大片在线观看81| 国产欧美日韩一区二区视频在线| 成人a免费α片在线视频网站| 丁香六月综合网| 国产精品性| 亚洲欧美精品日韩欧美| 亚洲国产看片基地久久1024| 狠狠五月天中文字幕| 无码中文AⅤ在线观看| 日韩黄色在线| 精品99在线观看| 黄色免费在线网址| 日本少妇又色又爽又高潮| 米奇精品一区二区三区| 不卡色老大久久综合网| 黄色网站在线观看无码| 精品久久777| 日日拍夜夜嗷嗷叫国产| 亚洲欧美精品在线| 97青青青国产在线播放| 亚洲日产2021三区在线| 少妇精品在线| 久久久精品国产SM调教网站| 91久久国产成人免费观看| 亚洲色图综合在线| 日韩AV手机在线观看蜜芽| 国产精品主播| 嫩草影院在线观看精品视频| 五月婷婷精品| 国产1区2区在线观看| 在线国产91| 日韩AV无码一区| a天堂视频| 激情综合网激情综合| 天堂av高清一区二区三区|