999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于并行空時深度學習網絡的無設備身份識別方法

2022-03-18 06:15:26唐智靈楊愛文
計算機應用與軟件 2022年3期
關鍵詞:特征提取特征模型

唐智靈 楊愛文

(桂林電子科技大學信息與通信學院 廣西 桂林 541004)

0 引 言

針對人員的身份識別問題,如何以更便攜的方式獲取更準確的識別精度成為當前研究的熱點。現有的研究利用可穿戴傳感器[1]、攝像頭[2]、人體鞏膜特征[3]等實現身份識別,這些方法存在設備昂貴、不易攜帶、靈活性差等問題。隨著無線產業的發展,利用無線信號以無設備的方式實現身份感知正發展為一種新興技術。當一個人在無線網絡附近時,將會對周圍的無線信號產生影響,對信號產生的影響進行深入分析可以獲取有用的信息,例如人的活動信息[4]、跌倒檢測[5],甚至生理特征。已有研究利用Wi-Fi信道狀態信息以無設備的方式實現用戶身份識別。文獻[6]利用帶低濾波器和峰谷檢測算法獲取CSI中人員每一步的波形特性,通過決策樹分類器實現身份分類識別。文獻[7]利用主成分分析法PCA(Principal Components Analysis)和離散小波變換DWT(Discrete Wavelet Transform)壓縮CSI波形特征,通過K近鄰算法實現身份分類識別。文獻[8]利用PCA和隱形馬爾可夫模型對CSI特征進行初步分類,通過支持向量機實現身份分類識別。文獻[9]利用PCA和低通濾波器獲取CSI特征,通過支持向量機實現身份分類識別。但上述使用機器學習分類器的身份識別方法在數據預處理階段需要手動提取CSI的波形特征,操作復雜并且無法細膩地提取射頻信號中隱含的生物特征代表性模式,這些方法只能在2~10人中實現最高93%的身份識別率。隨著深度神經網絡的快速發展,深度神經網絡不但可以處理更加龐大的樣本數量,其強大的特征提取能力在模式識別方面也表現良好。先進的研究利用PCA算法獲取CSI波形前354個特征向量作為人員身份特征,通過23層卷積神經網絡CNN(Convolutional Neural Network)實現人員身份特征提取和識別[10],可在大樣本24個人中實現89.9%的身份識別精度。該方法使用卷積神經網絡雖然可以自動提取樣本的空間特征,但卷積神經網絡具有平移不變性,會將CSI時間序列中不同位置的相同特征視為同種步態特征,其并未考慮不同步態特征發生的先后順序。CSI數據記錄的是某段時間內人體活動對無線信號的擾動,其樣本特征與時間有關,所以單單使用卷積神經網絡無法充分提取CSI中隱藏的生物表示特征。

為了有效解決現有研究存在的特征提取操作復雜和特征提取不足的問題,本文提出一種基于并行空時深度網絡的身份識別方法。首先使用鄰式均值插補對采集到CSI樣本進行校準,然后使用小波變換提取CSI樣本中由于人員步態誘發的射頻特征,最后設計了一個稱為WiD的并行深度學習模型。該模型將卷積神經網絡與雙向長短期記憶網絡相結合,自動從預處理后的CSI樣本中提取人員步態特征大小及發生的先后順序,融合兩種步態特征細膩地表示人員身份特征。實驗結果表明,在未明顯增加時間代價和空間代價的前提下,該方法可以在30個人中達到最高98.7%的身份識別精度。

1 信道狀態信息

信道狀態信息(CSI)是在正交頻分復用(Orthogonal Frequency Division Multiplexing,OFDM)技術中作為對信道狀態的估計。隨著Wi-Fi采用OFDM技術,幾乎在所有的Wi-Fi設備上都有獲取到CSI信息的潛力。對于每一條天線鏈路的每一個子載波具有相應的CSI值對應。假設發送端天線數目為Nt,接收端天線數目為Nr,子載波個數為m,那么每一次接收都能獲得一個大小為Nr×Nt×m的CSI矩陣。該CSI矩陣描述了無線信號如何從發送設備到達接收設備,CSI中的子載波包含了不同天線對在傳輸時的幅值和相位信息,其記錄了無線信號在空間傳輸的散射、衰落、功率衰減與距離、陰影等信息,可由如下模型表示:

y=Hx+n

(1)

式中:y為接收端信號;x為發送端信號;H為信道矩陣;n為噪聲向量。噪聲可以表示為n∈N(0,S),所以可以估計出:

(2)

信道狀態信息就是對H的估計,對于第K個子載波,CSI可以表示為:

(3)

2 基于并行特征提取的WiD模型

WiD模型包括空間特征提取分支和時間特征提取分支,它的結構如圖1所示。WiD模型的空間特征提取分支先使用像素轉置卷積網絡Pconv1D(pixel transposed convolutional network)[11]對CSI時間序列樣本進行像素級特征學習,同時建立輸出映射與相鄰元素的依賴關系,最后使用卷積神經網絡對像素轉置卷積的輸出進行空間特征提取。WiD模型的時間特征提取分支使用BiLSTM來對CSI時間序列進行雙向特征學習,這將充分挖掘CSI數據中人員動作的前后信息來描述身份特征。通過提取CSI數據中包含的空間特征表示和時間特征表示,將其結合到一起可以更細膩地描述人員的生物特征表示。

圖1 WiD模型構架

2.1 數據預處理

數據預處理包括鄰式均值插補、小波去噪、數據標準化三部分。通過數據預處理對測量的CSI數據進行缺失值插補并去除環境噪聲,最后將CSI數據規范成深度學習網絡方便處理的類型。

2.1.1鄰式均值插補

2.1.2小波去噪

在復雜的室內環境中,原始CSI數據中存在許多噪聲。其他射頻設備的干擾、多徑效應和傳輸功率的變化等會在CSI數據中引入高頻噪聲和突發噪聲??紤]到身體各部分運動速度不一樣,傳統的低通濾波器提取則會損失很多細節[12]。由于CSI信號是非平穩信號,它是時間上的離散采樣信號,所以本文使用DWT來分解CSI中不同尺度的信號,提取人員活動的低頻信息。小波變換將數據信息集中在較大的小波系數中,將噪聲信息集中在較小的小波系數中。本文采用離散小波變換對在Donoho等[13]的通用閾值和級別為3的水平相關閾值下對每個CSI樣本進行去噪。沒有人員入侵時的CSI波形如圖2所示,有人員入侵時的CSI幅值和頻譜圖如圖3所示,小波變換后的CSI幅值和頻譜圖如圖4所示。

圖2 沒有人員入侵時的CSI子載波幅值

(a) 小波變換前的波形圖

(a) 小波變換后的波形圖

由圖3和圖4可知小波去噪前的波形頻率最高達到3 000~4 000 Hz,存在大量的環境噪聲,小波變換后的波形頻率在500 Hz以內,表示人員行走的正常頻率[12]。

2.1.3數據標準化

因為同一個特征在不同樣本中的取值可能相差大,所以一些異常小或異常大的數據會誤導模型的正確訓練,如果數據的分布很分散也會影響訓練結果。這都會造成較大的方差,本文使用機器學習的StandardScaler函數對樣本進行基于特征值的均值和標準差的數據標準化,即轉換為均值為0、標準差為1的正態分布。它的計算公式為:

(4)

式中:XST表示標準化后的數據;Xi表示第i個樣本數據;μ表示樣本的均值;σ表示樣本的標準差。將數據轉換為正態分布不僅可以消除CSI環境中的靜態信息,還可以減少培訓時間、提高模型性能。

2.2 空間特征提取分支

空間特征提取分支包含像素轉置卷積網絡和卷積神經網絡。像素轉置卷積層可以對數據進行像素級別的特征表示同時建立與相鄰元素的依賴關系[11],這將充分挖掘預處理后CSI數據間存在的隱藏時間關系。像素轉置卷積層順序生成中間特征圖,即后續生成的中間特征映射需要依賴于先前生成的映射,這使它能夠加強中間特征圖之間的依賴關系,從而在最終輸出特征圖中添加相鄰像素之間的依賴關系。最終輸出特征圖時中間特征圖的組合形式,其公式表達為:

F1=Fin*k1

F2=[Fin,F1]*k2

Fi=[Fin,F1,F2,…,Fi-1]*ki

Fn=[Fin,F1,F2,…,Fi,…,Fn-1]*kn

Fout=F1⊕F2…⊕Fi…⊕Fn

(5)

式中:Fin代表輸入數據;Fout代表輸出特征映射,*表示卷積運算;[·,·]表示像素的并置;ki(i=1,2,…,n)表示一組卷積內核;⊕表示對每個像素的特征映射進行周期性的打亂和組合運算;Fi(i=1,2,…,n)是由對應的卷積核ki生成的中間特征圖。

通過CNN對像素轉置卷積輸出的特征映射進行學習,每層CNN中間都使用最大池化層(Maxpool)和損失層(Dropout),并在ReLU非線性激活函數前使用批量正則化層BN(Batch Normalization)對樣本進行批量正則化操作,最后通過全局平均池化(Global_Average_Pooling)輸出一維數據。BN層讓深度學習模型在訓練過程中使得每一層神經網絡的輸出保持相同分布,這樣可以避免梯度消失并且加快訓練速度。樣本經過該分支學習后得到的CSI特征表示如下:

F=[F1,F2,…,Fi,…,F128]

(6)

式中:F代表卷積網絡層的輸出;Fi代表空間特征。

2.3 時間特征提取分支

由于LSTM模型只能正向處理CSI數據,而CSI數據中未來的信息對于確定步態的先后順序也至關重要。例如左腿和右腿邁出的步伐都會被識別為特征,但兩種特征的最終位置是不同的,因此本方法利用雙向長短期記憶網絡BiLSTM(Bidirectional Long-Short-Term Memory Network)從CSI中學習有效步態特征。BiLSTM由兩層LSTM組成,它包含前向傳播層和后向傳播層如圖5所示。

圖5 雙向LSTM網絡結構

(7)

BiLSTM網絡可以在前向和后向上處理CSI序列,從而產生更豐富的動作特征,這將給更重要的特征和時間步長分配更大的權重,并為人類活動識別提供更優異的性能。利用BiLSTM網絡,CSI序列的過去和未來依賴的信息都被認為是用于識別人類活動序列的信息。樣本經過該分支學習后得到的CSI特征表示如下:

B=[B1,B2,…,Bi,…,B256]

(8)

式中:B代表BiLSTM網絡的輸出;Bi代表時間特征信息。

2.4 模型輸出

空間特征提取分支對CSI數據提取的特征表示為F=[F1,F2,…,F128],時間特征提取分支對CSI數據學習后得到的特征表示為B=[B1,B2,…,B256]。Concat層將特征表示F和特征表示B聯合起來表示為:

E=[F1,F2,…,F128,B1,B2,…,B256]

(9)

具體網絡結構如圖6所示。

圖6 模型輸出網絡

(10)

式中:Z表示輸入向量的元素;D表示輸入向量元素的總數。

具有最大概率值的dmax就是第i個CSI樣本的預測類,其表示為:

(11)

上述分類器稱為Softmax分類器。WiD模型訓練數據后通過最小化交叉熵損失函數(categorical_crossentropy)來最大化其分類精度,表示為:

(12)

式中:當且僅當第i個樣本屬于d類時tid為1;N為每批次訓練的樣本個數。

3 實 驗

3.1 實驗環境

本文采用Intel 5300無線網卡作為工控板的數據接收器,TP-Link路由器作為數據發送器,其中發射天線(Nt)和接收天線(Nr)的個數都為1。實驗所用的Intel 5300無線網卡有三個通道寬度,我們獲得30個子載波信息,所以實驗獲得CSI矩陣大小為1×1×30。實驗環境為典型的室內實驗環境,Nt和Nr在視距條件下相距2 m,采樣頻率為1 000 Hz,采樣時間為3 s,每次獲得的子載波序列長度為3 000。實驗人員從A走到B,記錄下CSI數據后開始下一次實驗,實驗場景如圖7所示。

(a) CSI數據采集環境 (b) 數據采集環境細節圖7 實驗場景

3.2 數據收集和訓練細節

數據集包括30個人,每個人采集45個實驗樣本,每個實驗樣本的CSI矩陣大小為(3 000,30)。本實驗將CSI矩陣的每列子載波作為一個樣本,所以每人45個樣本擴展成為1 350個樣本,30個人一共獲得40 500組樣本實例,每個樣本大小為(3 000,1)。

樣本數據中70%劃分為訓練數據集,30%為驗證數據集。由于數據樣本較多,Dropout層參數設置為0.6,即每個Dropout層要丟棄60%的神經元。實驗在模型編譯時使用amsgrad優化算法[14],因為amsgrad可以優化Adam后期不收斂問題,而且可以快速接近SGD的收斂值。模型每個訓練批次樣本數為128,訓練了100個批次,采用5折交叉驗證。

3.3 仿真結果與討論

為了展示本文方法在處理CSI樣本上的優異性,實驗對比了文獻[10]中使用的CNN特征提取方法與本文方法在處理相同數據上的識別精度與模型復雜度。

3.3.1識別精度

訓練準確度和測試準確度是衡量模型優異性的兩個基本評估指標,訓練準確度是訓練集中樣本的正確預測百分比。測試準確度來自樣本測試集的正確識別率,但測試集不能用于更新模型的權重,這使測試準確度能夠衡量模型在處理未知數據的性能。

(13)

(14)

由圖8可知,兩種模型在測試集上都達到了100%的識別精度,但CNN模型在訓練集上只達到了93.2%的識別精度,WiD模型在訓練集上達到了98.7%的識別精度。因為CNN模型只能提取CSI樣本中人員步態的空間特征信息,不同位置相同大小的步態特征會被CNN認為是同種特征。WiD模型可利用CNN分支提取人員的步態大小,利用BiLSTM分支提取不同大小的步態發生的先后順序,從而獲取更細膩的步態特征表示。

圖8 模型識別精度對比

3.3.2損失函數

損失函數是用來估量模型的預測值與真實值的不一致程度,是衡量模型魯棒性的指標,損失函數越小表明模型的魯棒性越好。

由圖9可知,CNN模型在訓練40批次左右時基本收斂,WiD模型在訓練30批次左右時基本收斂,說明WiD模型有更好的魯棒性。

圖9 模型損失函數對比

3.3.3時間和空間代價

實驗在Linux 18.04系統上使用Python框架下的memory_profiler方法對比了兩種方法在處理相同數據集上的時間代價和空間代價,其中系統顯卡配置為1060-6 GB,4 GB運行內存,具體對比如圖10所示。

(a) CNN方法空間時間代價(b) WiD方法空間時間代價圖10 空間時間代價對比

可以看出,基于CNN的特征提取方法的最大時間復雜度約為1 426 s,最大空間復雜度約為2 061 MB;基于WiD的特征提取方法的最大時間復雜度約為1 646 s,最大空間復雜度約為2 210 MB。本文方法相比于CNN特征提取方法,空間復雜度增加7.2%,時間復雜度增加15.4%。因為WiD模型使用并行網絡進行特征提取,樣本需要同時在兩個分支進行訓練,再融合不同分支的特征表示人員步態特征,而CNN模型使用串行網絡訓練樣本,時間與空間代價相對較低。

3.3.4混淆矩陣

混淆矩陣用于更好地了解模型在對特定類別的數據進行分類時的優異程度?;煜仃嚢膫€度量真陽性(TP)、真陰性(TN)、假陽性(FP)和假陰性(FN)。其中,TP是預測為正例的正樣本數量;TN是預測為反例的負樣本數量;FP是預測為正例的負樣本數量;FN是預測為反例的正樣本數量?;煜仃嚨膶蔷€表示正確識別率,上三角區域和下三角區域表示錯誤識別率。

圖11展示了WiD模型生成的混淆矩陣,右側條狀柱從下到上顏色逐漸加深,顏色越深表示預測標簽的準確度越大。在混淆矩陣中,30個人的步態樣本表示為Pi,其中i∈1,2,…,30。主對角線大部分趨向于1,上三角區域和下三角區域只出現少數識別誤差,表明模型具有良好的識別精度。

圖11 混淆矩陣

4 結 語

本文改進現有身份識別方法存在的不足,提出基于并行空時深度網絡的無設備身份識別方法。該方法采用一系列數據預處理方案,對嘈雜和錯誤的CSI數據樣本進行校準和去噪,提取人員步態誘發的射頻特征。然后利用空時深度神經網絡WiD充分感知人員動作出現的時間和大小,并將兩者結合作為人員身份的細膩特征表示。與現有的身份識別方法相比,在未明顯提升模型時間和空間代價的條件下,本文方法獲取了更高的識別精度和模型魯棒性。但本實驗只考慮了單個實驗環境的身份識別,在后續的工作中將探究不同環境下的不同生物特征(如身高、體脂率、含骨率等)對Wi-Fi身份識別的影響,進一步提高該模型的魯棒性及實用性。

猜你喜歡
特征提取特征模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
3D打印中的模型分割與打包
基于MED和循環域解調的多故障特征提取
主站蜘蛛池模板: 1级黄色毛片| 最新亚洲人成无码网站欣赏网| 一区二区日韩国产精久久| 成人av手机在线观看| 日韩123欧美字幕| 亚洲综合狠狠| 亚洲黄网在线| 精品国产Av电影无码久久久| 国产精品九九视频| 国产SUV精品一区二区| 色噜噜综合网| 久久天天躁夜夜躁狠狠| 国产午夜无码片在线观看网站| а∨天堂一区中文字幕| 草逼视频国产| 国产成人你懂的在线观看| 国产精品欧美激情| 四虎永久在线精品影院| 久久精品午夜视频| 色综合手机在线| 国产精选自拍| 国产欧美在线观看一区| 波多野结衣中文字幕一区| 国产成人禁片在线观看| 无码日韩精品91超碰| 久久久噜噜噜| 毛片网站观看| 亚洲国产综合精品中文第一| 男女男免费视频网站国产| 国产va视频| 免费毛片全部不收费的| 青青久久91| 亚洲第一天堂无码专区| 精品人妻无码区在线视频| 又污又黄又无遮挡网站| 国产美女精品在线| 日韩中文无码av超清| 国产精品刺激对白在线| 亚洲欧美日韩天堂| 国产精品福利尤物youwu| 国产激爽大片高清在线观看| 亚洲一区二区三区中文字幕5566| 999国内精品久久免费视频| 免费xxxxx在线观看网站| 中日韩一区二区三区中文免费视频| 一级香蕉人体视频| 日本午夜在线视频| 色偷偷av男人的天堂不卡| 99视频在线看| 麻豆国产原创视频在线播放 | 伊人查蕉在线观看国产精品| 直接黄91麻豆网站| 亚洲视频影院| 亚洲伊人久久精品影院| 五月激情综合网| h视频在线播放| 一区二区三区四区精品视频| 99久久成人国产精品免费| 国产在线视频欧美亚综合| 五月天天天色| 亚洲中文字幕日产无码2021| 国产精品视频观看裸模| 国产成人综合日韩精品无码首页| 欧美午夜理伦三级在线观看| 无码日韩精品91超碰| 无码中字出轨中文人妻中文中| 久久国产亚洲欧美日韩精品| 亚洲婷婷六月| 人妻少妇久久久久久97人妻| 71pao成人国产永久免费视频| 国产一区二区三区免费观看 | 秘书高跟黑色丝袜国产91在线| 亚洲成人高清无码| 日韩无码黄色| 日韩av在线直播| 中文字幕啪啪| 成人国产小视频| 亚洲国产欧美目韩成人综合| 日本道中文字幕久久一区| 色AV色 综合网站| 国产精品亚洲片在线va| 青青操视频免费观看|