999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的加密網絡流量識別方法研究*

2021-01-26 04:00:34吉慶兵陳江濤
通信技術 2021年1期
關鍵詞:方法

吉慶兵,陳江濤,潘 煒

(1.中國電子科技集團公司第三十研究所,四川 成都 610041;2.西北工業大學網絡空間安全學院,陜西 西安 710072;3.西北工業大學計算機學院,陜西 西安 710072)

0 引言

隨著大眾網絡安全意識的穩步提升,對于數據保護的意識也愈加強烈。根據 Google 的報告,2019年10 月,Chrome 加載網頁中啟用加密的比例已經達到了95%[1]。對于特定類型的流量,加密甚至已成為法律的強制性要求,加密在保護隱私的同時也給網絡安全帶來了新的隱患。攻擊者將加密作為隱藏活動的工具,加密流量給攻擊者隱藏其命令與控制活動提供了可乘之機。在面臨日益嚴重的網絡安全威脅和攻擊時,需要提出有效的識別方法。實現加密流量精細化管理,保障計算機和終端設備安全運行,維護健康綠色的網絡環境。

1 相關研究

當前對于加密網絡流識別的研究主要集中在機器學習相關的方法上。使用機器學習方法對網絡流量進行解析時,按使用的機器學習算法不同可以分為傳統機器學習算法(淺層學習)和深度學習[2]。傳統機器學習算法對加密網絡流量解析主要存在兩個問題:一個是需要對待分類的報文人工設計一個可以普遍反映流量特征的特征集;另一個就是傳統機器學習方法有很大的局限性,例如對復雜函數難以表示、容易陷入局部最優解等。由于以上兩個原因,導致傳統機器學習方法對加密網絡流量解析的準確率不是很高。隨著計算方法的發展和計算能力的提高,深度學習的引入可以有效解決機器學習設計特征的問題。深度學習通過特征學習和分層特征提取的方法來替代手工獲取特征。深度神經網絡擁有很高的擬合能力,可以逼近許多復雜的函數,不易陷入局部最優解。解決了傳統機器學習在加密網絡流量解析時存在的兩個關鍵問題。

深度學習是基于表示學習的眾多機器學習算法中的一員。目前使用最多的深度學習方法包括DBN(Deep Belief Nets)、CNN(Convolutional Neural Networks)、深度自編碼器(AutoEncoder,AE)和循環神經網絡(Recurrent Neural Network,RNN)以及基于RNN 的長短期記憶網絡(Long Short-Term Memory,LSTM),近年來這些方法被廣泛地應用在加密流量解析中,并取得了不錯的成果。王偉[3]等人提出一種基于CNN 的異常流量檢測方法,該方法利用CNN 特征學習能力,準確地對流量的特征進行提取,將提取到的特征用于流量分類并取得了良好的結果,最終將該模型用于異常流量檢測。J.Ran[4]等人提出了一種將三維卷積神經網絡應用于無線網絡流量分類的方法,實驗結果表明該方法優于一維和二維卷積神經網絡。Jain[5]研究了由不同優化器訓練的卷積神經網絡對協議識別的影響,實驗結果表明,隨機梯度下降(Stochastic Gradient Descent,SGD)優化器產生的識別效果最好。陳雪嬌[6]等利用卷積神經網絡的識別準確率高和自主進行特征選擇的優勢,將其應用于加密流量的識別,測試結果表明該方法優于DPI 方法。王勇等[7]設計了基于 LeNet-5 深度卷積神經網絡的分類方法,通過不斷調整參數產生最優分類模型,測試結果表明該方法優于主成分分析、稀疏隨機映射等方法。Wu,Kehe[8]等人將網絡流量數據的121 個流統計特征作為數據集,并對比了一維和二維CNN 網絡、CNN網絡與傳統機器學習算法、CNN 網絡與RNN 網絡的分類準確性與計算量。J.Ren 等[9]提出了一種針對無線通信網絡的協議識別方法,首先利用一維卷積神經網絡進行自動化的特征提取,然后基于SVM對應用層協議進行分類。H.Lim[10]等提出了使用深度學習的基于數據包的網絡流量分類,該方法提取網絡會話中的前幾個數據包處理成等長的向量,然后利用CNN 和ResNet 進行訓練,進行流量分類。

在以往的基于深度學習的加密網絡流量解析研究中,數據預處理都是只針對原始的網絡流量數據進行變換處理[11],而忽略了數據包在傳輸過程中的時間特征。因此,在本研究中,將對加密網絡流量中的原始報文數據及數據包傳輸時間間隔進行綜合預處理,并采用CNN 網絡模型進行實驗驗證。

2 基于CNN 的加密網絡流量識別方法

本節將從流量采集、數據預處理、加密網絡流量識別模型等環節詳細介紹本文提出的基于深度學習的加密網絡流量解析方法。

2.1 流量采集

為了獲得更加接近實際使用場景下的網絡流量,我們在手機終端安裝了代理軟件,采集日常真實使用環境下的應用網絡流量,并按照應用名稱分別保存為不同的文件,共計14 類,16.81GB。

2.2 數據預處理

采集的網絡流量存儲為Pcap 格式的文件,該格式的文件除了流量數據外,還有該文件協議額外添加的其他信息,而這些信息有可能干擾分類結果。因此需要對該文件的格式進行解析,提取出有用的數據部分。

2.2.1 Pcap 格式介紹

Pcap 文件格式如圖1 所示,最開始的24 個字節為文件頭(Global Header),后面是抓取的包頭(Packet Header)和包數據(Packet Data)。此處的包頭為Pcap 文件格式的固定部分,描述了后面緊跟著的包數據的捕獲時間、捕獲長度等信息,原始網絡數據流量中不包含此部分信息。包數據為數據鏈路層到應用層的所有數據,包括每一層的包頭。

圖1 Pcap 文件格式

圖2 描述了Global Header 的具體內容以及每部分的長度。

圖2 Global Header 格式

每個字段的含義如下:

(1)Magic:4Byte,標記文件開始,并用來識別文件自己和字節順序。0xa1b2c3d4 用來表示按照原來的順序讀取,0xd4c3b2a1 表示下面的字節都要交換順序讀取。考慮到計算機內存的存儲結構,一般會采用0xd4c3b2a1,即所有字節都需要交換順序讀取。

(2)Major:2Byte,當前文件主要的版本號。

(3)Minor:2Byte,當前文件次要的版本號。

(4)ThisZone:4Byte,當地的標準時間。

(5)SigFigs:4Byte,時間戳的精度。

(6)SnapLen:4Byte,最大的存儲長度。

(7)LinkType:4Byte,數據鏈路類型。

圖3 描述了Packet Header 的具體內容以及每部分的長度。

圖3 Packet Header 格式

每個字段的含義如下:

(1)Timestamp:捕獲時間的高位,單位為秒。

(2)Timestamp:捕獲時間的低位,單位為微秒。

(3)Caplen:當前數據區的長度,單位為字節。

(4)Len:離線數據長度,網絡中實際數據幀的長度。

2.2.2 預處理方法

通過圖3 對Pcap 文件格式的介紹,我們發現,Pcap 文件中除了原始流量數據之外還有Global Header 和Packet Header 這兩部分原始數據流量中不存在的部分。因此,在接下來的數據處理環節中,我們將剔除這部分數據或者對這部分數據進行轉換。預處理流程如下:

首先對采集到的Pcap 文件按協議進行過濾,提取出經過加密的網絡流量,然后對提取出的流量按五元組進行劃分。劃分出來的每一個文件將在后續流程中轉化為一張圖片。對劃分出來的每一個Pcap 文件做如下處理。

設最后返回的字節數組為A,需要的長度為LEN。

(1)首先忽略前24 個字節。

(2)然后讀取16 個字節的Packet Header,將其中的時間轉換為整數,利用其中的捕獲長度讀取Packet data,忽略掉數據鏈路層和網絡層的包頭,將傳輸層的包頭和payload 加入字節數組A。

(3)如果不是第一個數據包,則利用本數據包的捕獲時間減去上一個數據包的捕獲時間,得到時間差Δt,利用本數據包的捕獲長度L 除以Δt,向上取整得到N,向字節數組A 中加入N 個0xFF 字節。

(4)重復(2)(3)直到文件尾,或者A 的長度大于等于LEN。

(5)若讀取到文件尾之前,A 的長度大于等于LEN,則截斷到LEN 返回;若讀到文件尾,A 的長度仍小于LEN,則在末尾填充0x00 直到長度為LEN。

(6)將A 數組轉化為長、寬相同的單通道灰度圖片。

最終將生成好的圖片存儲為TFRecoder 格式,以便于后面的實驗驗證。預處理后每種應用得到的圖片數目如圖4 所示。

圖4 每種應用的對應的圖片數量

2.3 加密網絡流量識別模型

本文采用了二維CNN 模型進行流量分類,為了對比不同輸入對實驗結果的影響,分別嘗試了圖片長寬為32、40、48、56、64,其中當長寬為32時效果最佳。下面介紹本文最終采用的CNN 模型。

在卷積神經網絡中,大尺寸的卷積核可以帶來更大的感受視野,獲取更多的信息,但也會產生更多的參數,從而增加網絡的復雜度[12]。為了減少模型的參數,本文采用兩個連續的3*3 卷積層來代替單個的5*5 卷積層,可以在保持感受視野范圍的同時減少參數量。卷積層的Padding 方式使用SAME 方式,激活函數使用RELU,每一層的參數如表1 所示。

表1 網絡模型參數

3 實驗與結果分析

為了對上述加密網絡流量識別模型進行驗證,采用TensorFlow 深度學習框架,在NVIDIA TESLA K80 上進行了實驗驗證。

3.1 評價指標

本文采用準確率(accuracy)、精準率(precision)、召回率(recall)和F1-Measure 值(以下簡稱F1 值)四個評價指標來對實驗結果進行評估,其中準確率是對整體的評價指標,精準率和召回率是用來對某種類別流量識別的評價指標,而F1 值是對于精準率和召回率兩個指標的綜合評估。為了計算這四個指標,需要引入TP、FP、FN、TN 四個參數,每個參數的意義如表2 混淆矩陣所示。

表2 混淆矩陣

每個指標的計算方法如公式(1)~(4)所示。

3.2 實驗結果

將處理好的數據按4:1 的比例分為訓練集和測試集,由于采集的數據不均衡,因此在訓練時對訓練數據采用過采樣的方法來縮小數據量之間的差異。采用了Adam 優化器和動態學習率來提高模型的訓練速度。最終訓練好的模型在測試集上的結果如表3 所示。

為了驗證在預處理階段引入時間間隔對模型準確率的影響,還做了一組對比實驗。對比實驗在預處理階段不對時間間隔做特殊處理,直接舍棄該字段,最終結果如表4 所示。可以看出,利用時間間隔可以有效提高分類結果的準確率。

表3 測試集結果

表4 不同預處理方式對應的實驗結果

4 結語

本文提出了一種基于深度學習的加密網絡流量識別方法,該方法對采集到的流量進行預處理,利用傳輸層數據及數據包之間的時間間隔,將時間間隔轉換為二進制數據中的特殊值,然后將解析后的數據轉換為灰度圖片,采用卷積神經網絡對采集到的14 類應用的加密流量進行分類,最終識別準確率為96.22%,可以滿足實際應用。后續研究將關注流量類型的甄別,即對每種應用流量中不同類型的流量進行識別,如視頻流量、文本流量、圖片流量等,進一步挖掘用戶行為。

猜你喜歡
方法
中醫特有的急救方法
中老年保健(2021年9期)2021-08-24 03:52:04
高中數學教學改革的方法
河北畫報(2021年2期)2021-05-25 02:07:46
化學反應多變幻 “虛擬”方法幫大忙
變快的方法
兒童繪本(2020年5期)2020-04-07 17:46:30
學習方法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
最有效的簡單方法
山東青年(2016年1期)2016-02-28 14:25:23
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 女人18一级毛片免费观看| av在线手机播放| 欧美啪啪视频免码| 午夜无码一区二区三区| 久久精品国产亚洲麻豆| 中文字幕乱码二三区免费| 婷婷开心中文字幕| 99免费在线观看视频| 青青草久久伊人| 极品私人尤物在线精品首页| 99视频在线免费看| 国产成人91精品免费网址在线| av在线人妻熟妇| 91青青草视频在线观看的| 亚洲女同欧美在线| 国产视频你懂得| 日本国产在线| 青青草一区| 亚洲天堂网2014| 99r在线精品视频在线播放| 天天躁日日躁狠狠躁中文字幕| 久久无码免费束人妻| 午夜视频免费一区二区在线看| 成人午夜精品一级毛片| 97无码免费人妻超级碰碰碰| 午夜日b视频| 在线色综合| 欧美在线视频不卡| 亚洲天堂久久新| 国产亚洲现在一区二区中文| 亚洲AV无码乱码在线观看代蜜桃| 97se亚洲综合不卡| 国产欧美日韩视频怡春院| 久久久91人妻无码精品蜜桃HD| 日韩视频福利| 亚洲青涩在线| 亚洲精品欧美日本中文字幕| 亚洲人成色77777在线观看| 精品少妇人妻av无码久久| 91丝袜乱伦| 女人一级毛片| 尤物国产在线| 欧美日本视频在线观看| 福利在线不卡| 亚洲国产日韩在线成人蜜芽| 午夜无码一区二区三区在线app| 伊人久久青草青青综合| 4虎影视国产在线观看精品| 国产成人91精品免费网址在线| 亚洲国产系列| 国产精品片在线观看手机版 | 草逼视频国产| 国产一区亚洲一区| 好吊色国产欧美日韩免费观看| 国产福利免费观看| 国产超薄肉色丝袜网站| 国产高潮视频在线观看| 久热精品免费| 国产二级毛片| 国产成人免费高清AⅤ| 毛片一级在线| 欧美午夜小视频| 国产啪在线| 小说 亚洲 无码 精品| 久久天天躁狠狠躁夜夜躁| 成人午夜免费观看| 在线观看无码av五月花| 老司国产精品视频91| 国产人人乐人人爱| 亚洲欧美国产视频| 成年免费在线观看| 久精品色妇丰满人妻| 狠狠色成人综合首页| 国产亚洲高清视频| 天天干天天色综合网| 99精品在线视频观看| 四虎成人精品| 国产一区自拍视频| 中文天堂在线视频| 美女毛片在线| 精品精品国产高清A毛片| 亚洲成人在线免费|