999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡的固體火箭發(fā)動機內(nèi)彈道參數(shù)辨識①

2022-07-11 09:37:02孫瑞陽牛鈺森張曼曼強新偉
固體火箭技術(shù) 2022年3期

孫瑞陽,姜 毅,牛鈺森,張曼曼,強新偉

(1.北京理工大學 宇航學院,北京 100081;2.中國船舶集團公司713所,鄭州 450015)

0 引言

考慮到經(jīng)濟、環(huán)保等因素,判斷長期貯存的固體推進劑各項參數(shù)是否滿足發(fā)動機使用要求具有重要意義。由于實驗測量過程較為繁瑣、資源消耗較大,常用數(shù)值模擬方法進行固體火箭發(fā)動機內(nèi)彈道參數(shù)辨識。莊建華等基于拉丁超立方設計(LHD)的方法對內(nèi)彈道模型中的燃速系數(shù)、壓強指數(shù)及侵蝕燃燒模型參數(shù)進行辨識;郭風華等使用有限元軟件進行仿真計算,同時與實驗結(jié)果對比;魏瀚、范健等采用CAD實體造型法,通過訪問幾何造型平臺內(nèi)核來計算燃面-肉厚關(guān)系,帶入內(nèi)彈道驗證計算;張小平、王曉鋒等利用神經(jīng)網(wǎng)絡預示推進劑燃燒性能變化規(guī)律;樊超等基于遺傳算法,利用固體火箭發(fā)動機燃速模型和喉徑變化模型進行參數(shù)辨識;褚佑彪等用殘值函數(shù)法模擬出了變?nèi)妓偎幹娜济嫱埔七^程,分析了高低燃速推進劑交界面的位置對藥柱燃面演化過程和內(nèi)彈道的影響。然而,針對長期貯存的固體推進劑,眾多學者大都依靠數(shù)學公式或隱藏層較少的神經(jīng)網(wǎng)絡進行推導求解,這些方法的本質(zhì)均是將壓強隨時間變化的離散數(shù)值點進行迭代,存在效率低、計算成本高、模型不易收斂、準確率低等缺陷。因此,依然需要一種適合工程應用、資源消耗小,同時準確率高的方法來求解固體推進劑重要參數(shù)。

根據(jù)現(xiàn)有內(nèi)彈道參數(shù)辨識技術(shù)結(jié)合卷積神經(jīng)網(wǎng)絡,本文提出一種基于卷積神經(jīng)網(wǎng)絡的固體火箭推進劑參數(shù)辨識方法。首先,將燃速系數(shù)和壓強指數(shù)帶入固體火箭發(fā)動機內(nèi)彈道程序中,根據(jù)變化參數(shù)的數(shù)量,對應生成若干張壓強-時間曲線圖像,以此作為卷積神經(jīng)網(wǎng)絡訓練樣本集;然后,通過卷積神經(jīng)網(wǎng)絡對樣本集訓練,獲得卷積神經(jīng)網(wǎng)絡模型;最后,將此模型帶入卷積神經(jīng)網(wǎng)絡辨識程序,獲得內(nèi)彈道燃速系數(shù)和壓強指數(shù),從而計算得到對應壓強下的辨識燃速。該方法可以較為準確地獲得燃速結(jié)果,不存在迭代算法中發(fā)散的問題,且誤差控制在1%以內(nèi)。

1 辨識模型

基于經(jīng)典AlexNet網(wǎng)絡,設計針對固體火箭發(fā)動機內(nèi)彈道參數(shù)辨識卷積神經(jīng)網(wǎng)絡,本章節(jié)詳細介紹完成該任務的辨識流程及采用的網(wǎng)絡框架結(jié)構(gòu)。

1.1 辨識流程

參數(shù)辨識流程如圖1所示。

圖1 內(nèi)彈道參數(shù)辨識流程Fig.1 Identification process of internal ballistic parameters

主要流程:

(1)基于卷積神經(jīng)網(wǎng)絡中經(jīng)典的AlexNet訓練模型的連接層及參數(shù),將推進劑的對應參數(shù)輸入固體火箭發(fā)動機內(nèi)彈道程序中,程序基于固體火箭發(fā)動機零維內(nèi)彈道,其計算公式如下:

(1)

式中為燃氣密度;為時間;為燃燒室容積;為推進劑密度;為燃面面積;為燃速;為噴管喉部的質(zhì)量流量;為燃燒室內(nèi)溫度;為燃燒室內(nèi)生成氣體的總質(zhì)量;為推進劑絕熱燃燒溫度;為燃燒室內(nèi)壓強;為氣體常數(shù);為燃速系數(shù);為燃速壓強指數(shù)。

通過計算得到的離散點集,判斷該內(nèi)彈道模型是否與實驗內(nèi)彈道模型一致。

(2)待模型校對一致后,通過改變固體火箭發(fā)動機內(nèi)彈道的兩參數(shù)——燃速系數(shù)和壓強指數(shù),生成若干組壓強-時間的離散點集,并繪制曲線,生成圖像集(生成的圖像采用位圖文件存儲格式,其具體存儲形式為每一個像素點存儲3個8位十六進制數(shù))。

(3)將圖像集輸入卷積神經(jīng)網(wǎng)絡中進行訓練,生成卷積神經(jīng)網(wǎng)絡。

(4)將實驗圖像帶入訓練模型中,獲得燃速系數(shù)和壓強指數(shù)。

(5)根據(jù)辨識得到的燃速系數(shù)和壓強指數(shù)值帶入固體火箭發(fā)動機內(nèi)彈道程序中進行正向計算,判斷誤差是否滿足要求:若誤差不滿足要求,則根據(jù)圖像特征修改卷積神經(jīng)網(wǎng)絡模型中的參數(shù),再次進行神經(jīng)網(wǎng)絡的訓練;若誤差滿足要求,則可確定卷積神經(jīng)網(wǎng)絡的參數(shù),由此生成了有針對性的固體火箭發(fā)動機內(nèi)彈道參數(shù)辨識卷積神經(jīng)網(wǎng)絡及訓練模型。

1.2 卷積神經(jīng)網(wǎng)絡結(jié)構(gòu)設計

1.2.1 輸入層

整個網(wǎng)絡的輸入,一般代表了一張圖片的像素矩陣。圖2中最左側(cè)三維矩陣代表一張輸入的圖片,三維矩陣的長、寬代表了圖像的大小,而三維矩陣的深度代表了圖像的色彩通道(channel)。在本模型中,輸入層(input)是選定辨識參數(shù)后,通過內(nèi)彈道計算得到的若干張內(nèi)彈道壓強-時間曲線圖像(每張圖像的燃速系數(shù)和壓強指數(shù)不相同),每張均為227×227像素、RGB 色彩模式,在該模式下圖像的辨識深度為3。

圖2 AlexNet構(gòu)架Fig.2 The AlexNet architecture

1.2.2 卷積層

卷積層(convolutional layer,Conv)是所有類型的卷積神經(jīng)網(wǎng)絡中最為重要的部分。與全連接層不同,這一層由可學習的過濾器組成。卷積層中每一個節(jié)點的輸入只是上一層神經(jīng)網(wǎng)絡中的一小塊,通過卷積層處理過的節(jié)點矩陣會變得更深。

卷積層中一個神經(jīng)元的輸出可以通過如下公式計算:

(2)

式中,,為當前卷積層第個特征圖中行列的神經(jīng)元的輸出;和為垂直和水平步長;為接收域的寬和高;為前一層特征圖的數(shù)目;′,′,′為下一層第′個特征圖或通道中′行′列神經(jīng)元的輸出;為一層中第個特征圖的偏移項,可以調(diào)整特征圖的亮度;,,′,為一層第個特征圖中任意一個與其輸入層第′個特征圖中位于行列的神經(jīng)元(依賴于一層神經(jīng)元的接收域)之間的連接權(quán)重。

1.2.3 歸一化層

歸一化層(batch normalization,BN)是對一個小批處理中的每個輸入通道進行規(guī)范化。為了加快卷積神經(jīng)網(wǎng)絡的訓練速度,降低對網(wǎng)絡初始化的敏感性,主要在卷積層和非線性層之間使用。

(3)

(4)

其中,偏移量和尺度因子是可學習的參數(shù),在網(wǎng)絡訓練過程中不斷更新。

1.2.4 激活函數(shù)

激活函數(shù)(ReLU)的作用是增加了神經(jīng)網(wǎng)絡各層之間的非線性關(guān)系。在本文辨識模型中,使用ReLU激活函數(shù),其主要優(yōu)勢為:對于線性函數(shù)而言,ReLU的表達能力更強,尤其體現(xiàn)在深度網(wǎng)絡中;而對于非線性函數(shù)而言,ReLU由于非負區(qū)間的梯度為常數(shù),因此不存在梯度消失問題(Vanishing Gradient Problem),使得模型的收斂速度維持在一個穩(wěn)定狀態(tài)。

ReLU層對輸入的每個元素執(zhí)行閾值操作,其中任何小于零的值都被設為零:

(5)

圖3 ReLU函數(shù)作用示意圖Fig.3 Diagram of ReLU function

1.2.5 池化層

池化層(maxpool layer)通常跟隨在卷積層后,通過池化層,可以進一步縮小最后一個全連接層中節(jié)點的個數(shù),從而到達減少整個神經(jīng)網(wǎng)絡參數(shù)的目的。

池化層可以非常有效地縮小矩陣的尺寸(主要減少矩陣的長和寬,一般不會去減少矩陣深度),從而減少最后全連接層中的參數(shù)。使用池化層既可以加快計算速度,也可以有效防止過擬合問題。

1.2.6 全連接層

全連接層(fully connected layers,F(xiàn)C)是對前層是全連接的全連接層轉(zhuǎn)化為卷積核為1×1的卷積,前層是卷積層的全連接層可以轉(zhuǎn)化為卷積核為×的全局卷積,和分別為前層卷積結(jié)果的高和寬。在經(jīng)典的卷積神經(jīng)網(wǎng)絡中,F(xiàn)C層的參數(shù)占總參數(shù)的絕大部分,因為全連接層的每一個結(jié)點都與上一層的所有結(jié)點相連,需要把前邊提取到的特征綜合起來。本次參數(shù)辨識需要獲得輸入圖片對應的輸出參數(shù),因此最后一個全連接層僅需要2層參數(shù),這大大減小了全連接層參數(shù)的數(shù)量,提高了整個神經(jīng)網(wǎng)絡訓練效率。

1.2.7 防止過擬合層(dropout layer)

在全連接層訓練過程中,由于全連接層的每一個結(jié)點都與上一層的所有結(jié)點相連,一方面會導致神經(jīng)網(wǎng)絡訓練費時,另一方面也會使訓練結(jié)果過擬合。為解決上述問題,在訓練過程中用“Dropout”(棄權(quán))方法改善過擬合情況,有效地避免了因訓練樣本不足而導致的網(wǎng)絡過擬合現(xiàn)象。

(a)Standard neural net (b)After applying dropout圖4 Dropout層作用示意圖Fig.4 Schematic of the Dropout layer

1.2.8 損失函數(shù)

為確定卷積神經(jīng)網(wǎng)絡模型性能,需設置損失函數(shù)進行評判。任何機器學習模型的目標都是通過訓練使損失函數(shù)的值最小化,尤其是在預測模型更接近已知數(shù)據(jù)集的時候。該辨識模型所考慮的損失函數(shù)是如下所示的均方誤差,這是典型的回歸問題:

(6)

式中和()分別為第個樣本的真實值和預測值;為樣本個數(shù)。

本文使用的卷積神經(jīng)網(wǎng)絡模型共設置1000個迭代步,即損失函數(shù)對辨識模型進行1000次整體修正。

2 實驗結(jié)果及分析

為檢驗AlexNet網(wǎng)絡性能是否改進,結(jié)合實驗結(jié)果,將壓強-時間曲線圖像通過改進AlexNet網(wǎng)絡進行訓練,并根據(jù)結(jié)果準確率進行分析。

2.1 數(shù)據(jù)集

通過建立的固體火箭發(fā)動機內(nèi)彈道程序,設置不同的燃速系數(shù)和壓強指數(shù),得到若干張如圖5所示的壓強-時間曲線圖像(該內(nèi)彈道為測試單根藥柱的燃燒性能而設計,故最大壓強和最小壓強差值較大)。燃速系數(shù)和壓強指數(shù)取值范圍根據(jù)推進劑出廠時提供的參數(shù)范圍確定。

樣本點的范圍確定后,即明確燃速系數(shù)和壓強指數(shù)的取值范圍之后,需將燃速系數(shù)和壓強指數(shù)值通過拉丁超立方隨機采樣的方法進行隨機組合,從而確定生成圖像的樣本點。由于該樣本區(qū)間較大,導致生成的壓強-時間曲線圖像的時間范圍和壓強范圍較大,從而影響辨識結(jié)果精度。為解決該問題,在采樣區(qū)間選擇一定燃速范圍內(nèi)的樣本點對應的燃速系數(shù)和壓強指數(shù)生成壓強-時間曲線圖像,其采樣結(jié)果如圖6所示。

圖5 壓強-時間曲線Fig.5 Pressure-time curve graph

圖6 拉丁超立方采樣結(jié)果Fig.6 Latin hypercube sampling results

2.2 曲線處理

由于實際燃燒過程中初始階段可能存在侵蝕燃燒,結(jié)尾段裝藥不均可能導致燃燒速率低于理論值等隨機情況,均無法通過理論分析準確預估。為保證結(jié)果的準確性,決定選取穩(wěn)定上升段的壓強-時間曲線圖像進行辨識,從而消除實驗的壓強-時間曲線圖像中上升段和拖尾段的圖像與理論不符從而影響運算誤差的情況。在本實驗中,選取0.1~0.4 s,4~11 MPa的圖像生成樣本集,如圖7所示。

2.3 圖像增強

在卷積神經(jīng)網(wǎng)絡訓練之前,需要對生成的曲線進行圖像增強,以獲得神經(jīng)網(wǎng)絡可識別明顯特征的圖像信息。本實驗中,對圖像進行隨機旋轉(zhuǎn)和隨機平移,有目的地強調(diào)圖像的整體或局部特性,將原來不清晰的圖像變得清晰或強調(diào)某些感興趣的特征,擴大圖像中不同物體特征間的差別,抑制不感興趣的特征,從而改善圖像質(zhì)量、豐富信息量,加強圖像判讀和識別效果。

計算模型所設置的參數(shù)為圖像隨機旋轉(zhuǎn)-20°~20°之間,沿軸及軸方向均隨機平移0~6像素。圖像增強處理后,輸出圖像的尺寸依然設置為227×227,與輸入尺寸一致。

圖7 卷積神經(jīng)網(wǎng)絡訓練樣本集圖像Fig.7 Training sample set image of convolutional neural network

2.4 卷積神經(jīng)網(wǎng)絡訓練

卷積神經(jīng)網(wǎng)絡以一種可擴展的方式從復雜的真實數(shù)據(jù)中捕捉不變性,這是由于其具有局部接受域子結(jié)構(gòu),該結(jié)構(gòu)具有權(quán)值共享并隨后通過子采樣層進行映射的能力。AlexNet是在經(jīng)典卷積神經(jīng)網(wǎng)絡LeNet5和傳統(tǒng)BP神經(jīng)網(wǎng)絡基礎(chǔ)上進一步發(fā)展和改進的深度卷積神經(jīng)網(wǎng)絡。其中,使用的ReLU激活函數(shù)加快了網(wǎng)絡的收斂速度,并且有效防止梯度消失等問題;在全連接層使用“Dropout”技術(shù),避免了過擬合現(xiàn)象;在第二卷積層和第三卷積層之前,對輸入數(shù)據(jù)進行LRN操作,避免了網(wǎng)絡模型參數(shù)在訓練過程中不斷更新導致每個后續(xù)層的輸入數(shù)據(jù)分布發(fā)生變化。

本模型基于AlexNet搭建連接層并確定其相關(guān)參數(shù),網(wǎng)絡框架圖與參數(shù)設置如圖8所示。在模型訓練過程中運用數(shù)據(jù)增強、隨機失活、ReLU激活函數(shù)和局部響應規(guī)范化(LRP)的訓練技巧,使用了5個卷積層、3個池化層和3個全連接層對圖片參數(shù)進行處理。

表1顯示了經(jīng)典AlexNet不同層的特征尺寸和參數(shù)數(shù)量,總參數(shù)量為6096多萬。本文所提出的辨識模型參數(shù)設置如表2所示,其中共需要參數(shù)總量為5605多萬,是經(jīng)典AlexNet總參數(shù)的91.95%。

表1中網(wǎng)絡參數(shù)量的計算公式為

=××

(7)

式中為卷積核的大小;為卷積核通道數(shù);為輸出特征圖的通道數(shù)。

圖8 內(nèi)彈道參數(shù)辨識卷積神經(jīng)網(wǎng)絡框架Fig.8 Convolutional neural network framework for internal ballistic parameters identification

表1 AlexNet網(wǎng)絡參數(shù)設置

表2 辨識模型網(wǎng)絡參數(shù)設置

從表1可見,網(wǎng)絡的參數(shù)主要集中在全連接層,其中全連接層的參數(shù)占總參數(shù)的96.17%,容易造成過擬合現(xiàn)象,這是由于傳統(tǒng)的AlexNet算法大都進行圖像識別,因此第三層全連接層的輸出參數(shù)較大,其目的是為保證圖像辨識結(jié)果的判斷參數(shù)足夠大,從而保證結(jié)果的準確性。而該辨識模型需要解決的參數(shù)回歸問題,最終需要將圖像與參數(shù)匹配的結(jié)果作為訓練結(jié)果,且壓強-時間曲線所生成的圖像所含特征較少,參數(shù)過多容易導致過擬合。因此,如表2所示,計算模型所使用的網(wǎng)絡中全連接層參數(shù)為5108.2萬個,占總參數(shù)的91.12%,相比于經(jīng)典AlexNet,全連接層參數(shù)總量減少了5.05%,從而更好地解決網(wǎng)絡的過擬合現(xiàn)象。

2.5 實驗設計及結(jié)果

該辨識任務的主要難度在于圖像特征少于普通圖像,導致結(jié)果易出現(xiàn)過擬合問題,且曲線圖像中包含的特征與普通情況的圖片識別相比特征值少,相比于普通的圖像識別問題,參數(shù)辨識問題要求的辨識精度更高。對于該情況,選定高精度參數(shù)值是很重要的。表3所示為設定不同數(shù)據(jù)集樣本量、訓練集數(shù)據(jù)占比及驗證集數(shù)據(jù)占比,獲得訓練所得的燃速系數(shù)辨識準確率及壓強指數(shù)辨識準確率。

表3 卷積神經(jīng)網(wǎng)絡訓練結(jié)果

2.6 結(jié)果分析

根據(jù)表3中結(jié)果,得到相同數(shù)量樣本集、不同比例訓練集的燃速系數(shù)和壓強指數(shù)辨識準確率結(jié)果,如圖9所示。根據(jù)卷積神經(jīng)網(wǎng)絡結(jié)果準確率對比圖中可以得出以下結(jié)論:

(1)當訓練集占比為15%時,準確率最小,樣本集為500張和1500張時準確率均為85%左右,樣本集為2500張時,準確率超過了90%,隨著訓練集占比數(shù)量增大,準確率持續(xù)增長,當訓練集占比為80%時,樣本集為500張和2500張時,準確率均為92%左右,樣本集為1500張時,準確率為96%左右。

(2)當訓練集占比數(shù)量相同時,樣本集數(shù)量為500和2500時,其準確率均小于樣本集為1500時,這表明樣本集數(shù)量為當訓練集數(shù)量為500張時,圖像樣本集數(shù)量可繼續(xù)增加,使卷積神經(jīng)網(wǎng)絡學習更多特征,當樣本集數(shù)量達到2500張時,已經(jīng)出現(xiàn)了過擬合的趨勢;

(3)當樣本集數(shù)量一定時,訓練集比值越大,訓練的準確率越高,但這種情況也有可能是由于測試集數(shù)量減少導致的準確率提高,有可能使訓練得到的神經(jīng)網(wǎng)絡普適性較低。

訓練結(jié)束后,將待辨識的實驗壓強-時間曲線圖像放入訓練卷積神經(jīng)網(wǎng)絡得到的訓練模型中,圖像如圖10所示。為保證坐標系不干擾重要特征的提取,將實驗曲線的圖像設置其橫縱坐標與理論內(nèi)彈道生成的壓強-時間曲線圖像一致。得到實驗曲線圖像的燃速系數(shù)和壓強指數(shù)的辨識結(jié)果,將結(jié)果帶入內(nèi)彈道后,將實驗結(jié)果與理論結(jié)果進行對比,其結(jié)果如圖11所示。由實驗數(shù)據(jù)可以看出,0.127~0.413 s為上升工作段,在該段實驗值與理論值數(shù)據(jù)集誤差最大值為0.203 MPa,平均誤差值為0.101 MPa,是峰值誤差的0.9%。為驗證辨識結(jié)果的準確性,根據(jù)實驗測試,截取藥柱進行返廠燃速測試,測得在20 ℃、9.81 MPa下的燃速為22.5 mm/s,根據(jù)辨識結(jié)果,藥柱燃速為22.28 mm/s,與測得的實驗結(jié)果比,其誤差為0.98%。

由推進劑出廠數(shù)據(jù)顯示知,在20 ℃、9.81 MPa下推進劑的燃速為22.6 mm/s,貯存15 a后,其燃速下降了1%,但依然滿足該推進劑出廠時規(guī)定的使用要求。其中,推進劑燃速下降與推進劑貯存環(huán)境以及自身材料特性有關(guān)。

(a)The sample size of 500

(b)The sample size of 1500

(c)The sample size of 2500圖9 卷積神經(jīng)網(wǎng)絡結(jié)果準確率對比Fig.9 Accuracy comparison of convolution neural network result

圖10 實驗壓強-時間曲線截取圖像Fig.10 Part of the experimental pressure-time curve image

圖11 實驗結(jié)果與辨識結(jié)果對比圖像Fig.11 Image of the experimental result comparing with the identification result

3 結(jié)論

本文提出了一種基于卷積神經(jīng)網(wǎng)絡的固體火箭發(fā)動機內(nèi)彈道參數(shù)辨識方法,此方法基于經(jīng)典AlexNet網(wǎng)絡模型,將固體火箭發(fā)動機內(nèi)彈道的燃速系數(shù)和壓強指數(shù)兩重要參數(shù)通過理論壓強-時間曲線建立樣本集,訓練卷積神經(jīng)網(wǎng)絡模型后,辨識實驗壓強-時間曲線圖像中的燃速系數(shù)和壓強指數(shù)值,其結(jié)果與實驗值的誤差在可接受范圍內(nèi)。

該辨識模型的研究價值主要基于以下三點:

(1)針對性地對AlexNet網(wǎng)絡設計,與經(jīng)典AlexNet方法相比,本文提出的方法針對參數(shù)辨識主要有兩點優(yōu)勢:一是設計一種特殊的卷積神經(jīng)網(wǎng)絡用于內(nèi)彈道參數(shù)辨識任務,即更改相關(guān)參數(shù),尤其是全連接層的參數(shù),在減小計算量的同時使卷積神經(jīng)網(wǎng)絡在完成參數(shù)識別任務時達到最佳準確率;二是使用BN層代替經(jīng)典網(wǎng)絡中的LRN層,加快了網(wǎng)絡的收斂速度,并在一定程度上防止了過擬合現(xiàn)象。

(2)對于長期貯存的固體推進劑的參數(shù)辨識,可節(jié)省成本。本實驗中所建立的辨識數(shù)據(jù)集是針對理論內(nèi)彈道,修改其燃速系數(shù)和壓強指數(shù)獲得的壓強-時間參數(shù)值來進行樣本集的訓練,此過程不需要大量的實驗數(shù)據(jù)和結(jié)果,只需要若干驗證數(shù)據(jù)集,因此可節(jié)省大量的時間和經(jīng)濟成本。

(3)根據(jù)相關(guān)內(nèi)彈道模型可以設置多個變量進行參數(shù)辨識。在實驗過程中,基于燃速系數(shù)和壓強指數(shù)兩個變化參數(shù),增加噴管喉部直徑這一變化參數(shù)后,計算求解時間和資源成本幾乎沒有增加,即內(nèi)彈道變化參數(shù)增多,更能凸顯使用卷積神經(jīng)網(wǎng)絡的優(yōu)越性。本文所使用的內(nèi)彈道模型忽略了發(fā)動機侵蝕燃燒現(xiàn)象,使實驗結(jié)果與辨識結(jié)果在0.1 s附近產(chǎn)生一定誤差偏離;截取燃燒穩(wěn)態(tài)段(0.1~0.4 s)進行卷積神經(jīng)網(wǎng)絡辨識,這可能會導致辨識精度降低。因此,在后續(xù)的研究工作中,將針對上述不足進行完善,從而提高模型的辨識準確度。

主站蜘蛛池模板: 亚洲成a人在线播放www| 成年A级毛片| 欧美一级大片在线观看| hezyo加勒比一区二区三区| 久久久久人妻一区精品| 成人免费午夜视频| 中文字幕 91| 亚洲人成人无码www| av在线无码浏览| 超级碰免费视频91| 国产成人综合日韩精品无码首页| 她的性爱视频| 日本高清免费不卡视频| 美女被躁出白浆视频播放| 青青草原国产| 国产在线一二三区| 久久福利网| 精品视频一区二区三区在线播| 精品无码一区二区三区在线视频| 国产无码网站在线观看| 亚洲综合中文字幕国产精品欧美| 国产一区二区色淫影院| 欧美精品1区2区| 久久这里只有精品23| 日本五区在线不卡精品| 欧美日韩中文国产| 人妻丰满熟妇av五码区| 欧美人与性动交a欧美精品| 亚洲一区二区成人| 999国产精品| 亚洲国产欧美目韩成人综合| 亚洲a级在线观看| 国产人人干| 国产小视频在线高清播放| 国产美女无遮挡免费视频| 人禽伦免费交视频网页播放| 国产乱人乱偷精品视频a人人澡 | 欧美精品二区| 久久免费看片| 成色7777精品在线| 精品一区国产精品| 美女亚洲一区| 高清国产va日韩亚洲免费午夜电影| 久久精品波多野结衣| 九九九九热精品视频| 国产精品视频观看裸模| 欧美翘臀一区二区三区| 国产成人三级| 人妻中文字幕无码久久一区| 丰满人妻中出白浆| 亚洲AV无码精品无码久久蜜桃| 久久国产乱子| 亚洲精品在线观看91| 5555国产在线观看| 日韩高清一区 | 国产青青操| 91亚洲国产视频| 欧美中文字幕一区| 91色爱欧美精品www| 精品在线免费播放| 国产成人亚洲无吗淙合青草| 五月激激激综合网色播免费| 99精品在线视频观看| 亚洲成年人网| 精品视频一区在线观看| 亚洲美女AV免费一区| 福利在线不卡| 欧美一区精品| 国产尤物jk自慰制服喷水| 三区在线视频| 一级毛片基地| 欧美、日韩、国产综合一区| 91亚洲视频下载| 久久人搡人人玩人妻精品| 在线观看亚洲人成网站| 99这里只有精品在线| 国产打屁股免费区网站| 成人免费午间影院在线观看| 久青草免费在线视频| 国产91熟女高潮一区二区| 色综合狠狠操| 91色国产在线|