999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向多功能張量加速器的細粒度結構化稀疏設計

2024-11-13 00:00:00趙樺箏龐善民趙英海華高暉李晨陽段戰勝梅魁志
西安交通大學學報 2024年11期
關鍵詞:深度學習

摘要:為解決模型壓縮算法與多功能張量加速器(VTA)的適配性問題,通過改進經典的YOLObile分塊剪枝方法,完成面向該加速器的自適應細粒度結構化稀疏設計及性能評估。針對VTA的多重循環維度展開特性,對模型的權重張量進行32×32大小的分塊;結合時間維度的自蒸餾與空間維度的教師蒸餾,進行多維度特征對齊;通過一階段式迭代訓練方式,改進原有的ADMM算法計算流程,在提升模型部署精度的同時減少訓練成本;提出自適應層剪枝率模塊,進行總剪枝率的自適應分配,實現端到端的自動化剪枝。實驗結果表明:改進方法有效減少了約2.4%的浮點計算量,并在圖像分類、目標檢測等多項任務中提升了壓縮模型的精度,最大增長百分比為2.6%。該方法為深度學習模型在VTA上的稀疏化部署提供了一種高效、輕量級的軟件解決方案。

關鍵詞:神經網絡輕量化;模型稀疏化;深度學習;多功能張量加速器;模型部署

中圖分類號:TP31 文獻標志碼:A

DOI:10.7652/xjtuxb202411017 文章編號:0253-987X(2024)11-0176-09

Fine-Grained Structured Sparse Design for Versatile Tensor Accelerator

ZHAO Huazheng1,PANG Shanmin1,ZHAO Yinghai2,HUA Gaohui1,LI Chenyang1,DUAN Zhansheng3,MEI Kuizhi4

(1. School of Software Engineering,Xi’an Jiaotong University,Xi’an 710049,China;2. Beijing Huahang Institute of Radio Measurement,Beijing 100013,China;3. School of Automation Science and Engineering,Xi’an Jiaotong University,Xi’an 710049,China;4. College of Artificial Intelligence,Xi’an Jiaotong University,Xi’an 710049,China)

Abstract:In order to address the compatibility issue between model compression algorithms and the versatile tensor accelerator (VTA),an adaptive fine-grained structured sparse design tailored for this accelerator is proposed by enhancing the classical YOLObile block-wise pruning method and evaluates its performance. In light of the multi-dimensional loop unfolding characteristics of VTA,the model’s weight tensors are divided into 32×32 blocks. This approach integrates temporal distillation and spatial distillation to align multidimensional features. Through a single-stage iterative training method,the calculation process of the original ADMM algorithm is refined to improve model deployment accuracy while reducing training costs. An adaptive layer pruning rate module is introduced to dynamically allocate the total pruning rate,facilitating end-to-end automated pruning. The experimental results demonstrate that this improved method effectively reduces floating-point computations by approximately 2.4% and enhances the accuracy of compressed models across various tasks such as image classification and object detection,with a maximum growth percentage of 2.6%. This method offers an efficient and lightweight software solution for the sparse deployment of deep learning models on VTAs.

Keywords:neural network compression;model sparsity;deep learning;versatile tensor accelerator;model deployment

隨著深度學習的發展,神經網絡的復雜度及其對硬件計算資源的需求量與日俱增。現如今,參數量在幾十億甚至萬億級別的大模型層出不窮,在算法功能愈發完善的同時,也向硬件算力和存儲空間提出了新的挑戰[1。深度學習模型壓縮部署作為深度學習領域研究的重點之一2,其目標是解決模型的工程應用問題3。在軟件算法方面,快速、輕量級的嵌入式端深度學習模型部署4,要求提供高效、準確且適用于硬件設備的神經網絡推理方案5。

目前,通用的硬件架構和復雜的軟件編譯工具鏈已經成為深度學習模型部署領域的共識[6-7。深度學習編譯器框架(TVM)[8作為深度學習編譯器的代表,是目前應用最廣泛的開源軟硬件協同加速引擎。作為TVM框架的擴展,多功能張量加速器(VTA)[9是一個開放、通用、可定制的深度學習加速器,具有完整且適用于TVM的編譯器堆棧。TVM和VTA共同構成了端到端的軟硬件協同加速堆棧解決方案[10,但當前較少見到針對該方案討論稀疏化的方法。

剪枝技術通過刪除模型中次重要的神經元降低模型的參數量[11。Nvidia提出的2∶4細粒度結構化稀疏性方案[12只能針對Nvidia芯片完成50%的稀疏任務。SR-STE算法[13提出的N∶M結構化稀疏神經網絡訓練方式仍存在較大精度損失。本文提出的面向張量處理器的細粒度結構化稀疏設計方法,同時兼顧了非結構化細粒度剪枝和結構化粗粒度剪枝方案的優勢。

1 研究方案

為了在獲得較高剪枝結構自由度的同時,使剪枝后的模型結構能夠較好地利用硬件資源實現并行計算[14-15,本文對剪枝算法YOLObile[16進行了改進,即將神經網絡的權重矩陣按照m×n維度進行分塊,并針對不同的剪枝塊設計不同的剪枝規則,同時保證同一剪枝塊內的剪枝規則相同。YOLObile算法通過實驗得出最佳的分塊方案為8×4大小[16,將該方法直接應用在VTA張量加速器的硬件加速設計中時,會導致精度損失較大。為了提升粗粒度分塊造成的精度損失,本文設計了如圖1所示的結構化稀疏設計方法,充分保證了剪枝后模型的準確率和較高的運算速度,并將任務領域由目標檢測任務擴展至分類任務。

1.1 研究動機

本文首先根據硬件算力對分塊粒度大小進行計算。針對VTA張量加速器架構,計算模塊的計算資源受限,典型配置為32×32大小的計算矩陣,也就是最大支持到單次計算32×32=1 024個數據。本文的細粒度結構化稀疏方法保證了每個塊內剪枝規則的一致性,為了降低模型壓縮后的精度損失,各塊之間使用不同的剪枝規則。本文方法不僅可以應用在卷積核尺寸為3×3、1×1、5×5等的卷積層上,也同樣適用于線性層。

如圖2所示,本文以YOLOv3模型[17的Conv2d.1張量為例,展示了稀疏化權重數值分布。原始的Conv2d.1張量大小為[64,32,3,3],按照32×32大小進行分塊后,可得兩個大小分別為[32,32,3,3]的子張量。圖中灰色陰影方塊所代表的數值為0的部分可以通過循環指令跳過進行硬件端的加速計算。

1.2 分塊稀疏化設計方案

為了改進張量處理器在32×32分塊粒度配置下的稀疏模型精度下降問題,首先設計了1.2.1小節中的多維知識蒸餾模塊和1.2.2小節中的一階段式迭代ADMM訓練方法提升稀疏模型精度。然后,通過1.2.3小節中的自適應層剪枝率模塊自動化分配各層剪枝率。最后,通過自動權重分配策略平衡各部分損失。

1.2.1 多維知識蒸餾模塊

知識蒸餾通常是指使用高精度的教師模型指導低精度的學生模型[18,在結構相似的情況下效果尤為明顯,而剪枝得到的稀疏模型與原模型在結構上高度相似,非常符合知識蒸餾的應用條件。為了同時學習空間維度上未剪枝教師模型的輸出及時間維度上前一個訓練批次該模型本身的輸出,本文設計了多維知識蒸餾模塊,如圖3所示。圖中s代表學生模型,t代表教師模型。該模塊可分為空間維度的教師模型蒸餾損失dis以及時序維度的自蒸餾損失selfdis兩部分。相較于前者,后者在非目標類別上的概率信息更為豐富。

本文提出的自蒸餾方法按照批次b將訓練階段的時間維度劃分為bi和bi-1兩個小批次,并在第i個批次計算二者的軟輸出值pib和pi-1b的KL散度,具體計算過程如下

式中:f為KL散度函數;i為批次數;j為單個批次的矩陣數;p為模型的輸出,在YOLO系列模型中即為YOLOLayer層的輸出;Si,j=∑mi=1exp(pij,r);Si-1,j=∑mi=1exp(pi-1j,r),其中m為模型輸出張量單個矩陣的行數;T為溫度,主要起到平滑正則化作用。

教師蒸餾又可進一步劃分為類別損失clsdis、坐標損失boxdis以及特征損失featdis這3部分。分類損失首先計算得到樣本屬于每個類別的概率,并通過KL散度分別度量原模型與稀疏模型分類類別分布之間的差異性;坐標損失通過計算預測框中心坐標及錨框寬高,衡量稀疏模型預測的邊界框與真實邊界框之間的差異;特征損失通過對剪枝前后模型的中間層的特征圖進行提取并蒸餾,使稀疏模型能夠更好地保留原模型中的細節特征。綜上,可得最終的多維知識蒸餾損失dis,算式如下

式中:λself、λcls、λbox、λfeat分別為自蒸餾損失項、分類損失項、坐標損失項、特征損失項的平衡系數。

1.2.2 一階段式迭代ADMM訓練

傳統的分塊剪枝算法[16是先得到剪枝掩碼再剪枝并訓練的兩階段式方案。為了節省訓練計算成本,避免重復訓練剪枝前的預訓練模型,以及針對稀疏模型的重新微調訓練,本文嘗試采用SR-STE[13算法進行修改,將傳統的兩階段式剪枝方式改為一階段式剪枝方式,即在剪枝得到稀疏權重和剪枝掩碼后,直接通過反向傳播更新近似梯度來訓練稀疏網絡,一步到位,不再進行剪枝后的微調。

通過2.1.2小節中的消融實驗發現,引入SR-STE一階段式剪枝訓練后,模型產生了較大的精度損失,為此本文對一階段式剪枝進行了改進,同時調整了懲罰參數ρ,以便更好地應用到模型剪枝領域,并得到了較好的實驗結果。

ADMM算法中,通過引入增廣拉格朗日量來求解原始的具有非凸約束的優化問題[19。如式(3)所示,引入分段函數gi(Wi),以不含獨立約束條件的形式求解原來的非凸優化問題,表達式為

式中:(·)為激活函數;W為權重參數;b為偏置參數;g(·)為引入的分段函數;card(·)為返回其矩陣參數中非零元素數量;N為總網絡層數;li為第i層的層剪枝率。

引入增廣拉格朗日量,提取縮放對偶變量,即可得到ADMM算法迭代式如下

式中:L(·)為拉格朗日函數;Z為優化問題的目標函數;U為拉格朗日乘子。

使用對偶上升法的思路,針對(Wk+1i,bk+1i)、Zk+1i、Uk+1i這3組變量,分別在固定另外兩個變量的條件下,更新其中一個變量,重復迭代循環直到數值穩定,模型也就達到收斂了。其中,對于對偶子問題的求解,采用梯度下降法計算如下

即,ADMM損失admm=∑Ni=1ρi2Wi-Zki+Uki2F?;诖?,本文設計了如圖4所示的一階段式迭代ADMM訓練優化流程。

在設定了總剪枝率后,通過1.2.2小節中提出的自適應層剪枝率模塊獲得各層的剪枝率li。將總的訓練流程分為4個連續不斷的訓練階段,每一個階段都使用前一個得到的最終權重作為模型初始化權重,設定懲罰參數ρ的初始值為10-4,ρ在10-4~10-1范圍內變化,第i個階段的懲罰參數ρi=10ρi-1,通過動態調整懲罰參數,在訓練初期盡量使其逼近損失函數(·)的最小值,在訓練后期進一步正則化權重,從而達到較好的模型精度。在每一個批次的訓練中,都使用剪枝后得到的稀疏權重和剪枝掩碼計算近似梯度,反向傳播更新剪枝前密集權重的梯度。

1.2.3 自適應層剪枝率模塊

為了評估度量剪枝率對稀疏模型的性能影響,本文定義對某一層進行單層剪枝后測定的全類平均精度為該層的層精度敏感度。圖5所示為不同剪枝率下YOLOv3層精度敏感度變化趨勢圖,用不同顏色標記了不同總剪枝率的設定分類,并在層疊圖中進行了分層繪制。例如,當剪枝率設定為0.7時,測得第29層單層剪枝后的全類平均精度指標為0.46,即其精度敏感度為0.46。

由圖5可得,不同的剪枝率下,層精度敏感度變化趨勢是一致的,即層敏感度是由模型結構決定的固有屬性,不隨剪枝率的變化而變化,因此可以通過分析預訓練模型結構及權重數值特征,得到恰當的層剪枝率分配策略。基于上述結論,本文進一步提出了自適應的層剪枝率模塊。本文采用傳統的用于求解非凸約束優化問題的交替向乘子法(ADMM)算法選取最優剪枝權重。為了保證總剪枝率的設定需求,先前的工作大多通過多次調參設置,選取最優的層剪枝比率。

BN層在卷積層之后進行了數據歸一化,BN層中的α參數包含了數據分布信息,可依據BN層的權重數據進行每層重要性衡量?;诖?,本文提出了如圖6所示的自適應層剪枝率模塊。

將每個BN層權重的均值作為評估各層重要性的指標,并通過Softmax函數將其映射為取值區間在[0,1]范圍內且和為1的概率分布,然后按照指定的剪枝比率進行放縮,最終得到自適應的各層剪枝率。選層策略主要可分為按照BN層權重的最大值排序以及按照均值排序兩種方案,本文通過實驗發現按照均值排序效果更優。

為了更好地平衡多維知識蒸餾損失、一階段式迭代ADMM訓練損失以及傳統訓練損失在梯度下降過程中的作用,本文設計了如下所示的自適應損失權重分配策略

式中:為總損失;s為上述三項損失之和;為傳統訓練損失;λ為超參數。

通過實驗發現,深度學習模型訓練損失函數與知識蒸餾損失dis的梯度調整需要相互制約,因此在前面分別乘上了對方的比例系數,而admm極小,不需要進行比例調整。

2 實驗結果與分析

2.1 消融實驗

為了探究面向張量處理器VTA的細粒度結構化稀疏設計中各個模塊的有效性,本節在COCO128數據集上,使用YOLOv3模型并將總剪枝率設定為30%,進行了如下消融實驗。

2.1.1 多維知識蒸餾模塊

表1為多維知識蒸餾模塊消融實驗結果,采用精度、F1、FLOPS壓縮率衡量本文方法的有效性。針對目標檢測任務,由于8×4分塊粒度較細,加入多維知識蒸餾模塊后,全類平均精度指標有所提升但不明顯,而對于粒度較粗的32×32分塊,加入多維知識蒸餾模塊后,剪枝后的模型精度由0.801提升至0.822,但仍有較大的優化空間。

2.1.2 SR-STE模塊

為了減少訓練代價,本文采用SR-STE算法[13將傳統的兩階段式流程優化為直接進行稀疏訓練的一階段式流程,結果見表2。

由于一階段式訓練輪次的減少,模型產生了較大的精度損失,全類平均精度下降了6.8%,為此本文將通過后續2.1.3小節及2.1.4小節中的模塊對經典的SR-STE算法進行改進。

2.1.3 自適應層剪枝率模塊

表3所示為自適應層剪枝率模塊的消融實驗結果,本文通過如下消融實驗以數值化形式驗證自適應層剪枝率模塊的有效性??梢钥闯觯敺謮K大小為32×32時,加入自適應層剪枝率模塊的方案4對比未加入的方案3,精度提高了2.5%,且此時的FLOPS壓縮率也提升了1.8%,實驗結果表明了自適應層剪枝率分配的有效性。

2.1.4 一階段式迭代ADMM訓練

表4所示是一階段式迭代ADMM訓練的消融實驗結果,當分塊大小為32×32時,通過懲罰參數遞增的迭代訓練方式,實驗4對比未改進的實驗3,精度提高了5.7%,驗證了該模塊的有效性。

2.2 對比實驗

2.2.1 目標檢測任務剪枝率對比實驗

為了驗證目標檢測任務中不同剪枝率下的剪枝效果,本文進行了剪枝率對比實驗。目標檢測任務剪枝率對比實驗結果見表5。

如表5所示,本文分別使用YOLOv3[17、YOLOv4[20模型在VOC07+12數據集上進行了驗證,并選用分塊剪枝的代表性方法YOLObile[16作為基準進行對標。針對YOLOv3模型,當總剪枝率設定為30%時,全類平均精度的增長百分比為1.0%。 表明針對目標檢測任務,本文提出的方案在常見的YOLO系列模型架構和常用的目標檢測數據集上具有良好的精度。

為了進一步可視化不同剪枝率下各類別平均精度指標的變化曲線,本文在不同總剪枝率下進行剪枝,結果見圖7。

如圖7所示,本文從VOC2007+2012數據集的20個分類中選取5個(小汽車、貓、公共汽車、奶牛、椅子)分為一組繪制折線圖。由圖可得,隨著剪枝率的增大,各類別平均精度呈下降趨勢。

2.2.2 分類任務剪枝率對比實驗

為了驗證分類任務中不同剪枝率情況下的剪枝效果,本文分別使用ResNet18[21、ResNet34[21、MobileNetV2[22、SENet[23、DenseNet[24模型在CIFAR-100數據集下進行了剪枝率對比實驗,實驗結果如圖6所示。

從表6可得,在CIFAR-100數據集下,針對ResNet18模型,當總剪枝率為70%時,Top1準確率的增長百分比為0.67%。針對MobileNetV2模型,當總剪枝率為80%時,Top1準確率的增長百分比為2.6%,Top-5準確率的增長百分比為1.2%。本文方案與YOLObile[16相比有明顯的改進。

3 結 論

本文改進了一種針對VTA張量處理器的細粒度結構化稀疏方法。該方法有效解決了傳統分塊剪枝方法在粗粒度稀疏計算時精度下降的問題,并將任務領域進行了拓展。通過對比實驗結果,驗證了壓縮后的模型推理精度,改進方法在目標檢測任務和圖像分類任務上均取得了較好的實驗結果,同時對剪枝的容忍性更高,可以達到更高的模型稀疏程度。該方法為模型稀疏領域提供了一種高效適配硬件加速器的解決方案,主要包含以下4部分貢獻:

(1)針對VTA的多重循環維度展開特性,對模型的權重張量進行32×32大小的分塊;

(2)結合時間維度的自蒸餾與空間維度的教師蒸餾,進行多維度特征對齊;

(3)通過一階段式迭代訓練方式,改進原有的ADMM算法計算流程,在提升模型部署精度的同時減少訓練成本;

(4)提出自適應層剪枝率模塊,進行總剪枝率的自適應分配,實現端到端的自動化剪枝。

考慮到針對不同模型壓縮方案的普適性問題,在后續的研究中可以設計通用軟件壓縮工具鏈[25,實現快捷通用的模型稀疏化設計。同時可以嘗試將其拓展應用于更多不同的網絡架構,并將其進一步部署到VTA加速的硬件設備上,驗證實際FPGA硬件推理時的精度及效率[26。

參考文獻:

[1]高晗,田育龍,許封元,等. 深度學習模型壓縮與加速綜述 [J]. 軟件學報,2021,32(1):68-92.

GAO Han,TIAN Yulong,XU Fengyuan,et al. Survey of deep learning model compression and acceleration [J]. Journal of Software,2021,32(1):68-92.

[2]BERTHELIER A,CHATEAU T,DUFFNER S,et al. Deep model compression and architecture optimization for embedded systems:a survey [J]. Journal of Signal Processing Systems,2021,93(8):863-878.

[3]符惠桐,王鵬,李曉艷,等. 面向移動目標識別的輕量化網絡模型 [J]. 西安交通大學學報,2021,55(7):124-131.

FU Huitong,WANG Peng,LI Xiaoyan,et al. Lightweight network model for moving object recognition [J]. Journal of Xi’an Jiaotong University,2021,55(7):124-131.

[4]BA L J,CARUANA R. Do deep nets really need to be deep? [C]//Proceedings of the 27th International Conference on Neural Information Processing Systems. Cambridge,MA,USA:MIT Press,2014:2654-2662.

[5]KIM T,KWON Y,LEE J,et al. CPrune:compiler-informed model pruning for efficient target-aware DNN execution [C]//Computer Vision -ECCV 2022. Cham,Switzerland:Springer Nature,2022:651-667.

[6]LI Zhengang,YUAN Geng,NIU Wei,et al. NPAS:A compiler-aware framework of unified network pruning and architecture search for beyond real-time mobile acceleration [C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway,NJ,USA:IEEE,2021:14250-14261.

[7]GUAN Hui,LIU Shaoshan,MA Xiaolong,et al. CoCoPIE:enabling real-time AI on off-the-shelf mobile devices via compression-compilation co-design [J]. Communications of the ACM,2021,64(6):62-68.

[8]CHEN Tianqi,MOREAU T,JIANG Ziheng,et al. TVM:an automated end-to-end optimizing compiler for deep learning [C]//Proceedings of the 13th USENIX conference on Operating Systems Design and Implementation. USA:USENIX Association,2018:579-594.

[9]MOREAU T,CHEN Tianqi,VEGA L,et al. A hardware-software blueprint for flexible deep learning specialization [J]. IEEE Micro,2019,39(5):8-16.

[10]Mudigere D,HAO Yuchen,HUANG Jianyu,et al. Software-hardware co-design for fast and scalable training of deep learning recommendation models [C]//Proceedings of the 49th Annual International Symposium on Computer Architecture. New York,USA:ACM,2022:993-1011.

[11]VADERA S,AMEEN S. Methods for pruning deep neural networks [J]. IEEE Access,2022,10:63280-63300.

[12]HUANG Sitao,PEARSON C,NAGI R,et al. Accelerating sparse deep neural networks on FPGAs [C]//2019 IEEE High Performance Extreme Computing Conference (HPEC). Piscataway,NJ,USA:IEEE,2019:1-7.

[13]ZHOU Aojun,MA Yukun,ZHU Junnan,et al. Learning N:M fine-grained structured sparse neural networks from scratch [EB/OL]. (2021-04-18)[2024-04-01]. https://arxiv.org/abs/2102.04010.

[14]CHANG S E,LI Yanyu,SUN Mengshu,et al. Mix and match:a novel FPGA-centric deep neural network quantization framework [C]//2021 IEEE International Symposium on High-Performance Computer Architecture (HPCA). Piscataway,NJ,USA:IEEE,2021:208-220.

[15]林景棟,吳欣怡,柴毅,等. 卷積神經網絡結構優化綜述 [J]. 自動化學報,2020,46(1):24-37.

LIN Jingdong,WU Xinyi,CHAI Yi,et al. Structure optimization of convolutional neural networks:a survey [J]. Acta Automatica Sinica,2020,46(1):24-37.

[16]CAI Yuxuan,LI Hongjia,YUAN Geng,et al. YOLObile:real-time object detection on mobile devices via compression-compilation co-design [C]//Proceedings of the AAAI Conference on Artificial Intelligence. Palo Alto,CA,USA:AAAI Press,2021:955-963.

[17]FARHADI A,REDMON J. Yolov3:an incremental improvement [C]//Computer Vision and Pattern Recognition. Berlin/Heidelberg,Germany:Springer,2018:1-6.

[18]HINTON G,VINYALS O,DEAN J. Distilling the knowledge in a neural network [EB/OL]. (2015-03-09)[2024-04-01]. https://arxiv.org/abs/1503.02531.

[19]NIU Wei,LI Zhengang,MA Xiaolong,et al. GRIM:a general,real-time deep learning inference framework for mobile devices based on fine-grained structured weight sparsity [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2022,44(10):6224-6239.

[20]BOCHKOVSKIY A,WANG C Y,LIAO H Y M. YOLOv4:optimal speed and accuracy of object detection [EB/OL]. (2020-04-23)[2024-04-01]. https://arxiv.org/abs/2004.10934.

[21]BAE W,YOO J,YE J C. Beyond deep residual learning for image restoration:persistent homology-guided manifold simplification [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Piscataway,NJ,USA:IEEE,2017:1141-1149.

[22]SANDLER M,HOWARD A,ZHU Menglong,et al. MobileNetV2:inverted residuals and linear bottlenecks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ,USA:IEEE,2018:4510-4520.

[23]HU Jie,SHEN Li,SUN Gang. Squeeze-and-excitation networks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ,USA:IEEE,2018:7132-7141.

[24]HUANG Gao,LIU Zhuang,VAN DER MAATEN L,et al. Densely connected convolutional networks [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway,NJ,USA:IEEE,2017:2261-2269.

[25]FANG Gongfan,MA Xinyin,SONG Mingli,et al. DepGraph:towards any structural pruning [C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway,NJ,USA:IEEE,2023:16091-16101.

[26]SUN Yongshuai,GUO Mengyu,LIANG Dacheng,et al. Exploiting dynamic bit sparsity in activation for deep neuralnetwork acceleration [C]//2021 IEEE 14th International Conference on ASIC (ASICON). Piscataway,NJ,USA:IEEE,2021:1-4.

(編輯 亢列梅)

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 精品午夜国产福利观看| 天天色综网| 女人18毛片一级毛片在线| 欧美另类第一页| 亚洲免费播放| 国模私拍一区二区| 九色视频在线免费观看| 五月丁香在线视频| 啪啪国产视频| 2022国产91精品久久久久久| 久久永久免费人妻精品| 亚洲天堂啪啪| 欧美成人一级| 亚洲国产精品日韩专区AV| 亚洲水蜜桃久久综合网站| 色爽网免费视频| 欧美成人精品一区二区| 国产欧美日韩精品综合在线| 伊人精品视频免费在线| 久久精品国产精品青草app| Aⅴ无码专区在线观看| 中文字幕第1页在线播| 日本尹人综合香蕉在线观看| 91小视频在线播放| 特级毛片8级毛片免费观看| 国产精品视频999| 亚洲精品欧美日本中文字幕| 国产又大又粗又猛又爽的视频| 无码 在线 在线| 亚洲码一区二区三区| 在线欧美a| 国产精品美乳| 91久久国产综合精品女同我| 欧美a在线看| 2021亚洲精品不卡a| 欧美不卡视频在线观看| 国产欧美中文字幕| 久久久久久久久久国产精品| 欧美日韩免费观看| 日韩成人免费网站| 一本无码在线观看| 亚洲AV无码一二区三区在线播放| 又爽又大又光又色的午夜视频| 久99久热只有精品国产15| 亚洲第一色网站| 制服无码网站| 国产午夜福利亚洲第一| 亚洲欧洲国产成人综合不卡| 99精品福利视频| 全部免费毛片免费播放| h视频在线观看网站| 国产精品自在自线免费观看| 国产综合无码一区二区色蜜蜜| 无码中文字幕精品推荐| 亚洲av日韩综合一区尤物| 澳门av无码| 福利片91| 欧美亚洲综合免费精品高清在线观看| 欧美成人h精品网站| 久久a级片| 国产成人三级| 国模极品一区二区三区| 青青青视频91在线 | 成人一级黄色毛片| 激情五月婷婷综合网| 国产在线一区二区视频| 91外围女在线观看| 日韩视频福利| 无码网站免费观看| 久久久久亚洲精品成人网| 国产精品美女自慰喷水| 中文字幕亚洲电影| 2021亚洲精品不卡a| 欧美精品v| 欧美激情伊人| 欧美啪啪视频免码| 久久semm亚洲国产| 久热re国产手机在线观看| 红杏AV在线无码| 黄色在线不卡| 日韩在线2020专区| 成年人国产网站|