999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于H.265編碼復(fù)雜度的優(yōu)化模型算法

2019-07-05 05:24:24任學(xué)超薛紅平武彥君王學(xué)才平建創(chuàng)
兵器裝備工程學(xué)報 2019年5期
關(guān)鍵詞:深度特征結(jié)構(gòu)

任學(xué)超,薛紅平,武彥君,王學(xué)才,平建創(chuàng)

(北方自動控制技術(shù)研究所, 太原 030006)

自2013年H.265標(biāo)準(zhǔn)正式發(fā)布以來,學(xué)術(shù)界認(rèn)為它比H.264增加了分割方案的數(shù)量,不同的編碼單元為H.265標(biāo)準(zhǔn)提供了不同的塊分割方案,但由于編碼器需要計算總共4層的編碼單元的率失真成本并選擇最后的分割方案,同時編碼器需要花費更多的時間來檢查分割方案的率失真代價。

目前提出的降低H.265復(fù)雜度方法一般分為兩類:先驗型方法和學(xué)習(xí)型方法。第一類基于先驗型降低復(fù)雜度的方法,主要是通過一些特征和規(guī)則確定編碼單元分割,例如在幀級提出編碼單元深度決策方法,跳過幀內(nèi)的一些編碼單元深度[1];計算幀間模式預(yù)測誤差根據(jù)最小化貝葉斯風(fēng)險規(guī)則確定編碼單元的分割[2];提出快速幀間預(yù)測單元尺寸決策,將較小的幀間預(yù)測單元集成到較大的幀間預(yù)測單元中;這些方法在特征選取方面很大程度依賴于人工選擇的能力,很難確定所選特征是否是最優(yōu)的;第二類基于學(xué)習(xí)型降低復(fù)雜度的方法,利用大量數(shù)據(jù)的機器學(xué)習(xí),初步結(jié)合深度學(xué)習(xí),通過某一類模型總結(jié)H.265中編碼單元分割的規(guī)則,有效彌補了之前需要人類決策制定規(guī)則方法的缺點,例如使用SVM的分類模型替代了之前的全遞歸率失真搜索[3],提出多類SVM分類算法模型進一步減少編碼時間等[4]。

1 概述

H.265標(biāo)準(zhǔn)中的編碼單元分割結(jié)構(gòu)如圖1所示,它是由最基本的64×64 CTU(Coding Tree Unit)組成,CTU包含一個編碼單元或者可以被劃分為4個子編碼單元,每個子編碼單元可以依次選擇是否被劃分為4個更精細(xì)的子編碼單元,直到編碼單元被劃分為最小尺寸8×8為止。

圖1 編碼單元分割結(jié)構(gòu)

編碼單元分割結(jié)果示意圖如圖2所示,在僅具有靜止或慢動作背景的視頻中,CTU的內(nèi)容變化微小,可以從參考幀準(zhǔn)確地預(yù)測,該CTU可能不被分割成更小的分割單元。

圖2 編碼單元分割結(jié)果示意圖

編碼輸出結(jié)果圖如圖3所示,采用分層B幀結(jié)構(gòu)配置方式對30幀的832×480的測試視頻序列進行壓縮,其各幀的PSNR值(峰值信噪比)都在30~40,表明其壓縮的圖像質(zhì)量是良好的,失真表現(xiàn)在可接受的范圍內(nèi)。

圖3 編碼輸出結(jié)果圖

為了實現(xiàn)特征的自動提取,有人通過構(gòu)造簡單的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)結(jié)構(gòu)決定編碼單元的分割。雖然相關(guān)研究取得了很多成果,但在大多方法只適用于降低幀內(nèi)模式的復(fù)雜度,對于幀間模式,編碼單元分割的結(jié)果不僅取決于視頻內(nèi)容本身,還取決于每幀之間的空間相關(guān)性以及時間相關(guān)性,由于構(gòu)建的網(wǎng)絡(luò)結(jié)構(gòu)層數(shù)比較淺,不利于特征的提取和多層的訓(xùn)練,并且傳統(tǒng)的訓(xùn)練容易出現(xiàn)梯度彌散的現(xiàn)象,可能長時間的訓(xùn)練會丟失之前幀的記憶,造成視頻壓縮的失真。

因此本文提出了一種GRU(門控遞歸單元)模型,將幾個連續(xù)幀的CTU圖像信息輸入到GRU中,學(xué)習(xí)幀間模式編碼單元分割的時序依賴性和空間相關(guān)性,預(yù)測每幀的編碼單元分割結(jié)果來降低幀間預(yù)測的復(fù)雜度。

2 基于深度學(xué)習(xí)的編碼單元分割

2.1 GRU模型

GRU即Gated Recurrent Unit,是長-短期記憶(Long Short-Term Memory,LSTM)模型的改進,該模型克服了循環(huán)神經(jīng)網(wǎng)絡(luò)無法很好地處理遠距離的依賴關(guān)系問題,能夠有效地學(xué)習(xí)幀間編碼單元分割的長、短時依賴關(guān)系[5]。常見的LSTM模型變形都是在沒有影響這一類模型的性能基礎(chǔ)上對于計算部件上的改變,而GRU在長時間的訓(xùn)練過程中其收斂時間方面更優(yōu)于LSTM,并且相比較于SVM模型更適合處理多分類問題。GRU模型示意圖(圖4)。

圖4 GRU 模型結(jié)構(gòu)

GRU的前向計算公式為

對應(yīng)的模型其代碼如下:

z_t1=T.nnet.hard_sigmoid(U[0].dot(x_e) +W[0].dot(s_t1_prev)+b[0])

r_t1= T.nnet.hard_sigmoid(U[1].dot(x_e) +W[1].dot(s_t1_prev)+b[1])

c_t1=T.tanh(U[2].dot(x_e)+W[2].dot(s_t1_prev * r_t1)+b[2])

s_t1= (T.ones_like(z_t1) -z_t1) *c_t1+z_t1 *s_t1_prev

2.2 構(gòu)建GRU深度學(xué)習(xí)模型

結(jié)合前人的研究,最終提出的GRU深度學(xué)習(xí)模型其中層3的結(jié)構(gòu)如圖5所示。考慮到相似幀的時序依賴性和空間相關(guān)性,先對每個CTU進行預(yù)處理,此過程與HM參考軟件中的標(biāo)準(zhǔn)編碼過程相似。引入了CNN的結(jié)構(gòu),其中包含兩個卷積(3×3)池化層和兩個下采樣層對CTU進行特征提取,分別對64×64、32×32、16×16三級的分割單元通過內(nèi)核進行卷積,提取出相應(yīng)圖像信息的特征,將這些特征歸并在一起組成一個特征向量,再將它分為f1-3(256)、f1-2(128)、f1-2(64)三條支路依次通過GRU結(jié)構(gòu)中。

每個GRU單元接收當(dāng)前的輸入向量和之前生成的狀態(tài)向量更新當(dāng)前GRU單元的狀態(tài)向量和輸出向量。每幀的順序由單熱矢量表示,每個級各有一個GRU單元用來單獨訓(xùn)練CU分割,f(t)(n)表示每一級GRU單元和全連接層的輸出特征向量,輸出向量再依次選擇通過兩個全連接層進一步處理,最終得到HCPM(hierarchical CU partition map)所需的二值化編碼單元的分割概率。在層3和層2中,引入了提早終止機制,如果第一級最大尺寸的 CU 不分割,則不需要計算第二級是否分割;如果第二級的 4 個 CU 都不分割,則不需要計算第三級是否分割,減少GRU中的計算冗余[6]。

與幀內(nèi)模式類似,每個全連接層也考慮了外部特征量化參數(shù)QP值,將 QP 值作為一個外部特征添加到特征向量中,使網(wǎng)絡(luò)能夠?qū)P與CU分割的關(guān)系進行建模,以適應(yīng)編碼單元分割中對于不同編碼質(zhì)量和幀位置的影響。一般情況下隨著QP值的減小,有更多的CU被分割,反之,當(dāng)QP值增大時,CU傾向于不分割。

圖5 GRU層3結(jié)構(gòu)

3 實驗及分析

首先訓(xùn)練GRU模型以評估不同迭代時的訓(xùn)練損失,如圖6所示是GRU模型的訓(xùn)練損耗曲線,GRU模型以很快的速度收斂,并且在經(jīng)過多次訓(xùn)練后不會出現(xiàn)梯度彌散,能夠很好地訓(xùn)練各級固定的編碼分割單元而不造成圖像的損失。

圖6 GRU訓(xùn)練損耗曲線

根據(jù)所搭建的結(jié)構(gòu)模型驗證GRU降低幀間預(yù)測復(fù)雜度的性能,將本文提出的基于GRU模型的方法與文獻[7]、文獻[8]的方法進行比較。所選取的測試序列每種類別(Class)從ClassA到ClassE中,其分辨率分別為2 560×1 600、1 920×1 280、832×480、416×240、1 080×720,序列盡量包含紋理變化復(fù)雜和簡單的視頻,所有序列均可采用4個不同的量化參數(shù)QP進行壓縮,以適應(yīng)不同的碼率和編碼質(zhì)量。

實驗結(jié)果如表1所示,在量化參數(shù)QP=22,27,32和37時,本文提出的方法在大多數(shù)視頻測試序列上比其他3種方法會降低更多的復(fù)雜率;最后計算得出的復(fù)雜度降低率平均在43.88%,52.33%,57.95%和63.03%,優(yōu)于文獻[7]中的38.31%,46.10%,48.95%和46.50%以及文獻[8]中的43.67%,43.10%,43.54%和43.98%。

表1 復(fù)雜度降低率

續(xù)表(表1)

4 結(jié)論

本文從幀間預(yù)測復(fù)雜度出發(fā),提出了一種深度學(xué)習(xí)架構(gòu)來優(yōu)化H.265幀間預(yù)測復(fù)雜度。實驗結(jié)果表明:比其他方法更有效。

盡管GRU這一類長-短期記憶模型能夠有效解決長時間的依賴關(guān)系,但是其最多只能記憶約100 s左右的信息。現(xiàn)已提出了一個分層的neural attention編碼器模型,解決了GRU需要更多資源訓(xùn)練的問題,之后會應(yīng)用于圖像壓縮方面。

猜你喜歡
深度特征結(jié)構(gòu)
《形而上學(xué)》△卷的結(jié)構(gòu)和位置
深度理解一元一次方程
如何表達“特征”
論結(jié)構(gòu)
中華詩詞(2019年7期)2019-11-25 01:43:04
不忠誠的四個特征
深度觀察
深度觀察
深度觀察
抓住特征巧觀察
論《日出》的結(jié)構(gòu)
主站蜘蛛池模板: 好吊妞欧美视频免费| 日韩精品成人在线| 国产十八禁在线观看免费| 潮喷在线无码白浆| 国产幂在线无码精品| AV天堂资源福利在线观看| 国产91视频免费观看| 中文国产成人精品久久| 久操中文在线| 99久久婷婷国产综合精| 亚洲AV成人一区国产精品| 国产 日韩 欧美 第二页| 久久综合一个色综合网| 自慰高潮喷白浆在线观看| 六月婷婷激情综合| 亚洲天堂成人| 国产精品性| 99在线视频网站| 极品国产在线| 欧美五月婷婷| 亚洲av无码片一区二区三区| 亚洲午夜福利在线| 伊人激情综合网| av午夜福利一片免费看| 欧美在线一二区| 操国产美女| 亚洲人成影视在线观看| 五月婷婷综合色| 国产69精品久久久久妇女| 国产永久在线视频| 九色综合伊人久久富二代| 91在线丝袜| 亚洲无码一区在线观看| 久久精品欧美一区二区| 国产精品页| 日韩国产无码一区| 狠狠亚洲婷婷综合色香| 中文字幕乱码二三区免费| 99精品影院| 亚洲视频免费播放| 天天视频在线91频| 99在线观看免费视频| www.91在线播放| 国产精品观看视频免费完整版| 青青久在线视频免费观看| 久久永久视频| 福利国产微拍广场一区视频在线| 亚洲有码在线播放| 99在线视频免费| 91国内视频在线观看| 在线人成精品免费视频| 日韩在线永久免费播放| 亚洲热线99精品视频| 园内精品自拍视频在线播放| 青青青国产免费线在| 亚洲熟妇AV日韩熟妇在线| 91成人在线免费观看| 欧美国产精品不卡在线观看| 国产成人精品一区二区| 99久久亚洲综合精品TS| 久久国产精品77777| 亚洲综合色吧| 亚洲精品欧美日本中文字幕| 国产精品香蕉在线| 亚洲va精品中文字幕| 亚洲精品无码人妻无码| 日韩小视频在线观看| 91精品网站| 精品自拍视频在线观看| 久久不卡国产精品无码| 国产精品任我爽爆在线播放6080 | 国产aⅴ无码专区亚洲av综合网| 国产永久无码观看在线| 久久久久无码精品国产免费| 999国产精品| 伊人国产无码高清视频| 99久久精品国产精品亚洲| 天天操天天噜| 久久综合色视频| 亚洲精品图区| 国产精品浪潮Av| 福利小视频在线播放|