999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

3D-HEVC深度圖像幀內編碼單元劃分快速算法

2016-10-29 06:31:06張洪彬伏長虹蘇衛民陳銳霖蕭允治
電子與信息學報 2016年10期
關鍵詞:深度

張洪彬 伏長虹 蘇衛民 陳銳霖 蕭允治

?

3D-HEVC深度圖像幀內編碼單元劃分快速算法

張洪彬①②伏長虹*①蘇衛民①陳銳霖②蕭允治②

①(南京理工大學電子工程與光電技術學院 南京 210094)②(香港理工大學電子資訊工程學系 香港 999077)

針對3維高性能視頻編碼(3D-HEVC)中深度圖像幀內編碼單元(Coding Unit, CU)劃分復雜度高的問題,該文提出一種基于角點和彩色圖像的自適應快速CU劃分算法。首先利用角點算子,并根據量化參數選取一定數目的角點,以此進行CU的預劃分;然后聯合彩色圖像的CU劃分對預劃分的CU深度級進行調整;最后依據調整后的CU深度級,縮小當前CU的深度級范圍。實驗結果表明,與原始3D-HEVC的算法相比,該文所提算法平均減少了約63%的編碼時間;與只基于彩色圖像的算法相比,該文的算法減少了約13%的編碼時間,同時降低了約3%的平均比特率,有效地提高了編碼效率。

3維高性能視頻編碼;深度圖像;幀內編碼;編碼單元;角點檢測;

1 引言

多視點加深度[1](Multi-view Video plus Depth, MVD)包含若干個視點的彩色和深度視頻。MVD能夠利用基于深度圖像渲染技術在低碼率下實現自由視點視頻,近年來成為3D視頻的研究熱點[2,3]。聯合視頻專家組在高性能視頻編碼(High Efficient Video Coding, HEVC)的基礎上,增加了深度圖像編碼技術,形成了3維高性能視頻編碼標準3D-HEVC[4]。3D-HEVC引入的深度幀內編碼新技術[4],雖然提高了壓縮效率,但編碼復雜度也隨之急劇增加,因此提高深度圖像幀內編碼速度成為MVD的研究重點。深度圖像幀內編碼復雜度高有以下兩個原因:幀內模式數目多,包括HEVC幀內模式、幀內跳過模式和深度模型模式(Depth Modelling Mode, DMM);沿用了HEVC四叉樹編碼結構[5],編碼單元(Coding Unit, CU)數目多。因此,現有的算法都基于減少候選幀內模式數目或者減少候選CU數目。

對于減少候選幀內模式數目的算法,文獻[6]通過在雙像素域上粗略地搜索DMM,有效地減少了候選DMM的數目;文獻[7]發現DMM并不適用于深度圖的平滑區域,在此基礎上,文獻[8]發現DMM也不適用包含水平和垂直邊界的CU,因此他們各自提出了相應的DMM跳過算法。由于以上方法仍需要遍歷計算所有CU的率失真(Rate-Distortion, RD)代價,所以這些方法對編碼速度的提高十分有限。

在3D-HEVC中,CU是基本編碼和處理單元,其大小范圍為64×64到8×8,對應的劃分深度為0到3。首先,待編碼幀劃分為許多最大編碼單元 (Largest Coding Unit, LCU);然后,3D-HEVC測試模型(3D-HEVC Test Model, HTM) 按照遞歸的方式將每級CU劃分為4個子CU,直至最小的CU (Smallest Coding Unit, SCU)。LCU的劃分過程需要計算85次CU的RD代價,且每級CU要計算幾十到幾百次的RD代價來決定最優幀內模式。

對于減少候選CU數目的快速算法,文獻[9-12]根據時空相關性,提出了基于HEVC的CU劃分快速算法,但是這些算法并不適用于深度圖像的CU劃分;文獻[13]通過判斷幀內跳過模式的RD代價和編碼塊的方差值跳過子編碼單元,然而該算法很難自適應地選擇合適的閾值,造成該算法的自適應性差,對編碼速度的提高有限;文獻[14]依據深度圖像和彩色圖像存在信息冗余,利用彩色圖像的CU劃分縮小深度圖像CU劃分的深度范圍,該方法沒有考慮深度圖像和彩色圖像的失配問題,從而導致深度圖像丟失部分細節,嚴重降低了虛擬視角的圖像質量。

針對文獻[13,14]存在自適應能力差、重建虛擬視角圖像質量差以及編碼效率低等方面的不足,本文將深度圖像的空間特性和彩色圖像的CU劃分相結合,提出了一種基于角點和彩色圖像的深度圖像幀內編碼單元劃分的快速算法。該方法利用深度圖像具有特殊的空間特性,提出利用角點特征對編碼塊進行預分類,同時考慮深度和彩色的相關性,利色彩圖像的塊劃分對預分類結果進行修正,最終依據分類結果選擇不同的CU深度級。此外,本文還定量地分析了不同角點算子對編碼性能和效率的影響,并提出了一種自適應選擇角點的方法來提高算法自適應性。

2 基于角點和彩色圖像的深度圖像CU快速劃分算法

3D-HEVC包含兩類幀內模式,分別為:單一方向型模式,包括DMM和角度模式(Angular);平滑型幀內模式,包含Planar, DC和幀內跳過模式。前者用于預測單一的紋理方向,而后者用于預測平滑區域。在HTM的CU劃分過程中,如果最優幀內模式可以很好地預測CU,意味著更小尺寸的CU并不能提高當前塊的重建質量,反而會增加模式編碼的比特開銷,所以該CU不必進一步地劃分。文獻[21]提出的方差等特征并不能可靠地預測CU的尺寸,例如當編碼塊包含單一紋理或多紋理時,其方差值都很大;然而單一方向型幀內模式可以準確地預測單一紋理編碼塊,無需劃分為更小的CU尺寸。對于包含多紋理方向的CU,單一方向型的預測模式并不能很好地對CU劃分進行預測,因此本文提出利用多方向的角點特征來預測CU的尺寸。角點指的是具有兩個主方向的興趣點,該特征可以區分單一紋理方向和多紋理編碼塊。

2.1基于角點的CU預劃分

圖1(a)為序列Balloons的角點分布圖,其中白色圓點表示角點。由圖1可知,深度圖像的角點大多分布在不規則的邊緣,其鄰域有不止一個方向上的變化。對于包含角點的CU,兩類幀內模式都不適用于預測多方向信息,導致深度邊緣的失真。因此,包含角點的CU一般采用較小的CU尺寸編碼,每個子CU可以采用不同的幀內模式,以增強對多方向的預測效果;相反沒有包含角點的CU,其像素信息單一,所有尺寸CU的預測效果都很好,采用較大的CU尺寸可以減少CU編碼的比特開銷。因此,本文利用角點對深度CU進行預劃分。劃分原則為:如果CU包含一個或多個角點,則該CU進一步劃分為4個子CU,逐級向下,直至SCU。CU按預劃分深度分為4類:I-0(64×64), II-1(32×32), III-2(16×16)和IV-3(8×8)。圖2為預劃分的示例圖,對于圖2(a)中僅含有一個角點的LCU,按上述預劃分原則得到預劃分深度級,并按如圖2(b)所示,以8×8為單元存儲預劃分深度級。圖1(b)為基于圖1(a)中角點的預劃分結果。圖1(d)為HTM方法獲得的CU劃分圖。對比圖1(b)和圖1(d)可知,對于含有角點的區域,基于角點的預劃分和HTM的劃分都采用了較小尺寸的CU,而對于不包含角點的區域,兩種方法都選擇較大的CU。表1為序列Balloons序列的最優分割深度級和預劃分深度級的分布表。表1證實了上述假設,大部分的I-0和II-1的編碼塊會選擇深度級0和1的CU,而III-2和IV-3的編碼塊大多采用較大深度級。然而,圖1(b)的CU劃分和最優的CU劃分并不相同,因此需要對基于角點的預劃分結果進行修正。

圖1 角點的分布圖以及CU的劃分示意圖

圖2 LCU的預劃分及對應的候選深度級示例圖

表1最優深度級和預劃分深度級的分布表

2.2 基于彩色圖像對預劃分修正

深度圖像的失真評價由合成視角和自身失真兩部分組成,而合成視角失真和彩色圖像的失真有很大關系[15]。具體表現為:彩色圖像變化小的區域對深度的失真不敏感,即深圖像失真對合成視角的圖像質量影響較小;反之亦然。圖1(c)為彩色圖像的最優CU劃分,在像素值變化小的區域,彩色圖像選擇較大的CU,反之亦然。文獻[14]對彩色和深度視頻的CU劃分深度進行了詳細的分析,并得到彩色圖像和深度圖像的CU劃分相關性強的結論,感興趣的讀者可參考文獻[14]。因此,本文利用彩色圖像的CU劃分的深度對預劃分的深度進行調整,具體如表2所示。

表2預劃分CU深度級的調整方案

當彩色圖像采用較大的CU時,減小預劃分深度級,例如表2中第3行彩色圖像的CU深度級為0,則III-2和IV-3的劃分深度調整為1;當彩色圖像采用較小的CU時,增大預劃分深度級,例如表2第6行彩色圖像的CU的劃分深度為3,將I-0,II-1和III-2的劃分深度分別調整為1, 2和3。值得注意的是,如果當前深度圖像CU的所有像素值都相同,則不會依據表2中的方案增大CU劃分深度。

2.3 基于預劃分深度級的CU選擇方法

為了探究調整后的預劃分深度和最優深度之間的關系,本文選取了7個標準測試序列,并將量化參數(Quantization Parameter, QP)設置為34,對每個序列的前20幀進行測試,獲得了最優深度級和預劃分深度級之間的分布概率,具體如表3所示。對于I-0類型的編碼塊,97.23%的CU選擇深度級0,采用其他尺寸CU(32×32, 16×16和8×8)的概率非常低,僅為2.77%;對于II-1塊,87.76%的CU選深度為1;對于III-2塊,75.32%的CU采用了16×16大小的CU;而IV-3的CU塊,89.58%的CU選擇了深度級為2和3。由于每種類型CU的最優劃分深度概率呈不均勻分布,所以可以依據預劃分深度級選擇不同的CU深度級范圍,以提高編碼效率。表3同時列出了預劃分深度的遍歷深度范圍。根據不同的深度范圍,本文提出的CU劃分算法,具體如下:如果CU屬于I-0類,則只考慮深度級0,跳過深度級為1, 2和3的RD代價計算;如果CU屬于II-1類,則只考慮深度級1,跳過其他深度級。如果當前塊屬于III-2類,則僅計算深度級2的RD代價。對于IV-3類的CU,將計算深度級為2和3的RD 代價。圖2(c)為基于預劃分深度級的CU劃分示意圖,列出了LCU的預劃分深度級、對應候選深度級范圍和最優的LCU劃分。雖然對于II-1, III-2和IV-3的塊,有10%~20%的編碼塊選擇較大尺寸的CU,意味著本文所提的CU選擇方法的準確率僅為80%到90%,但是這對最終的合成視角的RD性能的影響較小。其原因在于:HTM采用視角合成優化(View Synthesis Optimization, VSO)用來評價深度圖像的RD性能,然而VSO并非合成完整的虛擬視角,存在失準問題,對II-1, III-2和IV-3塊進行精細的劃分,將提高最終合成虛擬視角的圖像質量;與彩色視頻相比,深度圖像的比特數約占總比特數的10%,所以精細的深度圖劃分所需要的比特數對總RD性能影響較小。

表3 HTM劃分深度級和調整后的預劃分深度級的分布概率以及預劃分深度級對應的遍歷深度級范圍

2.4 角點的計算方法和自適應選擇角點數目

本文的基于角點和彩色圖像的CU劃分算法需要利用角點對每個LCU進行預劃分,因此其編碼性能依賴于角點的選擇,所以自適應地根據不同的編碼內容和編碼參數選取角點數目成為本文算法的重要環節。角點的檢測方法有很多,例如FAST[16], Shi-Tomasi[17]以及Harris[18]算子等。角點算子根據圖像局部相關性原理,利用像素鄰域的梯度變化來檢測特征點。FAST算子通過中心像素點與離散圓上的像素點進行比較,進行角點檢測。Harris算子的角點響應值依據Harris矩陣計算,如式(1)。

圖3 不同閾值參數T檢測到的角點數目

2.5 本文算法流程

對于整體算法流程,如圖4所示。首先針對每個深度視頻幀,根據角點算子和獲得角點,然后對每個LCU進行預劃分,再依據彩色圖像的CU劃分對預劃分進行調整,得到各LCU最終預劃分,并按8×8為單位存儲。對于每個LCU的劃分過程,根據預劃分的深度選擇不同的遍歷深度范圍。整體算法的具體步驟如下:

圖4 本文算法的流程圖

(2)利用角點對每一個LCU,得到預劃分的深度。

(3)利用彩色圖像LCU的劃分,對步驟(2)中的預劃分深度按表2進行調整,并以8×8的像素塊為單元存儲。

(4)對于每個LCU,按原始的遞歸順序進行CU編碼,如果當前CU對應的所有預劃分深度級為0,則計算深度級為0的 RD代價并且終止CU的劃分。否則,執行步驟(5)。

(5)如果當前CU對應的所有預劃分深度級都為1,則計算深度級為1的RD代價并且終止CU的劃分,否則執行步驟(6)。

(6)如果當前CU對應的所有預劃分深度級為2或是3,則計算深度級為2的RD代價。若所有的預劃分深度級都為2則終止CU的劃分,否則執行步驟(7)。

(7)計算深度級為3的RD代價,并按自底向上的順序返回步驟(4),重復執行步驟(4)-步驟(7),直至遍歷結束,獲得最優的LCU劃分。

3 實驗結果以及分析

本文在3D-HEVC的測試平臺HTM-13.0[19]上實現了該算法,并與文獻[13,14]及原始HTM的CU劃分的算法進行比較。使用全幀內配置模式,對7個標準序列進行了編碼,編碼幀數為100。編碼性能使用平均比特率(Bj?ntegaard Delta Bit Rate, BDBR),它是由彩色和深度視頻的總比特率以及虛擬視角的峰值信噪比(PSNR),按文獻[20]所述方法計算得到。計算復雜度用編碼時間來度量。為了便于說明,本文所提的CU劃分方法記做JCUD方法。

表4為本文所提JCUD算法與文獻[13]和文獻[14]的編碼性能和計算復雜度的比較結果。由表4可知,與HTM-13.0相比算法JCUD節省編碼時間平均為63%。對于Fly和Hall2序列,JCUD其編碼時間節省了70%,這是因為這兩個序列中含有的物體較少,檢測到的角點數目少,故大部分LCU僅需計算0, 1,或是2,一個深度級的RD代價。文獻[14]只考慮了彩色圖像,忽略了深度圖像和彩色圖像的失配問題,導致了平均碼率增加了3.96%。尤其對于通過深度估計算法得到的序列Kendo, Balloons 和Newspaper, BDBR增加了2.78%~14.85%。文獻[13]利用方差等特征提前終止CU的劃分,但是方差只是反映了像素的變化信息,并不能夠提供方向信息,因此該方法只用于像素幾乎不變的平滑區域,平均碼率增加了0.18%,但是節省的編碼時間僅為30%。圖5為Newspaper序列分別在HTM,文獻[14]和本文所提JCUD方法的CU劃分結果,文獻[14]的方法對一些邊緣區域選擇了較大尺寸的CU,導致了合成視角的圖像質量下降;而本文算法與HTM算法的CU劃分基本一致,且在物體的邊緣區域采用了更加精細的劃分。

表4 本文提出方法與文獻[13]和文獻[14]方法的編碼性能的比較(%)

圖5 序列Newspaper在QP=39時的CU劃分結果

圖6 3種根據QP選擇角點的方案及對所提算法編碼性能和效率的影響

表5列出了采用Harris, Shi-Tomasi以及FAST角點算子的實驗結果。由表5可知,不同的角點算子對編碼性能影響很小,說明本文算法有很好的推廣性。另外,基于FAST算子的CU劃分算法節省的時間最少,約為55%,其原因在于FAST容易將邊界點誤檢為角點特征,導致預分配過程產生較多的IV-3的塊,而IV-3塊需要計算深度級2和3的RD代價。同時表6列出了各角點算子的計算時間占所提算法的百分比。因為3種算子的計算時間僅占總編碼時間0.02%~0.60%,所以單純計算角點的時間對所提算法的編碼效率影響很小。

表5 FAST, Harris以及Shi-Tomasi角點算子對編碼性能的影響(%)

表6 FAST, Harris以及Shi-Tomasi的計算時間及占總編碼時間的百分比

此外,雖然本文提出的方法是針對幀內編碼(I幀),而在實際應用中幀間編碼(P/B幀)的占比更大。需要指出的是,即使在幀間編碼的幀中,同樣包含了大量的幀內塊。為了說明所提算法的應用范圍,本文將分層編碼結構[21]的幀分為4類:I幀,Inter- View(IV)幀,Inter-Temporal(IT)幀,以及Inter- View/Temporal(IVT)幀。表7中列出了后3種幀間編碼幀的當中的幀內塊的百分比分別為94.26%, 22.07%和16.19%。在這些幀內塊當中,本文的算法已經可以發揮作用。另外,由于深度圖像的幀間相關性低,且角點大多分布在物體邊緣,如圖1(a)所示,角點區域更容易受到運動的影響,往往需要采用較小的編碼單元提供準確的預測,所以所提算法可以應用于非幀內塊的CU劃分,但仍需要進一步地研究。

表7分層編碼結構中不同類型幀的幀內塊的百分比(%)

4 結論

本文利用深度圖像的空間結構和其與彩色圖像存在冗余,提出了基于角點和彩色圖像的幀內編碼單元劃分快速算法。實驗結果表明,與HTM-13.0的方法相比,本文算法平均比特率在僅增加了約1.26%的情況下,節省了約63%的編碼時間,與只基于彩色圖像的方法比較,節省了約13%的編碼時間,且平均比特率減少了約3%,有效地提高了編碼效率。同時,本文所提算法可以根據不同的視頻內容和編碼參數,自適應地選擇所需的角點數目,算法的自適應性強。由于角點大多分布在物體的邊緣,所以本文算法還可以應用到基于Kinect的物體3維重建,3維定位等基于對象訪問的遠程系統中,以促進3維視頻壓縮技術在此類應用的進一步發展。

參考文獻

[1] ISO&IEC and MPEG. Information technology-MPEG video technologies-Part 3: Representation of auxiliary video and supplemental information[R]. ISO/IEC/JTC1/SC29-23002-3, 2007.

[2] 張秋聞, 安平, 張艷, 等. 基于虛擬視點繪制失真估計的深度圖幀內編碼[J]. 電子與信息學報, 2011, 33(11): 2541-2546. doi: 10.3724/SP.J.1146.2011.00218.

ZHANG Qiuwen, AN Ping, ZHANG Yan,. Depth map intra moding based on virtual view rendering distortion estimation[J].&, 2011, 33(11): 2541-2546.doi: 10.3724/SP.J.1146. 2011.00218.

[3] 時琳, 劉榮科, 李君燁. 基于深度信息的立體視頻錯誤隱藏方法[J]. 電子與信息學報, 2012, 34(4): 1678-1684. doi: 10.3724/ SP.J.1146.2011.01107.

SHI Lin, LIU Rongke, and LI Junye. Error concealment based on depth information for stereoscopic video coding[J].&, 2012, 34(4): 1678-1684. doi: 10.3724/SP.J.1146.2011.01107.

[4] MULLER K, SCHWARZ H, MARPE D,. 3D high-efficiency video coding for multi-view video and depth data[J]., 2013, 22(9): 3366-3378. doi: 10.1109/TIP.2013.2264820.

[5] SULLIVAN G J, OHM J R, HAN W J,. Overview of the High Efficiency Video Coding(HEVC) standard[J]., 2012, 22(12): 1649-1668. doi: 10.1109/TCSVT.2012.2221191.

[6] MERKLE P, MULLER K, ZHAO X,. Simplified Wedgelet search for DMM modes 1 and 3--JCT3V-B0039[R]. ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11, 2012.

[7] GU Z Y, ZHENG J H, LING N,. Fast depth modeling mode selection for 3D HEVC depth intra coding[C]. IEEE International Conference on Multimedia & Expo Workshops, San Jose, CA, 2013: 1-4. doi: 10.1109/ICMEW.2013.6618267.

[8] PARK C. Edge-based intra mode selection for depth-map coding in 3D-HEVC[J]., 2015, 24(1): 155-162. doi: 10.1109/TIP.2014. 2375653.

[9] 李元, 何小海, 鐘國韻, 等. 一種基于時域相關性的高性能視頻編碼快速幀間預測單元模式判決算法[J]. 電子與信息學報, 2013, 35(10): 2364-2370. doi: 10.3724/SP.J.1146.2013.00028.

LI Yuan, HE Xiaohai, ZHONG Guoyun,. A fast inter-frame prediction unit mode decision algorithm for high efficiency video coding based on temporal correlation[J].&, 2013, 35(10): 2364-2370. doi: 10.3724/SP.J.1146.2013.00028.

[10] 齊美彬, 陳秀麗, 楊艷芳, 等. 高效率視頻編碼幀內預測編碼單元劃分快速算法[J]. 電子與信息學報, 2014, 36(7): 1699-1705. doi: 10.3724/SP.J.1146.2013.01148.

QI Meibin, CHEN Xiuli, YANG Yanfang,. Fast coding unit splitting algorithm for high efficiency video coding intra prediction[J].&, 2014, 36(7): 1699-1705. doi: 10.3724/SP.J.1146. 2013.01148.

[11] SHEN Liquan, ZHANG Zhaoyang, and LIU Zhi. Effective CU size decision for HEVC intra coding[J]., 2014, 23(10): 4232-4241.doi: 10.1109/TIP.2014.2341927.

[12] SHEN Liquan, ZHANG Zhaoyang, and AN Ping. Fast CU size decision and mode decision algorithm for HEVC intra coding[J]., 2013, 59(1): 207-213. doi: 10.1109/TCE.2013.6490261.

[13] MIOK K, NAM L, and LI S. Fast single depth intra mode decision for depth map coding in 3D-HEVC[C]. IEEE International Conference on Multimedia & Expo Workshops, Turin, Italy, 2015:1-6. doi: 10.1109/ICMEW.2015.7169769.

[14] MORE E G, JUNG J, CAGNAZZO M,Initialization, limitation, and predictive coding of the depth and texture quadtree in 3D-HEVC[J]., 2014, 24(9): 1554-1565. doi: 10.1109/TCSVT.2013.2283110.

[15] LI W and LU Y. Rate-distortion optimization for depth map coding with distortion estimation of synthesized view[C]. IEEE International Symposium on Circuits and Systems, Beijing, China, 2013:17-20. doi:10.1109/ISCAS.2013.6571771.

[16] ROSTEN E and DRUMMOND T. Fusing points and lines for high performance tracking[C].IEEE International Conference on Computer Vision, Beijing, China, 2005: 1508-1515. doi: 10.1109/ICCV.2005.104.

[17] SHI J and TOMASI C. Good features to track[C]. IEEE International Conference on Computer Vision and Pattern Recognition, Seattle, WA, 1994: 593-600. doi: 10.1109/ CVPR.1994.323794.

[18] HARRIS C and STEPHENS M. A combined corner and edge detector[C]. Alvey Vision Conference, Manchester, UK, 1988: 147-151.

[19] MPEG 3D-HTM Software V13.0[OL]. https://hevc.hhi. fraunhofer.de/svn/svn 3DVCSoftware/tags/13.0, 2014.

[20] BJPMTEGAARD G. Calculation of average PSNR differences between RD curves[R]. ITU-T Video Coding Experts Group, 2002.

[21] MERKLE P, SMOLIC K, MULLER P,. Efficient prediction structures for Multi-view video coding[J]., 2007, 17(11): 1461-1473. doi: 10.1109/TCSVT.2007.903665.

Fast Coding Unit Decision Algorithm for Depth Intra Coding in 3D-HEVC

ZHANG Hongbin①②FU Changhong①SU Weimin①CHAN Yuilam②SIU Wanchi②

①(,,210094,)②(,,999077,)

An efficient Coding Unit (CU) decision algorithm is proposed for depth intra coding, in which the depth level of CU is predicted by Corner-Point (CP) and the co-located texture CU. More specially, firstly, the CPs are obtained by corner detector in junction with the quantization parameter, which are further used to pre-allocate the depth level. After that, the refinement of pre-allocation depth level is performed by considering the block partition of the co-located texture. Finally, different depth search range is selected based on the final pre-allocation depth levels. Simulation results show that the proposed algorithm can provide about 63% time saving with maintaining coding performance compared with the original 3D-HEVC method. On the other hand, it can achieve about 13% time saving while the BD-rate 3% decreased over the CU decision method that only considers the texture information.

3D-HEVC; Depth map; Intra coding; Coding unit; Corner Point (CP) detection

TP391

A

1009-5896(2016)10-2523-08

10.11999/JEIT151426

2015-12-17;改回日期:2016-06-22;網絡出版:2016-08-26

伏長虹 enchfu@njust.edu.cn

國家自然科學基金(61301109),江蘇省自然科學基金(BK2012395)

The National Natural Science Foundation of China (61301109), The Natural Science Foundation of Jiangsu Province (BK2012395)

張洪彬: 男,1988年生,博士生,研究方向為3D視頻壓縮和圖像處理.

伏長虹: 男,1981年生,副教授,研究方向為視頻壓縮和處理.

蘇衛民: 男,1960年生,教授,研究方向為雷達信號處理、圖像處理和視頻處理.

猜你喜歡
深度
深度理解不等關系
四增四減 深度推進
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
深度觀察
芻議深度報道的深度與“文”度
新聞傳播(2016年10期)2016-09-26 12:14:59
提升深度報道量與質
新聞傳播(2015年10期)2015-07-18 11:05:40
微小提議 深度思考
主站蜘蛛池模板: 欧美97欧美综合色伦图| 国产欧美专区在线观看| 成人福利在线观看| 亚洲综合九九| www.亚洲天堂| 国产小视频a在线观看| 不卡视频国产| 亚洲黄网在线| 亚洲综合日韩精品| 欧美一区日韩一区中文字幕页| 看国产毛片| 久久一色本道亚洲| 在线va视频| 蜜臀AV在线播放| 国产av无码日韩av无码网站| 中文字幕有乳无码| 国产sm重味一区二区三区| 欧美A级V片在线观看| 日本高清视频在线www色| 手机永久AV在线播放| 国产91无码福利在线 | 五月天天天色| 亚洲精品动漫| 亚洲男人在线天堂| 亚洲成a人片在线观看88| 久久国产拍爱| 99久久精品免费看国产免费软件| 日韩黄色大片免费看| swag国产精品| 国产av一码二码三码无码| 亚洲无码精彩视频在线观看| 国产亚洲高清在线精品99| 久夜色精品国产噜噜| 亚洲成人播放| 国产在线观看一区二区三区| 中国毛片网| 欧美国产综合色视频| 国产亚洲男人的天堂在线观看 | 夜夜爽免费视频| 波多野结衣无码AV在线| 精品国产自| 五月天丁香婷婷综合久久| 99尹人香蕉国产免费天天拍| 亚洲天堂网在线观看视频| 国产精品9| 无码精品国产dvd在线观看9久| 国产综合网站| 日韩天堂在线观看| 国产九九精品视频| 亚洲人网站| 亚洲国产精品日韩av专区| 高清免费毛片| 欧美日本激情| 国产欧美日韩精品综合在线| 高清国产va日韩亚洲免费午夜电影| 欧美一级片在线| 亚洲精品图区| 2021最新国产精品网站| 免费中文字幕一级毛片| 日韩中文字幕免费在线观看 | Jizz国产色系免费| 久久久黄色片| 欧洲精品视频在线观看| 在线观看91香蕉国产免费| 亚欧成人无码AV在线播放| 精品乱码久久久久久久| 成人午夜视频免费看欧美| 国产香蕉在线视频| 日韩一区精品视频一区二区| 欧美97欧美综合色伦图| 天堂av综合网| 精品久久蜜桃| 永久在线精品免费视频观看| 香蕉蕉亚亚洲aav综合| 精品无码视频在线观看| 日韩av在线直播| a在线观看免费| 亚洲熟女偷拍| 国产91特黄特色A级毛片| 日本免费一级视频| 久久青草精品一区二区三区| 国产福利影院在线观看|