999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多時-空相關(guān)的AVS2快速幀間預(yù)測算法

2016-12-29 06:04:14李國平王國中趙海武滕國偉
電視技術(shù) 2016年12期

陳 芳,李國平,王國中,趙海武,滕國偉

(上海大學(xué) 通信與信息工程學(xué)院,上海 200444)

?

基于多時-空相關(guān)的AVS2快速幀間預(yù)測算法

陳 芳,李國平,王國中,趙海武,滕國偉

(上海大學(xué) 通信與信息工程學(xué)院,上海 200444)

針對新一代視頻標(biāo)準(zhǔn)AVS2引進四叉樹分割、多參考幀等技術(shù)而帶來的幀間預(yù)測復(fù)雜度增加的問題,提出一種基于多時-空相關(guān)的快速幀間預(yù)測算法。該算法利用上下層相鄰編碼單元(Coding Unit, CU)和空時域相鄰CU在預(yù)測模式選擇上的相關(guān)性,計算當(dāng)前CU的模式復(fù)雜度,根據(jù)復(fù)雜度為當(dāng)前CU分配合適的候選預(yù)測模式;同時利用相鄰預(yù)測單元(Prediction Unit, PU)在參考幀選擇上的相關(guān)性,計算當(dāng)前PU的參考幀索引,根據(jù)索引為當(dāng)前PU分配合適的候選參考幀。實驗表明,該算法在BD-Rate(Bjontegaard delta bit rate)增加1.22%,BD-PSNR(Bjontegaard delta peak signal-to-noise rate)降低0.04 dB的前提下,平均減少47.54%的編碼時間。

AVS2;多時-空相關(guān);模式復(fù)雜度;預(yù)測模式;參考幀

為了滿足高分辨率視頻的需求,進一步提高視頻壓縮率,AVS工作組歷時3年制作完成了新一代擁有自主知識產(chǎn)權(quán)的視頻編碼標(biāo)準(zhǔn)AVS2[1],它的編碼效率與最新國際標(biāo)準(zhǔn)H.265/HEVC相當(dāng),比上一代國家標(biāo)準(zhǔn)AVS1以及上一代國際標(biāo)準(zhǔn)H.264/AVC的效率提高1倍。特別對于監(jiān)控視頻等場景類視頻,AVS2壓縮效率又翻了一番,達(dá)到H.264/AVC的4倍。

AVS2引入了一些新的編碼工具[2]以提升編碼效率,如大尺寸四叉樹編碼單元劃分、多參考幀預(yù)測、編碼單元非對稱分割、多角度幀內(nèi)預(yù)測和像素自適應(yīng)補償濾波等。這些技術(shù)在提高編碼效率的同時,也顯著增加了編碼復(fù)雜度。為了實現(xiàn)AVS2在電視直播、視頻會議等視頻通信系統(tǒng)中的實時應(yīng)用,必須降低其編碼的計算復(fù)雜度。

在AVS2編碼標(biāo)準(zhǔn)中,幀間預(yù)測占據(jù)著大量的編碼時間,因此如何降低幀間預(yù)測的復(fù)雜度成為降低編碼復(fù)雜度的關(guān)鍵。目前,針對幀間預(yù)測快速算法的研究主要有兩種:一是模式快速選擇,基于空時域相鄰塊的相關(guān)性和一些已知的編碼參數(shù)對當(dāng)前塊的劃分模式或預(yù)測模式提前判決。如文獻[3]利用上層相鄰塊和空時域相鄰塊的預(yù)測模式計算當(dāng)前塊的預(yù)測模式復(fù)雜度,根據(jù)復(fù)雜度為當(dāng)前塊分配合理的預(yù)測模式,跳過不需要的模式。這種方法充分利用了相鄰塊間的相關(guān)性,準(zhǔn)確地預(yù)測了模式候選值。鄭蕭楨等提出了一種非對稱運動劃分(Asymmetric Motion Partitions, AMP)快速決策機制[4],利用水平、垂直非方形劃分模式的一致性,將對稱非方形劃分模式作為判斷是否使用非對稱非方形劃分的依據(jù)。這種方法充分利用了模式間的紋理相關(guān)性為AMP模式提前作出判決。二是參考幀快速選擇,減少各模式下參與運動估計的參考幀數(shù)目。如文獻[5]以運動矢量差值為閾值,選擇適當(dāng)?shù)南噜弶K的最佳參考圖像獲得當(dāng)前塊的參考圖像集,減少參考幀遍歷的冗余。

文獻[3]雖然取得了較好的效果,但只是基于HEVC模型中幀間預(yù)測的特征統(tǒng)計對模式快速選擇。由于AVS2在編碼單元類型、運動矢量預(yù)測、率失真代價計算等方面和HEVC有很大的不同,該算法并不能直接應(yīng)用在AVS2中。文獻[4]和[5]分別只是針對AVS2模型中的AMP特殊模式和參考幀選擇作出優(yōu)化,降低的編碼時間有限。基于AVS2的預(yù)測模式和參考幀選擇的特征,本文提出了一種新的算法,充分利用具有較強相關(guān)性的下層相鄰的4個塊和空時域相鄰塊的預(yù)測模式獲得當(dāng)前塊的候選模式,同時利用相鄰塊的參考幀索引預(yù)測當(dāng)前塊的候選參考幀,減少遍歷預(yù)測模式和參考幀的時間。

1 AVS2幀間預(yù)測關(guān)鍵技術(shù)介紹

1.1 預(yù)測模式選擇

AVS2采用了更加靈活的編碼結(jié)構(gòu),包括編碼單元(Coding Unit,CU)、預(yù)測單元(Prediction Unit,PU)和變換單元(Transform Unit,TU)。一幅圖像被分割成固定大小的編碼樹單元(Coding Tree Unit,CTU),CTU按照四叉樹的迭代方式劃分為一系列的CU。CU尺寸范圍為8×8至64×64。CU又被劃分為一個或多個PU和TU。

圖1 CU的預(yù)測模式

如圖1所示,幀間預(yù)測時CU有8種幀間預(yù)測模式(NO_SPLIT,HOR_SYM,VER_SYM,CROSS_SPLIT,HOR_UP,HOR_DOWN,VER_LEFT,VER_RIGHT)和4種幀內(nèi)預(yù)測模式(I_NO_SPLIT,I_CROSS_SPLIT,I_HOR,I_VER)。CU的幀間預(yù)測模式還包括SKIP和DIRECT兩種特殊模式。

AVS2模型采用率失真優(yōu)化方式?jīng)Q定最佳預(yù)測模式。遍歷圖1中所有預(yù)測模式,分別根據(jù)式(1)計算每種模式對應(yīng)的率失真代價,選擇代價最小的模式作為最佳預(yù)測模式。

J(s,c,mode|QP,λmode)=SAD(s,c,mode|QP)+

λmodegR(s,c,mode|QF)

(1)

式中:mode為當(dāng)前預(yù)測模式;SAD表示在給定量化參數(shù)QP的條件下,當(dāng)前mode的重建塊c與原始塊s的絕對誤差和;λmode是拉格朗日乘子;R表示編碼運動矢量殘差、參考幀索引和變換塊系數(shù)等語法元素需要的比特數(shù)。

1.2 參考幀選擇

AVS2模型采用率失真優(yōu)化方法選擇最優(yōu)參考幀。在當(dāng)前預(yù)測模式下對CU進行編碼時,對該CU的每個PU分別做運動估計,利用式(2)從參考幀配置集中選擇率失真代價最小的參考幀作為當(dāng)前PU的最佳參考圖像。這種方法需要遍歷參考配置集中的每個參考幀。

J(mv,ref|λmotion)=SAD(s,r(ref,mv))+λmotion×

(R(mvd)+R(ref))

(2)

式中:ref為當(dāng)前PU選擇的參考幀;SAD表示原始塊s與參考塊r(ref,mv)的絕對誤差和;mv是當(dāng)前PU相對于參考塊的運動矢量;;R表示編碼運動矢量殘差(mvd)和ref需要的比特數(shù)。

根據(jù)上述分析,確定一個CU的最終劃分形式,需要遍歷CU的14種預(yù)測模式和CU下PU的每個參考幀,這使得幀間預(yù)測的復(fù)雜度很大。然而,相鄰CU在預(yù)測模式選擇和參考幀選擇上具有很大相關(guān)性,可以根據(jù)這種相關(guān)性減少遍歷帶來的復(fù)雜度。本文將統(tǒng)計相鄰CU的相關(guān)性,并根據(jù)相鄰CU的相關(guān)因子和編碼信息為當(dāng)前CU分配合適的預(yù)測模式和參考幀。

2 快速幀間預(yù)測算法

2.1 相鄰CU的相關(guān)性分析

本文采用的相鄰CU的位置關(guān)系如圖2所示。CU_curr為當(dāng)前編碼CU;CU_nextdepth為相鄰的下層深度的4個CU;CU_left,CU_leftup,CU_up,CU_rightup分別為空域相鄰的左、左上、上和右上CU;CU_belcol和CU_aftcol為前后相鄰幀的對應(yīng)位置CU。AVS2模型采用類似四叉樹后序遍歷的方式對CU遍歷,因此在編碼當(dāng)前CU時,這些相鄰CU均是已編碼CU,獲取它們的信息不會增加計算復(fù)雜度。

圖2 當(dāng)前CU與相鄰CU的位置關(guān)系

幀間預(yù)測時,兩個相鄰CU間的運動一致性越高,相關(guān)性越強。為了統(tǒng)計相鄰CU的相關(guān)性,本文以AVS2參考軟件RD14.0為平臺,絕對誤差和(SAD)為相關(guān)性的指標(biāo)。以CU_left為例,由RD14.0的傳統(tǒng)方法預(yù)測CU_left,可以得到CU_left在最佳編碼模式(包括最佳的預(yù)測模式、參考幀、運動矢量)下的SAD。CU_curr不作幀間預(yù)測,直接利用CU_left的最佳編碼模式編碼,同樣可得CU_curr的SAD。若這兩個CU的SAD值越接近,則它們的運動一致性越高,相關(guān)性越強。類似地,可統(tǒng)計得到當(dāng)前CU與其他相鄰CU的相關(guān)性。

定義相關(guān)性因子RF表示各相鄰CU間的相關(guān)性,RF的計算公式為

(3)

式中:SADnei表示相鄰CU在最佳編碼模式下的SAD;SADcurr表示當(dāng)前CU用相鄰CU的最佳編碼模式編碼得到的SAD。計算下層的每個CU的RF時,由于尺寸是當(dāng)前CU的1/4,為了使SADnei與SADcurr具有可比性,取實際得到的下層CU的SAD值的4倍帶入SADnei。

相鄰CU的相關(guān)性因子RF如表1所示。表中“(×)”中的數(shù)字表示CU的個數(shù)。這些相鄰CU的相關(guān)性均大于0.5,說明相鄰CU與當(dāng)前編碼CU均具有較強的相關(guān)性。由于自然序列中水平和垂直的運動最頻繁,左邊和上邊CU的相關(guān)性最強。下一深度的4個CU和當(dāng)前CU具有內(nèi)容的重復(fù)性,相關(guān)性其次。前后幀對應(yīng)位置的CU相關(guān)性相對最小。

表1 各相鄰CU的相關(guān)因子RF

2.2 預(yù)測模式快速選擇

紋理簡單、運動平緩的CU選擇簡單的預(yù)測模式以減少編碼比特率,而紋理復(fù)雜、運動劇烈的CU選擇復(fù)雜的預(yù)測模式增加預(yù)測準(zhǔn)確度。因此,表2針對不同運動和紋理的CU,將CU的預(yù)測模式分為5類,定義模式復(fù)雜度因子MCF表征其運動和紋理的復(fù)雜度。

表2中MCF值的分配由實驗所得。每種預(yù)測模式對應(yīng)一個MCF值,簡單的預(yù)測模式對應(yīng)較小的MCF值,復(fù)雜的預(yù)測模式對應(yīng)較大的MCF值。相鄰CU編碼選出最佳的預(yù)測模式后,根據(jù)表2將預(yù)測模式映射為相應(yīng)的MCF值,結(jié)合表1中的相關(guān)因子RF,可預(yù)測當(dāng)前CU的MCF值。根據(jù)預(yù)測得到的MCF值可為當(dāng)前CU分配合適的候選預(yù)測模式。

表2 預(yù)測模式分類及與MCF的對應(yīng)

定義由相鄰CU預(yù)測得到的當(dāng)前CU的模式復(fù)雜因子為PMCF,即

(4)

式中:N取為9;MCFi表示各相鄰CU的模式復(fù)雜度因子MCF;RFi表示相鄰CU的相關(guān)因子RF;Ei表示相鄰CU是否存在。Ei=1表示相鄰CU存在,Ei=0則表示不存在。由表2可得PMCF的取值范圍為[0,5]。

PMCF很大程度上反映了當(dāng)前CU的預(yù)測模式復(fù)雜度,根據(jù)PMCF的取值為CU分配適當(dāng)?shù)暮蜻x預(yù)測模式,分配公式為

(5)

式中:{MODEcand}表示當(dāng)前CU的候選預(yù)測模式;Num表示相鄰CU的存在數(shù)量。當(dāng)Num>N/2且相鄰CU都選擇SKIP模式時,PMCF=0,說明當(dāng)前CU無運動且紋理很簡單,當(dāng)前CU只選擇C1為預(yù)測模式;當(dāng)02時,預(yù)測當(dāng)前CU的紋理簡單且運動平緩,因此選擇C1,C2,C3三種簡單的模式為當(dāng)前CU的候選預(yù)測模式;當(dāng)PMCF>T2且Num>2時,預(yù)測當(dāng)前CU的紋理復(fù)雜且運動劇烈,因此選擇C4,C5兩種復(fù)雜的模式,由于C1模式編碼比特數(shù)少,因此CU復(fù)雜時也考慮添加C1模式;否則,遍歷所有的模式。T1和T2根據(jù)實驗分別取值為1和4。

2.3 參考幀快速選擇

自然視頻序列中當(dāng)前幀與相鄰幀的相關(guān)性大于與遠(yuǎn)端參考幀的相關(guān)性,相鄰幀被選為最佳參考幀的概率遠(yuǎn)大于其他參考幀[6]。因此可利用視頻的特征減少對參考幀的搜索,減少編碼計算復(fù)雜度。

表1的數(shù)據(jù)顯示,相鄰CU具有強相關(guān)性。相鄰PU也具有類似的相關(guān)性。本文利用相鄰PU的最佳參考幀索引預(yù)測當(dāng)前PU的參考幀索引值,根據(jù)預(yù)測得到的索引值為當(dāng)前PU分配合適的候選參考幀,去除參考幀遍歷的冗余。前后幀對應(yīng)位置的PU對當(dāng)前PU參考幀選擇的參考意義較小,本文所選的相鄰PU不包含前后幀對應(yīng)位置的PU。相鄰PU的位置關(guān)系類似圖2中相鄰CU的位置關(guān)系。

定義由相鄰PU預(yù)測得到的當(dāng)前PU的參考幀索引為PRI。類似PMCF計算公式,PRI的計算公式為

(6)

式中:N取為7;RIi為各相鄰PU的最佳參考幀索引,RIi按照與當(dāng)前幀距離由近到遠(yuǎn)依次取值為1,2,3,…,M-1,M為總參考幀數(shù);RFi表示相鄰PU的相關(guān)因子RF,本文采用表1中的相關(guān)性因子;Ei表示相鄰PU是否存在,Ei=1表示相鄰PU存在,Ei=0則表示不存在。

根據(jù)PRI的取值為當(dāng)前PU分配候選的參考幀。候選參考幀的分配為

(7)

式中:{REFcand}為PU的候選參考幀;Num表示相鄰PU的存在數(shù)量。當(dāng)Num>N/2且PRI=0時,相鄰PU都選擇最近的參考幀,說明當(dāng)前PU與最近參考幀中的參考塊的相關(guān)性最強,當(dāng)前PU選擇最近參考幀為最佳參考幀;當(dāng)Num>2且PRI

3 實驗結(jié)果

為了驗證本文提出的快速幀間算法的有效性,在AVS2最新參考軟件RD14.0中實現(xiàn)本文算法,選擇不同分辨率和不同運動紋理程度的序列進行測試,實驗具體配置如表3所示。采用峰值信噪比差值(Bjontegaard delta peak signal-to-noise rate, BD-PSNR)和編碼比特率差值(Bjontegaard delta bit rate, BD-Rate)[7]分別衡量視頻序列中圖像失真程度和壓縮效率,評估算法的整體率失真特性。編碼時間變化則用ΔT表示,即

(8)

式中,TRD和Tpro分別表示RD14.0中傳統(tǒng)方法和所提的快速算法的編碼時間。

本文除了和RD14.0的傳統(tǒng)方法對比之外,還選擇在RD14.0的基礎(chǔ)上對文獻[5]的算法進行橫向?qū)Ρ龋Y(jié)果如表4所示。由表4可得,文獻[5]的算法相對于RD14.0傳統(tǒng)方法在BD-Rate增加3.00%,BD-PSNR降低0.1 dB的前提下,平均減少32.04%的編碼時間。而本文算法相對于RD14.0傳統(tǒng)方法在BD-Rate增加1.22%,BD-PSNR降低0.04 dB的前提下,平均減少47.54%的編碼時間。因此,本文算法比傳統(tǒng)方法節(jié)省了較多時間,而且與文獻[5]的算法相比,本文算法不僅額外節(jié)省15.5%的時間,而且BD-Rate降低1.78%,BD-PSNR增加0.06 dB。

表3 實驗測試條件

表4 各算法與RD14.0對比的結(jié)果

對于運動速度較快的RaceHorses和紋理相對復(fù)雜的City,本文所提算法節(jié)省的時間較少。而對于運動緩慢的Crew和紋理相對簡單的BasketballDrive,本文所提算法節(jié)省的時間較多。由于Crew存在鏡頭閃爍,Cactus旋轉(zhuǎn)運動較多,候選的預(yù)測模式和參考幀誤差相對其他序列較大,視頻質(zhì)量下降較多。

選擇實驗數(shù)據(jù)中BD-Rate增加較多,BD-PSNR降低較多的序列Crew和Cactus繪制RD曲線。如圖3所示,本文算法與RD14.0方法的RD曲線基本重合,對這兩種序列的編碼效率影響很小。因此可證本文算法對于視頻編碼質(zhì)量和壓縮效率影響很小。

圖3 本文算法與RD14.0傳統(tǒng)方法的的RD曲線

選擇實驗數(shù)據(jù)中時間節(jié)省較少的序列RaceHorses和City,分別繪制4個不同QP下,文獻[5]和本文算法較RD14.0中傳統(tǒng)方法的時間節(jié)省圖。如圖4所示,橫坐標(biāo)為編碼的QP,縱坐標(biāo)為相對于RD14.0的編碼時間節(jié)省。由圖4中走勢可得,隨著QP的增加,快速算法的時間節(jié)省越多,本文算法相對于RD14.0中的傳統(tǒng)方法時間節(jié)省較多。而且和文獻[5]比較,本文算法也能額外節(jié)省不少時間。因此,本文的快速算法是有效的。

圖4 各算法相對于RD14.0傳統(tǒng)方法的時間節(jié)省圖

4 小結(jié)

本文重點研究了在AVS2的幀間預(yù)測中,使用多劃分模式、多參考幀技術(shù)帶來的編碼復(fù)雜度增加問題。針對這一問題,本文創(chuàng)新性地使用與當(dāng)前編碼CU有著強相關(guān)性的下一深度的4個CU的編碼信息,并結(jié)合空時域相鄰CU的編碼信息。統(tǒng)計這些相鄰CU的相關(guān)性,并由相鄰CU的相關(guān)因子和預(yù)測模式為當(dāng)前CU分配合理的候選預(yù)測模式,同時利用相鄰PU的相關(guān)因子和參考幀索引預(yù)測當(dāng)前PU的候選參考幀,避免了預(yù)測模式和參考幀遍歷的冗余。實驗結(jié)果表明,本文算法與RD14.0的傳統(tǒng)方法相比,在BD-Rate增加1.22%,BD-PSNR降低0.04 dB的前提下,平均減少47.54%的編碼時間。與文獻[5]的算法相比,不僅節(jié)省15.5%的時間,而且BD-Rate降低1.78%,BD-PSNR增加0.06 dB。由此可見,本文算法在視頻質(zhì)量和比特率損失很小的情況下,編碼時間節(jié)省較多。

[1] HE Z C,YU L, ZHENG X Z, et al. Framework of AVS2-video coding[C]//Proc. the 20th IEEE International Conference on Image Processing. Piscataway: IEEE,2013: 1515-1519.

[2] 馬思偉.AVS視頻編碼標(biāo)準(zhǔn)技術(shù)回顧及最新進展[J].計算機研究與發(fā)展,2015,52(1):27-37.

[3] SHEN L Q, ZHANG Z Y, LIU Z. Adaptive inter-mode decision for HEVC jointly utilizing inter-level and spatiotemporal correlations[J]. IEEE transactions on circuits and systems for video technology,2014,24(10): 1709-1722.

[4] 鄭蕭楨.AVS_M3012:AVS快速決策機[EB/OL]. [2016-04-10]. ftp://124.207.250.92/public/avsdoc/1212_Beijing/contrib/.

[5] 林琪,趙海武,王國中,等.面向AVS2的快速幀間預(yù)測算法[J].電視技術(shù),2014,38(17):76-84.

[6] 張淑芳,李華.基于H.264的多參考幀快速選擇算法[J].電子學(xué)報,2009,37(1):62-66.

[7] BJONTEGAARD G. Calculation of average PSNR difference between RD-curves[EB/OL]. [2016-04-10]. http://ftp3.itu.ch/av-arch/video-site/0104-Aus/.

陳 芳(1992— ),女,碩士生,主研視頻編解碼技術(shù);

李國平(1974— ),碩士生導(dǎo)師,主研視頻編解碼技術(shù)、復(fù)用技術(shù)等;

王國中(1962— ),博士生導(dǎo)師,主研視頻編碼與多媒體通信、圖像處理等;

趙海武(1973— ),碩士生導(dǎo)師,主研視頻編解碼技術(shù)、復(fù)用技術(shù)等;

滕國偉(1975— ),碩士生導(dǎo)師,主研視頻編解碼技術(shù)、智能視頻分析等。

責(zé)任編輯:薛 京

Fast inter-frame prediction algorithm for AVS2 based on multiple temporal-spatial correlations

CHEN Fang, LI Guoping, WANG Guozhong, ZHAO Haiwu, TENG Guowei

(ShanghaiUniversity,SchoolofCommunicationandInformationEngineering,Shanghai200444,China)

The complexity of inter-frame prediction is increased in the new generation video standard AVS2 by introducing the technology of quad-tree division, multiple reference frames, etc. To solve the problem, a fasted inter-frame prediction algorithm based on multiple temporal-spatial correlations is proposed. The mode complexity of current coding unit(CU) is calculated by the correlations of adjacent depth and adjacent temporal-spatial CU in terms of the selection of prediction mode, then the appropriate candidates of prediction mode are distributed according to the mode complexity. At the same time, the reference index of current prediction unit(PU) is calculated by the correlations of adjacent PU in terms of the selection of reference frame, then the appropriate candidates of reference frame are distributed according to the reference index. Experimental results show that, the proposed algorithm can reduce the encoding time by 47.54% on average, with a 1.22% increase of Bjontegaard delta bit rate(BD-Rate) and a 0.04dB decrease of Bjontegaard delta peak signal-to-noise rate(BD-PSNR).

AVS2; multiple temporal-spatial correlation; mode complexity; prediction mode; reference frame

國家自然科學(xué)基金項目(61271212);國家“863”計劃項目(2015AA015903)

陳芳,李國平,王國中,等.基于多時-空相關(guān)的AVS2快速幀間預(yù)測算法[J]. 電視技術(shù),2016,40(12):1-6. CHEN F, LI G P, WANG G Z,et al.Fast inter-frame prediction algorithm for AVS2 based on multiple temporal-spatial correlations[J]. Video engineering,2016,40(12):1-6.

TN919.81

A

10.16280/j.videoe.2016.12.001

2016-05-20

主站蜘蛛池模板: 国产福利2021最新在线观看| 国产素人在线| 亚洲精品无码日韩国产不卡| 久久综合成人| 国产福利小视频在线播放观看| 免费在线国产一区二区三区精品| 国产屁屁影院| 国产乱子伦视频在线播放| 波多野结衣在线一区二区| 久久青青草原亚洲av无码| 国产美女91视频| 亚洲成年人网| 一级香蕉视频在线观看| 亚洲精品卡2卡3卡4卡5卡区| 亚洲欧洲天堂色AV| 成年人国产网站| 毛片久久网站小视频| 亚洲精品自拍区在线观看| 91成人在线观看| 亚洲欧洲日韩综合| 国产精品精品视频| 婷婷综合在线观看丁香| av尤物免费在线观看| 久久综合结合久久狠狠狠97色 | 久久久久人妻一区精品| 另类欧美日韩| av午夜福利一片免费看| 欧美日韩亚洲综合在线观看| 波多野结衣一二三| 国产精品夜夜嗨视频免费视频| 国产精品白浆在线播放| 8090午夜无码专区| 日韩无码视频专区| 亚洲精品手机在线| 99久久这里只精品麻豆| 久久亚洲国产一区二区| 中文字幕在线永久在线视频2020| 亚洲国产天堂久久综合| 高潮毛片无遮挡高清视频播放| 青青草原国产精品啪啪视频| 中文字幕欧美日韩| 91精品国产91久久久久久三级| 国产精品主播| 免费又爽又刺激高潮网址 | 欧美天堂在线| 在线无码av一区二区三区| 超碰aⅴ人人做人人爽欧美 | a级毛片免费网站| 久久大香香蕉国产免费网站| 黄色三级网站免费| 99久久精品国产综合婷婷| 精品国产污污免费网站| 一本大道在线一本久道| 色偷偷一区二区三区| 亚洲一区二区约美女探花| 免费无码网站| 一级全黄毛片| 国产成人资源| 久久久91人妻无码精品蜜桃HD| 午夜无码一区二区三区| 日韩一级二级三级| 国产成人h在线观看网站站| 91在线播放国产| 日本高清在线看免费观看| 久久精品丝袜高跟鞋| 亚洲精品另类| av一区二区三区高清久久| 制服丝袜 91视频| 亚洲看片网| 亚洲欧美日韩中文字幕在线一区| 高清色本在线www| 亚洲美女视频一区| 青青青国产在线播放| 欧美日韩精品一区二区在线线 | 99久久国产综合精品女同| 国产精品视频白浆免费视频| 91黄色在线观看| 制服丝袜国产精品| 国产成人精品一区二区不卡| 国产黄色免费看| 欧美19综合中文字幕| 18禁高潮出水呻吟娇喘蜜芽|