999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于視頻時域感知特性的恰可察覺失真模型

2022-03-02 08:28:38邢亞芬殷海兵王鴻奎駱瓊華
電信科學 2022年2期
關鍵詞:特征模型

邢亞芬,殷海兵,王鴻奎,2,駱瓊華

研究與開發

基于視頻時域感知特性的恰可察覺失真模型

邢亞芬1,殷海兵1,王鴻奎1,2,駱瓊華1

(1.杭州電子科技大學通信工程學院,浙江 杭州 310018;2.華中科技大學電子信息與通信學院,湖北 武漢 430074)

現有的時域恰可察覺失真(just noticeable distortion,JND)模型對時域特征參量的作用刻畫尚不夠充分,導致空時域JND模型精度不夠理想。針對此問題,提出能準確刻畫視頻時域特性的特征參量以及異質特征參量同質化融合方法,并基于此改進時域JND模型。關注前景/背景運動、時域持續時間、時域預測殘差波動強度、幀間預測殘差等特征參量,用來刻畫視頻內容的時域特征;基于人眼視覺系統(human visual system,HVS)特性探索感知概率密度函數,將異質特征參量統一映射到自信息和信息熵尺度上,實現同質化融合度量;從能量分配的角度探究視覺注意與掩蔽的耦合方法,并據此構建時域JND權重模型。在空域JND閾值的基礎上,融合時域權重以得到更加準確的空時域JND模型。為了評估空時域JND模型的性能,進行了主觀質量評估實驗,與現有的JND模型相比,在感知質量接近的情況下,提出的空時域JND模型能夠容忍更多失真,具有更強的掩藏噪聲的能力。

恰可察覺失真;人眼視覺特性;視覺掩蔽;視覺注意;自信息;信息熵

0 引言

人眼視覺系統(human visual system,HVS)的敏感度有限,只能察覺圖像大于某一閾值的失真,這個閾值被稱為恰可察覺失真(just noticeable distortion,JND)閾值。由于JND描述了HVS在視覺內容上的可見性,因此在圖像和視頻處理領域,如果可以充分利用HVS特性進行壓縮,能夠在保證視頻主觀質量的情況下顯著減少視頻傳輸的碼率。因此,基于HVS特性建模的JND閾值被廣泛用于優化量化、運動估計以及視頻目標質量評價等[1]。

視頻中的特征參量對人眼視覺感知有重要影響。Korhonen[2]提取視頻中74個特征參量用于視頻質量評價。傳統JND建模實驗根據不同視頻內容,如空域的亮度、邊緣、紋理、顏色等,時域視頻特征如目標運動、時域頻率等,考慮了一些主要的HVS特性,如亮度自適應(luminance adaption,LA)、對比掩蔽(contrast masking,CM)效應、中心凹掩蔽(foveated masking,FM)效應、空時域對比敏感函數(contrast sensitivity function,CSF)、時域掩蔽(temporal masking,TM)效應、視覺注意特性等。現有的JND模型根據計算域不同一般可以分為兩類:像素域JND模型和基于子帶(DCT或小波變換)的JND模型。像素域JND模型可以直接計算,因此時域JND建模在像素域主要利用相鄰幀間亮度差,如Chou等人[3]和Yang等人[4]依據相鄰幀的平均亮度差作為時域的不連續性構建時域JND模型,Chin等人[5]利用連續幀的運動變化估計JND閾值。時域基于子帶的JND建模主要考慮CSF和人眼運動特性:Kelly等人[6]依據收集的視網膜穩定行波刺激實驗的數據,首次提出了空時域CSF模型。之后,Daly等人[7]加入人眼運動特性對Kelly的模型做了補充。Jia等人[8]在他們的基礎上將空時域CSF和人眼的運動特性相結合。此外,Wei等人[9]考慮人眼對不同運動方向的敏感程度,構建了適合于單通道灰度視頻的變換域JND模型。Bae等人[10]將時域掩蔽效應和中心凹掩蔽效應結合起來,提出一種時域中心凹掩蔽(temporal-foveated masking,TFM)模型,估計運動目標的JND閾值。此外,由于機器學習在感知領域的廣泛應用,Wang等人[11-12]構建了兩個基于JND壓縮視頻質量的大規模數據集:MCL-JCV和VideoSet。Ki等人[13]提出基于線性回歸的LR-JNQD模型和基于卷積神經網絡的CNN-JNQD模型。Liu等人[14]提出圖像的PW-JND預測模型,基于深度學習的二元分類器能夠根據圖像感知質量是否有損來決定圖像的JND值。Zhang等人[15]提出基于深度學習的視頻感知質量預測模型,它能夠預測不同分辨率和編碼參數的壓縮視頻的感知質量,從而計算JND的閾值。

然而,由于視頻時域場景的復雜和多樣性,傳統方法對時域視覺特征參量的提取并不充分,導致時域仍有大量冗余信息。因此,若需要準確估計視頻時域JND閾值,就需要分析時域不同特征參量對人眼視覺感知的影響。Wang等人[16]研究了視頻中普遍存在的3種運動——絕對運動、相對運動和背景運動,并分析由這3種運動引起的視覺注意和掩蔽效應,提出了基于運動感知的視頻質量評價方法。基于這個啟發,分析視頻中影響人眼視覺感知特性的5個特征參量,考慮利用相對運動和運動軌跡上的持續時間度量視覺顯著度,由背景運動、幀間殘差波動強度和相鄰幀間預測殘差度量不確定度,時域感知特征參量提取方法如圖1所示。這些特征參量在一定程度上會對人眼感知失真造成影響。一方面,部分激勵源會影響人眼關注的定睛點,另一方面,有些特征參量會降低視覺感知靈敏度,消耗人眼感知能量。這些不同激勵之間的相互作用或相互干擾就造成了視覺掩蔽效應[17]。探究這些激勵的耦合作用一直以來是JND建模重要的研究內容之一[16]。例如像素域建模時普遍采用非線性相加模型(nonlinear additivity model for masking,NAMM),能夠消除掩蔽效應的重疊部分,而DCT域JND一般建模為多個掩蔽因子的乘積。但這些模型或HVS特性考慮不全面導致計算精度不足,或者計算方式復雜導致難以融合,以致JND閾值估計不準確。因此,提出一種統一有效的感知特征參量度量方法以對異質感知特征參量進行同化是JND建模過程中需要解決的重要問題,若能以相同的標準去度量這些特征參量,有利于更準確地分析不同視覺特征之間的相互耦合作用。

一般來說,視覺感知可以建模為信息交互過程,而HVS相應地被視為一個高效的編碼器或信息提取器,由此可以推導:視覺場景中包含更多信息的區域更有可能吸引視覺注意[16],如果有關于信源的統計概率模型,那么可以使用信息論對視頻內容進行量化。此外,以往的實驗表明,HVS并不能以相同的確定程度感知所有的信息內容,例如:當視頻存在大量隨機背景運動時,HVS無法以感知靜態圖像相同的精度感知視頻內容,即這種視頻信號被感知時有更高的不確定度,這相當于在信息傳輸過程中產生了信道失真,若能將這種信道失真過程建立為與感知參量相關的模型,那么這種不確定性也能使用信息論來量化[18]。基于這個啟發,依據提出的5個感知特征參量,提出了相應的統計概率模型,并使用信息論來量化由這些參量導致的視覺感知顯著度和不確定度,并將映射到相同量綱的5個感知特征參量進行融合,得到時域JND權重模型,在空域JND閾值的基礎上,融合時域權重得到基于空時域感知特性結合的JND模型。

1 感知參量同質化度量

異質感知特征參量需要尋求統一的度量方法,以有效融合其相互作用關系。從能量分配的角度探究異質感知特征參量的融合方法,基于HVS感知特性,提出特征參量的概率密度函數,利用感知信息論原理定量度量感知顯著性和感知不確定性,實現異質感知特征參量的同質化度量。

1.1 相對運動同質化度量

一般地,運動的目標相對運動越大,運動面積越大,越能吸引人眼的注意,相應地有越大的視覺感知顯著度。統計分析的結果給出了相對運動的先驗概率分布,大致可以用一個冪函數來表示[17]:

此外,由于人眼視覺敏感具有方向性,人眼對水平和垂直分量比較敏感,而對對角線方向不敏感,即具有傾斜效應[19]。基于此分析,考慮運動方向對視覺顯著性的影響,提出基于運動方向的顯著度調節因子:

相對運動的視覺感知顯著度隨著運動速度和運動目標面積的增大而增大,運動矢量方向角越接近水平和垂直方向,視覺顯著度越大,這符合人眼視覺特性。

1.2 背景運動同質化度量

大范圍隨機的背景運動會消耗人眼感知能量,降低人眼對視頻細微失真的分辨能力,這種抑制效應可以認為是背景運動導致的視覺感知不確定性,等效于人眼在觀察視頻細節時加入了噪聲。可以使用似然函數來表示這個等效噪聲,參考以前的工作,這個似然函數為對數正態分布,計算式如下[17]:

1.3 時域持續時間同質化度量

式(9)計算的視覺感知顯著度在一定時間閾值內隨持續時間增加而增加,超過這個閾值后會趨于飽和。此外,絕對運動矢量越大,且單位時間內時域運動方向的不規則度越大,人眼視覺顯著度越小,式(9)符合HVS特性。

1.4 殘差波動強度同質化度量

運動軌跡上像素值隨時間的頻繁變化,表現為閃爍、蚊式噪聲等,會吸引人眼關注,并使觀眾產生厭煩感,這相當于視頻播放過程中的時域不確定度源。這種不確定性相當于在觀看視頻時加入了等效噪聲,可以使用似然函數來表示這個等效噪聲。考慮時域HVS特性,將概率密度函數建模為對數正態分布形式,計算式表示為:

因此,加入時域運動矢量大小不規則度調節殘差波動強度導致的視覺感知不確定度,使用信息熵度量計算式如下:

1.5 幀間殘差同質化度量

貝葉斯腦理論表明,對于當前輸入的圖像,人腦會自動預測后續視頻幀,以實現對輸入場景的感知。輸入圖像與人腦中的預測圖像之間的誤差是不可預測部分,即時域分量的不確定性。這種不確定性相當于在觀看視頻時加入了等效噪聲,可以使用似然函數來表示這個等效噪聲,考慮時域HVS特性,將概率密度函數建模為對數正態分布形式,計算式表示為:

其中,為刺激源,即相鄰幀間預測殘差,計算式為[22]:

以上計算式中常量的取值參考文獻[16]中的方法,均為根據主觀實驗手動選取,常量的小范圍波動對最終結果影響不大。圖2(a)為“BasketBallDrill”序列的第5幀的原始圖像,圖2(b)和圖2(c)分別為相對運動和時域持續時間產生的感知顯著度圖,越亮的區域表示有更大的視覺感知顯著度;圖2(d)、圖2(e)和圖2(f)分別為背景運動、運動軌跡上殘差波動強度和相鄰幀間預測誤差產生的感知不確定度圖,越亮的區域對應更大的視覺感知不確定度。

2 時域參量融合

由于已經計算了相對運動、時域持續時間等特征參量引起的視覺感知顯著度,背景運動、時域軌跡上的殘差波動強度、相鄰幀間預測殘差引起的感知不確定度。基于自信息和信息熵的理論,將5個異質感知特征參量同質化到統一尺度,并考慮視覺顯著性的影響,加入顯著性調節因子,對JND進行時域和空域調節,空時域JND模型框圖如圖3所示。

圖3 空時域JND模型框架

3 實驗結果與分析

為了驗證JND模型的有效性,分別進行了客觀和主觀視頻質量評價實驗。選取HEVC測試序列中的9個視頻進行測試。其中有5個視頻分辨率為1 920 dpi×1 080 dpi的全高清分辨率的視頻,分別為BasketballDrive(Ba)、BQTerrance(BT)、Cactus(CT)、Kimonol(Ki)和ParkScence(Pa),另外4個視頻BasketballDrill(BD)、BQMall(BM)、PartyScence(PS)和RaceHorse(RH)為分辨率832 dpi×480 dpi的視頻。根據計算式:

圖5為不同JND模型處理結果,表示“BasketballDrill”序列第5幀根據不同JND模型加入噪聲后的圖像,圖5中被放大的細節部分為人眼更易注意的區域。4個JND模型分別為Bae[10]的模型、Wei[9]的模型、Zeng[25]的模型,以及所提出的JND模型,相應的PSNR分別為23.93 dB、23.80 dB、28.28 dB以及23.03 dB。由于放大的區域對于整幅圖像來說是顯著的,因此,這個區域JND閾值較低,能加入的噪聲較少。而從圖5可以看出,圖5(c)和圖5(d)中運動員身上都有明顯可見的噪聲,且圖5(b)球衣上的數字模糊了,而提出的模型考慮了這一特性,計算所得這部分區域的JND閾值更小,從圖5中可以看出圖5(e)與其余3張圖像相比有更好的感知質量,且PSNR值最低,為23.03 dB。因此,以上客觀和主觀評估都證明了提出的調節因子是有效的,能夠防止JND閾值被過高估計。

圖6為分別利用Bae[10]、Wei[9]、Zeng[25]和提出的JND模型向Basketball序列加入噪聲后每一幀的PSNR曲線。由圖6(b)可以看出Wei提出的模型的相鄰幀PSNR變化波動較小,JND閾值受時域影響不大。此外,雖然Wei提出的模型的時域調節因子考慮了運動的方向性,但其假設所有的運動目標都被人眼跟蹤,導致不被跟蹤的目標JND閾值被高估。Bae充分考慮了人眼的運動的特性,并結合了中心凹掩蔽效應,有較好的效果,但忽略了運動的視頻連續幀之間殘差導致的掩蔽效應,這會影響時域JND閾值的估計。圖6(c)中Zeng主要基于區域方向對紋理掩蔽效果進行了改善,而沒有考慮時域掩蔽效應,相鄰幀間JND閾值不受時域變化的影響,因此PSNR波動較小。圖6(d)充分考慮了視頻時域特征參量對HVS特性的影響,并在信息論的基礎上將異質感知特征參量進行融合,保證了更好的融合效果。由于時域掩蔽的加入,會影響相鄰幀之間加入噪聲的總量,圖6中的PSNR曲線間接表明,JND閾值有了顯著調整。

圖4 空時域JND結果

圖5 不同JND模型處理結果

由于視頻的最終接收者為人眼,僅僅依賴PSNR值無法衡量視頻質量的好壞,因此采用視頻多方法評估融合(video multimethod assessment fusion,VMAF)得分和平均主觀得分差(differential mean opinion score,DMOS)來評價視頻的主觀質量。利用雙刺激連續質量標度方法(double stimulus continuous quality scale,DSCQS)進行主觀質量評估實驗,實驗過程中邀請了14位視力正常或佩戴視力矯正器的評估者,顯示器的分辨率為1 920 dpi×1 080 dpi,并將觀看距離設置為顯示屏高度的3倍。圖7展示了DSCQS的使用方法,失真視頻A和原始視頻B隨機呈現在觀察者眼前,在交替顯示兩次或多次后,觀看者對兩個視頻分別進行評分,用DMOS值來衡量失真視頻與原始視頻的主觀質量接近程度,計算式如下:

表1對比了由4個JND模型向不同分辨率大小的視頻加入噪聲后的PSNR、VMAF得分和相應的DMOS值。基于Wei、Bae、Zeng以及所提出的JND模型加入噪聲后的平均PSNR分別為27.68 dB、28.16 dB、32.27 dB以及26.93 dB,相應的平均VMAF值為98.71、97.88、97.16、99.23,平均DMOS值分別為14.34、16.04、19.62、11.66。PSNR越小表示加入噪聲越多,DOMS值越小表示加入噪聲的視頻主觀感知質量越接近于原始視頻,有相對更小的感知失真。由此可見,在加入噪聲更多的情況下,提出的JND模型與其他模型相比有更好的感知質量,另外VMAF指標分數可以看出,由提出的JND模型加入噪聲后的視頻質量更好的情況下,PSNR至少降低了0.75 dB。因此可以得出結論:與其他模型相比,所提出的JND模型能夠隱藏更多的噪聲,同時使視頻擁有更好的感知質量。此外,實驗過程中4個模型的值分別為0.9、0.6、0.8和1,進一步證明提出的模型估計JND閾值更加準確。

圖6 根據不同JND模型向Basketball序列加入噪聲后PSNR曲線

圖7 DSCQS主觀評價方法

表1 不同JND模型性能對比

4 結束語

本文通過探索時域HVS特性,分析視頻目標時域的運動特征,提出了一個新的時域JND權重模型。將相對運動、運動軌跡上的持續時間等注意力激勵源,背景運動、運動軌跡上殘差波動強度、相鄰幀間預測殘差等注意力不確定源,利用統計信息論原理映射到信息量度量的特征空間,采用自信息度量視覺感知顯著度,信息熵度量感知不確定度。最后,將映射到統一尺度上的5個感知特征參量進行融合,得到時域權重因子,并考慮空域視覺顯著性的影響,在空域JND閾值的基礎上加入顯著性調節因子和時域權重因子,以此構建了適用于視頻的空時域JND模型。實驗結果證明,提出的模型性能優于現有JND模型。

[1] YUAN D, ZHAO T S, XU Y W, et al. Visual JND: a perceptual measurement in video coding[J]. IEEE Access, 2019(7): 29014-29022.

[2] KORHONEN J. Two-level approach for no-reference consumer video quality assessment[J]. IEEE Transactions on Image Processing: a Publication of the IEEE Signal Processing Society, 2019, 28(12): 5923-5938.

[3] CHOU C H, LI Y C. A perceptually tuned subband image coder based on the measure of just-noticeable-distortion profile[J]. IEEE Transactions on Circuits and Systems for Video Technology, 1995, 5(6): 467-476.

[4] YANG X K, LING W S, LU Z K, et al. Just noticeable distortion model and its applications in video coding[J]. Signal Processing: Image Communication, 2005, 20(7): 662-680.

[5] CHIN Y J, BERGER T. A software-only videocodec using pixelwise conditional differential replenishment and perceptual enhancements[J]. IEEE Transactions on Circuits and Systems for Video Technology, 1999, 9(3): 438-450.

[6] KELLY D H. Motion and vision. II. Stabilized spatio-temporal threshold surface[J]. Journal of the Optical Society of America, 1979, 69(10): 1340-1349.

[7] DALY S. Engineering observations from spatiovelocity and spatiotemporal visual models [M]. Vision Models and Applications to Image and Video Processing. Heidelberg: Springer, 2001: 179-200.

[8] JIA Y, LIN W, KASSIM A A. Estimating just-noticeable distortion for video[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2006, 16(7): 820-829.

[9] WEI Z Y, NGAN K N. Spatio-temporal just noticeable distortion profile for grey scale image/video in DCT domain[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2009, 19(3): 337-346.

[10] BAE S H, KIM M. A DCT-based total JND profile for spatiotemporal and foveated masking effects[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2017, 27(6): 1196-1207.

[11] WANG H Q, GAN W H, HU S D, et al. MCL-JCV: a JND-based H.264/AVC video quality assessment dataset[C]//Proceedings of 2016 IEEE International Conference on Image Processing. Piscataway: IEEE Press, 2016:1509-1513.

[12] WANG H Q, KATSAVOUNIDIS I, ZHOU J T, et al. VideoSet: a large-scale compressed video quality dataset based on JND measurement[J]. Journal of Visual Communication and Image Representation, 2017, 46: 292-302.

[13] KI S, BAE S H, KIM M, et al. Learning-based just-noticeable-quantization- distortion modeling for perceptual video coding[J]. IEEE Transactions on Image Processing, 2018, 27(7): 3178-3193.

[14] LIU H H, ZHANG Y, ZHANG H, et al. Deep learning-based picture-wise just noticeable distortion prediction model for image compression[J]. IEEE Transactions on Image Processing, 2020, 29: 641-656.

[15] ZHANG Y, LIU H H, YANG Y, et al. Deep learning based just noticeable difference and perceptual quality prediction models for compressed video[J]. IEEE Transactions on Circuits and Systems for Video Technology, 6224(99): 1.

[16] WANG Z, LI Q. Video quality assessment using a statistical model of human visual speed perception[J]. Journal of the Optical Society of America A, Optics, Image Science, and Vision, 2007, 24(12): B61-B69.

[17] MACKNIK S L, LIVINGSTONE M S. Neuronal correlates of visibility and invisibility in the primate visual system[J]. Nature Neuroscience, 1998, 1(2): 144-149.

[18] STOCKER A A, SIMONCELLI E P. Noise characteristics and prior expectations in human visual speed perception[J]. Nature Neuroscience, 2006, 9(4): 578-585.

[19] PETERSON H A, AHUMADA A J J, WATSON A B. Improved detection model for DCT coefficient quantization[C]// Proceedings of the Human Vision, Visual Processing, and Digital Dis play IV, F, 1993. [S.l.:s.n.], 1993: 191-201.

[20] BARKOWSKY M, BIALKOWSKI J, ESKOFIER B, et al. Temporal trajectory aware video quality measure[J]. IEEE Journal of Selected Topics in Signal Processing, 2009, 3(2): 266-279.

[21] HU S D, JIN L N, WANG H L, et al. Objective video quality assessment based on perceptually weighted mean squared error[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2017, 27(9): 1844-1855.

[22] CHEN Z, GUILLEMOT C. Perceptually-friendly H.264/AVC video coding based on foveated just-noticeable-distortion model[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2010, 20(6): 806-819.

[23] WU J, QI F, SHI G, et al. Non-local spatial redundancy reduction for bottom-up saliency estimation [J]. Journal of Visual Communication and Image Representation, 2012, 23(7): 1158-1166.

[24] 崔帥南, 彭宗舉, 鄒文輝, 等. 多特征融合的合成視點立體圖像質量評價[J]. 電信科學, 2019, 35(5): 104-112.

CUI S N, PENG Z J, ZOU W H, et al. Quality assessment of synthetic viewpoint stereo image with multi-feature fusion[J]. Telecommunications Science, 2019, 35(5): 104-112.

[25] ZENG Z P, ZENG H Q, CHEN J, et al. Visual attention guide dpixel-wise just noticeable difference model[J]. IEEE Access, 2019, 7: 132111-132119.

Video temporal perception characteristics based just noticeable difference model

XING Yafen1, YIN Haibing1, WANG Hongkui2, LUO Qionghua1

1.College of Communication Engineering, Hangzhou Dianzi University, Hangzhou 310018, China 2.College of Electronic Information and Communications, Huazhong University of Science and Technology, Wuhan 430074, China

The existing temporal domain JND(just noticeable distortion) models are not sufficient to depict the interaction between temporal parameters and HVS characteristics, leading to insufficient accuracy of the spatial-temporal JND model. To solve this problem, feature parameters that can accurately describe the temporal characteristics of the video were explored and extracted, as well as a homogenization method for fusing heterogeneous feature parameters, and the temporal domain JND model based on this was improved. The feature parameters were investigated including foreground and background motion, temporal duration along the motion trajectory, residual fluctuation intensity along motion trajectory and adjacent inter-frame prediction residual, etc., which were used to characterize the temporal characteristics. Probability density functions for these feature parameters in the perception sense according to the HVS(human visual system) characteristics were proposed, and uniformly mapping the heterogeneous feature parameters to the scales of self-information and information entropy to achieve a homogeneous fusion measurement. The coupling method of visual attention and masking was explored from the perspective of energy distribution, and the temporal-domain JND weight model was constructed accordingly. On the basis of the spatial JND threshold, the temporal domain weights was integrated to develop a more accurate spatial-temporal JND model. In order to evaluate the performance of the spatiotemporal JND model, a subjective quality evaluation experiment was conducted. Experimental results justify the effectiveness of the proposed model.

JND, HVS characteristics, visual masking, visual attention, self-information, information entropy

TN919

A

10.11959/j.issn.1000?0801.2022030

2021?07?16;

2021?12?22

國家自然科學基金資助項目(No.61972123, No.61931008, No.62031009);浙江省“尖兵”研發攻關計劃項目(No.2022C01068);

The National Natural Science Foundation of China (No.61972123, No.61931008, No.62031009), Zhejiang Provincial Vanguard Research and Development Project (No.2022C01068)

邢亞芬(1997? ),女,杭州電子科技大學碩士生,主要研究方向為感知視頻編碼。

殷海兵(1974? ),男,博士,杭州電子科技大學教授,主要研究方向為數字視頻編解碼。

王鴻奎(1990? ),男,華中科技大學博士生,主要研究方向為感知視頻編碼。

駱瓊華(1998? ),女,杭州電子科技大學碩士生,主要研究方向為感知視頻編碼。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 国产福利不卡视频| 美女内射视频WWW网站午夜| 日韩在线影院| 久久亚洲美女精品国产精品| 国产精品尤物铁牛tv | 天堂成人在线| 在线观看欧美国产| a网站在线观看| 欧美午夜在线播放| 蜜桃视频一区二区| 伊人成色综合网| 国产理论一区| 熟妇丰满人妻| 亚洲精品桃花岛av在线| 人妻丰满熟妇αv无码| 亚洲 欧美 中文 AⅤ在线视频| 在线播放真实国产乱子伦| 亚洲永久色| 国产精品不卡永久免费| 热九九精品| 欧美精品一二三区| 一级毛片不卡片免费观看| 国产成人AV综合久久| 亚洲国语自产一区第二页| 欧美福利在线播放| 伊人五月丁香综合AⅤ| 一本二本三本不卡无码| 婷婷色一区二区三区| 色偷偷一区二区三区| 久久精品国产精品国产一区| 亚洲人成网站在线播放2019| 无套av在线| 青青草综合网| 午夜视频在线观看免费网站| 国产精品毛片在线直播完整版| 国产精彩视频在线观看| 久久综合国产乱子免费| 亚洲精品无码人妻无码| 国产亚洲精品97AA片在线播放| 精品久久久久无码| 亚洲IV视频免费在线光看| 99re热精品视频国产免费| 情侣午夜国产在线一区无码| 亚洲三级成人| 日本免费一级视频| 97一区二区在线播放| JIZZ亚洲国产| 中文字幕无码电影| 国产农村妇女精品一二区| 国产精品乱偷免费视频| 免费va国产在线观看| 国产97色在线| 五月婷婷综合网| 亚洲日本韩在线观看| 成人久久精品一区二区三区 | 久久特级毛片| 日韩精品免费一线在线观看| 国产精品高清国产三级囯产AV| 99热这里只有成人精品国产| 尤物在线观看乱码| 激情五月婷婷综合网| 亚洲精品动漫| 99re免费视频| 综合色区亚洲熟妇在线| 亚洲系列无码专区偷窥无码| 日本午夜精品一本在线观看| 日韩视频免费| 91亚洲国产视频| 亚洲男人天堂2018| 亚洲视屏在线观看| 国产一区二区精品福利| 91色爱欧美精品www| 日韩在线中文| 国产精品亚洲综合久久小说| 久操中文在线| 人妻免费无码不卡视频| 91黄视频在线观看| 国产高清在线观看| 成人毛片免费在线观看| 狠狠干欧美| 一本大道AV人久久综合| 久久综合丝袜日本网|