999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

3D視頻系統的研究與發展

2013-10-09 03:28:18李春華
河北工業科技 2013年6期
關鍵詞:深度系統

李春華,付 麗

(河北科技大學信息科學與工程學院,河北石家莊 050018)

1 研究背景

視頻處理、傳輸與顯示技術經歷了從黑白到彩色,從模擬到數字,從標清到高清的歷次變革之后,正在向三維視頻 (three-dimensional video,3DV)系統演進[1]。3DV系統將視覺感知擴展到第三維場景深度,藉此增強視覺逼真感,使觀眾體驗到身臨其境的沉浸感[2]。以《阿凡達》為代表的立體電影的巨大成功預示著3DV技術大眾化應用的廣闊前景,3DV將通過3D藍光DVD、Internet和3D廣播等傳播方式進入家庭。

三維視頻是一種具有提供感知三維場景深度功能的視頻媒體形式。人類基于“視差創造立體”的原理感知自然深度[3],兩只眼睛從稍有不同的角度看到的物體存在細微差別,大腦融合雙眼立體圖像對產生立體視覺感知,如圖1所示。用2個間隔視距的攝像機拍攝同一場景,就可以將這一生理過程仿生實現。每個攝像機捕獲到與人眼位置相對應的視場景,如果顯示系統能夠保證每只眼睛只看到對應的視,就可以刺激人眼產生深度視錯覺,形成立體視感。

在攝像機和顯示器之間加入傳輸處理、編碼解碼和虛擬繪制等環節,就構成了三維視頻系統,如圖2所示。

2 3DV研究發展

圖1 視差創造立體原理Fig.1 Principle of disparity creating stereo vision

圖2 三維視頻系統Fig.2 Three-dimension video system

早在黑白電視時代,人們就開始了立體視頻的探索研究,如雙信道偏光分像立體電視技術。它用2個攝像機同步拍攝左右視視頻,借助2個獨立的信道進行視頻傳輸。電視機屏幕左右2部分分別安裝極化方向正交的偏光板,用正交偏振光區分顯示左右視視頻。觀眾佩戴偏光眼鏡欣賞立體電視節目。偏光眼鏡能夠濾除與其正交的偏振光承載的另一視的視頻,使每只眼睛只能看到單一的視頻,進而刺激大腦產生立體感覺。這種立體視頻系統存在的問題是當頭部微斜時,偏振眼鏡無法完全濾掉與之正交的偏振光,導致一只眼睛可以看到另一只眼睛的影像,使人產生眩暈感。20世紀50年代,隨著彩色電視技術日漸成熟,立體視頻開始采用“互補分色立體電視技術”。它在拍攝同一場景的2部攝像機鏡頭前端加裝濾光鏡,使拍攝的左右視視頻在色度上相互區分。顯示時,在彩色電視機的屏幕上把左右視視頻疊加播放,觀眾佩戴濾光眼鏡欣賞立體電視節目。它的優點是與二維電視機具有良好的兼容性,但是存在的問題也不少,如:彩色信息損失大、“串色”現象干擾嚴重、左右眼的入射光譜不一致引發視覺疲勞等。后來出現了快門眼鏡和頭盔顯示器??扉T眼鏡三維視頻系統用固定的場頻控制顯示器和液晶眼鏡協調工作,左、右兩視交替送入左右眼,讓大腦誤認為雙眼同時觀看影像。快門系統要求顯示器具有較高的刷新頻率,否則會產生閃爍感。頭盔顯示器將人對外界的視覺、聽覺封閉起來,用2個平面顯示器分別為左、右呈現具有雙目視差的不同圖像。這種方式只能讓一個觀眾觀賞,立體視角小,影響觀看自由度,而且價格昂貴、設備質量較大。

佩戴各類立體眼鏡觀看立體視頻圖像的方式會降低圖像亮度,容易產生疲勞感和不適感,立體視頻系統的推廣應用受到嚴重制約。于是,人們開始轉向追求一種直接由裸眼觀賞立體影視的方式,三維立體電視(3DTV)應運而生。3DTV采用自由立體顯示器,它通過改造屏幕將兩眼的可視畫面交錯分離,觀眾不需要佩戴任何輔助工具就可以直接觀看顯示器播放的立體視頻。雙視的立體視頻系統只呈現給觀眾一個觀看視向,觀眾在不同位置所觀看到的立體場景是相同的,如圖3a)所示。雙視的裸眼立體顯示器存在立體視角窄,不適合多人同時觀看的缺點。后來又出現了適合多用戶同時觀看的多視視頻/自由視頻立體視頻系統,如圖3b)所示。

圖3 立體視頻觀看方式Fig.3 Stereoscopic video viewing mode

如圖4所示,在多視點立體顯示器上顯示多視視頻,顯示器同時顯示多個立體視頻對,向觀眾提供多個觀看視向,用戶在不同位置能看到相應的立體視頻對。多視視頻系統擴展了觀眾欣賞立體視頻的視角范圍,而且居于不同位置的觀眾可以從不同視角觀看視頻中的場景。與人眼跟蹤技術配合,它還可以實現景隨人動的臨場效果[4]。

圖4 多視點立體顯示器Fig.4 Multiview stereoscopic display

在多視視頻系統基礎上發展起來的自由視點電視系統(FTV,free-viewpoint TV system),能夠通過虛擬視點繪制技術來生成真實攝像機之間任意視角的畫面,觀賞視角更大,立體感更為真實,被認為是未來3DTV技術的發展方向[5]。

國內外對于自由視點視頻的研究從20世紀90年代已經開始,但真正形成氣候的是2002年MPEG組織提出了“3DAV意向征集”,向全世界征集實現3DAV的方案及核心實驗[6-9]。按照MPEG組織的進程安排,自由視點視頻分為2個階段進行,其中第1個階段是多視點視頻編解碼,第2階段則是自由視點生成和自由視點視頻的標準化,近10年的研究進程如圖5所示。2006年之后,MPEG明顯加快了3DAV的步伐。ISO/IEC MPEG和ITUTVCEG聯合組成的JVT(joint video team)小組也將多視點視頻編碼MVC作為其H.264的一部分,此后推出的多視點視頻編解碼參考軟件JMVC(joint multi-view video coding),進一步的標準化草案亦已于2009年基本完成[10],并將研究的重點開始轉移到自由視點視頻。

圖5 自由視點視頻標準化進程時間表Fig.5 Free viewpoint video standardization process timetable

2010年,3D成為各彩電廠商的主打賣點之一,包括三星、LG、索尼、夏普等外資品牌,以及創維、長虹、康佳、海爾、TCL等民族品牌均發布了具備3D功能的電視新品。甚至連為平板電視輸送視頻信號的藍光碟機、游戲機、高清播放機等產品均相繼配備了3D播放功能。目前,歐美日韓等國已經開始進行3D試廣播,包括2010年法國網球公開賽、FIFA世界杯等重大體育賽事也選取了部分場次進行3D轉播。真正開播3D電視頻道必須有相應的廣播標準。目前各國都在研發相應的標準,尚未形成統一的播出標準。就中國而言,眼下已經在部分地區展開3D電視節目的播出試點。因此,加強3D內容建設,加快相關標準制定的步伐將有利于推動3DV系統應用普及。

3 3DV系統

3DV系統由3D內容獲取、編碼、傳輸、解碼合成和顯示5部分組成,如圖6所示[1]。按照3D視頻獲取方法的不同,分為雙目3DV系統、多視3DV系統和2D轉3D系統。

1)基于雙目的3DV系統

雙目3DV系統是傳統的立體視頻系統,由光軸相距視距(65mm)的2個平行攝像機獲取左、右視視頻,經立體視頻壓縮編碼后傳輸到接收端,解碼復原后送入立體顯示器上顯示。

2)基于多視的3DV系統

多視3DV系統用N個(N>3)攝像機組成的攝像機陣列同步拍攝3D場景,對獲取的視頻先進性進行多視視頻校正和亮度/色度補償等預處理后,再進行多視視頻壓縮編碼傳送到接收端。

3)2D轉3D的3DV系統

由于目前直接拍攝3D節目成本較高,3D節目來源的另一重要途徑是將2D高清晰度視頻節目通過2D轉3D處理和后期制作形成多視視頻。

由于目前所有的家庭幾乎都已有了播放二維視頻圖像的電視機,未來的雙目或多視立體視頻系統應特別強調后向兼容性。鑒于此,在立體視頻和多視視頻編碼中,基本視(雙目視頻或多視視頻中作為參考視的1個視)都建議沿用二維視頻的編碼標準(如H.264/AVC),提供給標準的2D顯示器播放。這樣接收二維視頻圖像的電視機雖然無法播放立體視頻,但是能夠正常接收立體視頻信號,將其中的基本視視頻當做二維視頻播放。

圖6 3DV系統構成Fig.6 3DV system components

4 3D視頻技術鏈分析

4.1 獲取

目前大多數的3D廣播系統采用雙視立體電視系統,3D場景的拍攝一般會采用雙攝像機(stereo camera),分別拍攝左眼和右眼視頻,拍攝的同時還需記錄攝像機參數。在后期制作借助這些參數來改變3D圖像的水平視差,調整場景空間深度。這種雙攝像機有兩種類型,一種是平行攝像機,2個攝像機的鏡頭光軸相互平行;另一種是會聚攝像機,2個攝像機鏡頭光軸成內八字形,交會到前方某一點。雖然使用會聚攝像機更符合實際情況,但是它會造成垂直視差,引起觀眾的不適感,還會引入深度平面彎曲(depth plane curvature)和梯形失真(keystone distortion)[11]。在實際操作時,為了有效避免幾何畸變,大多選用平行攝像機。必須使用會聚攝像機時,應將會聚角度盡可能調小,否則,就需要進行幾何校正。

還有一種3D攝像機,如3DV研發的zcam攝像機,在拍攝記錄RGB視頻的同時,記錄下畫面相應的深度信息。在顯示之前,用這路RGB圖像與深度信息繪制重構出左眼視覺畫面和右眼視覺畫面。這種拍攝方法的缺點是遮擋部分的圖像無法正確重構,顯示立體畫面存在失真現象。

對于多視3DV系統,拍攝手法可以分為靜態場景拍攝和動態場景拍攝。靜態場景拍攝時,可以用一臺攝像機按照預定路徑拍攝整個場景的多個畫面。然后根據攝像機拍攝的位置和幾何信息對獲取的圖像進行綜合,最終得到立體圖像。動態場景拍攝時,多采用攝像機陣列,用多個攝像機同步拍攝。為了便于后期多視視頻校正處理,需要預先對攝像機進行標定[12]。

4.2 3D視頻后處理

1838年,WHEATSTONE發明了立體鏡,揭開了視差引起立體視的奧秘[3]。人眼通過實體鏡觀看2個略有差別的2D圖像,產生立體感。1960年JULESZ用計算機設計了隨機點立體圖對(random dot stereo grams,RDS),發現僅僅視差沒有單眼線索也能引起立體感,證實立體視覺發生是在形狀識別之前,在視覺信息加工機制研究中產生了突破性進展[13]。1982年 MARR依據 WHEATSTONE的視差原理提出了視覺的3D重建理論,將視覺看作是一種能夠用計算機進行信息處理的過程。他證實只要找出立體圖對中兩圖的對應點,測出它們的視差,就可以求出深度,用計算的方法重建該物體,使立體視覺研究上升到從未有過的高度[14]。根據MARR重建理論,拍攝時視差與深度滿足如下關系:d=B×f/z,z為深度,f為焦距,B為攝像機基線。顯示時,感知深度z′與顯示視差d′滿足如下關系:z′=r×d′/(e-d),r是觀看距離,e為雙目視差。

雖然立體的基本原理相當簡單,但是不適當的立體很容易造成壞的用戶體驗,這是因為來自3D顯示的深度印象是人類視覺系統的一種虛構。因此,3D內容的制作是一項需要考慮感覺、顯示性能,以及心理因素的復雜綜合技術。通過后期制作把采集的3D視頻轉換成與特定應用場合要求相符的數據表達形式。

為了讓觀眾舒適地觀看3D內容,必須保證立體場景位于人眼立體舒適感知區域內。人眼立體感知舒適度視域分布如圖7所示。人眼觀賞圖中的亮區域中的3D景物,感覺很舒適。而圖中較暗區域中的3D景物則會引發雙目競爭、重影等不舒服的體驗。例如,強調鬼影等重疊場景時使用近處的雙目競爭區;表現下雨等快速下落的物體時使用遠處的雙目競爭區;讓物體遠離屏幕以制造引人入勝的效果時使用大深度。

相比于實際的3D世界,顯示3D內容應嚴格限制可用的深度量。通常,導演很少使用深度全范圍。即使在使用全深度展示令人震撼場景時,也會在深度受限期間給觀眾留出充足的時間來松弛視覺系統。因此,深度估算和過渡設計是3D制作期間需要縝密計劃的工作。

圖7 人眼立體感知舒適度視域分布Fig.7 Illustration of the stereoscopic comfort zone

立體攝影的任務是將整個真實的世界代入成為舒適區域的虛擬空間之內。欲達到此目的,需要調節攝像機基線和會聚參數。攝像機基線控制總體深度范圍或視差的大小,即物體的深度容量;會聚控制絕對視差,即相對于屏幕的物體位置。會聚控制可以通過移動彼此相關的視來實現。通常用平行攝像機完成攝制,在后期制作中加上所希望的會聚。但是只改變深度,而不改變物體的水平和垂直尺寸,會產生所謂的“大小效應”,影響人對物體大小的感知。這樣,實際應用中會聚量調整受到限制。進一步講,過大的未按比例縮放的視差位移,可能造成超過的視差范圍,產生迫使眼睛發散等不舒適的感覺。因此,除場景深度過渡通常采用重會聚方式實現外,諸如聚焦平面和視差范圍調整都借助調整基線參數實現。

當觀看條件,如屏幕尺寸和觀看距離等要素發生變化時,必須變更內容的表示,對視差范圍進行調整。觀看距離增大時,深度延伸感隨之增強,但是屏幕上水平和垂直延伸量保持不變。此時,可根據屏幕尺寸和觀看距離使用虛擬視內插重新繪制3D場景,使3D印象自適應于觀看距離。拍攝真實立體內容的情況下,立體攝像機的基線在數據采集時就確定下來,后期制作中無法真實改變,只能通過虛擬視內插來調整基線,并由此實現深度的變化。

4.3 編碼

三維視頻的表示格式分為2大類:純視頻格式和深度增強格式。純視頻格式只包括攝像機陣列拍攝的多視紋理視頻。深度增強格式不僅包括攝像機陣列拍攝的多視紋理視頻,還包括與之對應的深度視頻。這兩類三維視頻由于具有不同的特點而采用不同的編碼方法。

4.3.1 純視頻格式三維視頻編碼方法

最早的純視頻格式三維視頻方法是Simulcast方法,它針對雙通道立體視頻編碼提出,采用對左右視的視頻獨立壓縮編碼,視間相關性沒有得到利用,因此編碼效率較低[15]。之后,MPEG-2Multiview Profile針對這一問題作出改進,綜合利用視間交叉相關性和視內部的時空相關性來提高立體視頻編碼效率[16-17]。近來,H.264/AVC中又增加了立體補充增強信息(Stereo supplemental enhancement information,Stereo SEI)和幀組合補充增強信息(frame packing arrangement SEI)[18]。根據 Stereo SEI,在編碼前將左右視視頻交錯排列,然后采用場間預測技術來消除視間冗余,在解碼端通過反交錯還原立體視頻。它的好處在于與H.264編解碼器兼容,使用時無需改變編碼器硬件結構。2009年7月,國際運動圖像專家組(moving picture expert group,MPEG)又頒布了 MPEG-4AVC Stereo High Profile[19],提高逐行和隔行掃描的雙通道立體視頻編碼效率。

為了最大限度地提高多視點視頻的壓縮率,2009年1月,國際聯合視頻小組(joint video team,JVT)發布了MVC標準[20],采用基于分層B幀(hierarchical B pictures,HBP)的視間-時間金字塔型預測結構進一步降低碼流速率[21-23]。2009年12月推出的三維立體視頻藍光碟就是采用MVC標準來進行編碼的。MVC標準定義的多視點視頻編碼方式,支持隨機訪問功能,在目前來講,編碼效率最高。同時,它保證了H.264/AVC的后向兼容性,多視視頻的基本視(主視)采用與H.264/AVC單路視頻相同的編碼結構和方式。

由于純視頻格式每個視點都是由固定位置的攝像機拍攝獲得的,場景的深度信息不能根據顯示設備的類型和尺寸來調整,三維視頻的景深效果不具備尺度伸縮性。并且,由于解碼端輸出的視點數量有限,它無法提供自由視點視頻的“環視”效果[10]。為了使用數目較少的視,實現3D環視效果,必須采用新型高效的3D視頻數據格式。

4.3.2 深度增強格式三維視頻編碼方法

深度增強格式三維視頻由多視紋理視頻和多視深度視頻組成。所謂深度視頻即為深度圖序列,深度圖是一個與紋理圖像大小相同的灰度圖像,其像素值表示像素點對應的景物距離攝像機的遠近。深度增強格式中的視頻視數一般少于純視頻格式中的視頻視數,在解碼端利用視點合成技術生成所需要顯示的虛擬視點[24]。深度增強三維視頻形式多樣,如單路視頻及其深度序列、多視點視頻及其深度序列,以及分層深度視頻等[25-26]。采用深度增強三維視頻格式,只需要傳輸有限個角度的單目視頻及其深度序列,就能獲得擴展性非常強的三維立體顯示效果,關鍵技術是高效的深度估計和視點合成[27-29]。深度序列可以由深度攝像機直接獲取或采用深度估計算法得到[30],解碼器根據不同顯示設備的參數和用戶的觀看需求對視頻進行解碼及視點合成等后處理[31-34]。

目前,支持立體顯示的深度增強三維視頻種類繁多,沒有統一的國際標準。為了適應不同類型不同尺寸的立體顯示設備(如電影院、家用電視、移動設備等)[35],有必要確定一種國際通用的深度增強三維視頻格式,使其支持高質量的自由視點視頻應用,適應多種觀看方式(如二維高清電視、立體顯示效果、自由視點電視等)。MPEG專門為三維視頻編碼技術研究發布了一系列測試序列,并于2011年4月發布了國際三維視頻標準(3DV/FTV)的提案[36],面向全球各大科研機構征集三維視頻編碼技術的實現方案。

5 結 論

正如2D電視經歷了黑白電視/彩色電視/數字電視/高清電視這4個從初級到高級的發展階段一樣,3DTV也將會經歷雙目戴立體眼鏡觀看/雙目裸眼觀看/多視裸眼觀看/多視加深度裸眼觀看等階段。雖然目前國外已開播、國內試播的雙目戴立體眼鏡的3DTV,這只是3DV系統發展的初級階段,發展到真正滿足臨場感需求的高級3DV系統階段,預計還需經過10~20年的歷程。

/References:

[1]張兆楊,安 平,張之江,等.二維和三維視頻處理及立體顯示技術[M].北京:科學出版社,2010.ZHANG Zhaoyang,AN Ping,ZHANG Zhijiang,et al.2Dand 3DVideo Processing and Three-Dimensional Display Technology[M].Beijing:Science Press,2010.

[2]BENZIE P,WASTON J,SURMAN P,et al.A survey of 3DTV displays,techniques and technologies[J].IEEE Transactions on Circuits and Systems for Video Technology,2007,17(11):1 647-1 658.

[3]WHEATSTONE C.On some remarkable,and hitherto unobserved,phenomena of binocular vision[J].Philosoph Transactions,1838,128:371-394.

[4]FUSIELLO A,TRUCCO E,VERRI A.A compact algorithm for rectification of stereo pairs[J].Machine Vision and Applications,2000(12):16-22.

[5]汪 洋,王元慶.多用戶自由立體顯示技術[J].液晶與顯示,2009,24(3):434-437.WANG Yang,WANG Yuanqing.Auto-stereoscopic display for multi-users[J].Chinese Journal of Liquid and Display,2009,24(3):434-437.

[6]ISO/IEC JTC1/SC29/WG11,N5169:Description of Exploration Experiments in 3DAV[S].

[7]ISO/IEC JTC1/SC29/WG11,N5558:Report on Status of 3DAV Exploration Pattaya[S].

[8]ISO/IEC JTC1/SC291WG11,N5678:Report on 3DAV Exploration Trondheim Norway[S].

[9]ISO/IEC JTC1/SC29/WG11,N6051:Call for Comments on 3DAV[S].

[10]TANIMOTO M.Overview of FTV (free-virepoint television)[J].Journal of Physics,2010,206(1):115-128.

[11]WOODS A,DOCHERTY T,KOCH R.Image Distortions in Stereoscopic Video Systems[EB/OL].http://www.andrewwoods3d.com/spie93pa.html,2010-09-13.

[12]ZHANG C,CHEN T.A self-reconfigurable camera array[A].SIGGRAPH'04ACM SIGGRAPH[C].New York:ACM,2004.151-162.

[13]JULESZ B.Stereoscopic vision[J].Vision Res,1986(26):1 601-1 612.

[14]MARR D.Vision a Computational Investigation into the Human Representation and Processing of Visual Information[M].San Francisco:W H Freman and Company,1982.

[15]MERKLE P,SMOLIC A,MULLER K,et al.Efficient prediction structures for multiview video coding[J].IEEE Transactions on Circuits and Systems for Video Technology,2007,17(11):1 461-1 473.

[16]ISO/IEC JTC1/SC29/WG11,N1366:MPEG-2Multiview Profile[S].

[17]鄧智玭,賈克斌,陳銳霖,等.面向立體視頻的視差-運動同步聯立預測算法[J].計算機輔助設計與圖形學學報,2010,22(10):1 710-1 714.DENG Zhipin,JIA Kebin,CHEN Ruilin,et al.A simultaneous motion and disparity estimation for stereoscopic video coding[J].Journal of Computer Aided Design and Computer Graphics,2010,22(10):1 710-1 714.

[18]SMOLIC A,MULLER K,MERKLE P,et al.An overview of available and emerging 3Dvideo formats and depth enhanced stereo as efficient generic solution[A].Proceedings of the 27thConference on Picture Coding Symposium Piscataway[C].NJ:IEEE,2009.389-392.

[19]LIM C S,WITTMANN S,NISHI T.JVT-AE020,Conformance Bitstream Descriptions for Stereo High[R].London:JVT,2009.

[20]SULLIVAN G J,WIEGAND T,SCHWARZ H.JVT-AD007:Editors'draft revision to ITU-T H.264|ISO/IEC 14496-10advanced video coding in preparation for ITU-TSG 16AAP Consent(in integrated form)[R].Geneva:JVT,2009.

[21]劉 超,馬力妮,宋雄亮.基于H.264標準的多視點視頻編碼方案的研究[J].計算機工程與設計,2010,31(3):564-567.LIU Chao,MA Lini,SONG Xiongliang.Researched on multi-view video coding scheme based on H.264standard[J].Computer Engineering and Design,2010,31(3):564-567.

[22]彭宗舉,蔣剛毅,郁 梅.基于動態多閾值的多視點視頻編碼宏塊模式快速選擇算法[J].電路與系統學報,2009,14(2):111-117.PENG Zongju,JIANG Gangyi,YU Mei.A fast macroblock mode selection algorithm based on dynamic multi-threshold for multiview video coding[J].Journal of Circle and System,2009,14(2):111-117.

[23]DENG Z P,CHAN Y L,JIA K B,et al.Fast iterative motion and disparity estimation algorithm for multiview video coding[A].The True Vision-Capture,Transmission and Display of 3DVideo[C].[S.l.]:[s.n.],2010.1-4.

[24]ISO/IEC JTC1/SC29/WG11,N10857:Applications and Requirements on 3DVideo Coding[S].

[25]SMOLIC A,MUELLER K,MERKLE P,et al.3Dvideo and free viewpoint video-technologies,applications and MPEG standards[A].IEEE International Conference on Multimedia and Expo[C].[S.l.]:[s.n.],2006.2 161-2 164.

[26]SMOLI A,KAUFF P.Interactive 3-D video representation and coding technologies[J].Proceedings of the IEEE,2005,93(1):98.

[27]SHIH H C,HSIAO H F.A depth refinement algorithm for multiview video synthesis[A].IEEE International Conference on Acoustics Speech and Signal Processing[C].[S.l.]:[s.n.],2010.742-745.

[28]FAN Y C,WU S F,LIN B L.Three-dimensional depth map motion estimation and compensation for 3Dvideo compression[J].IEEE Transactions on Magnetics,2011,47(3):691-695.

[29]王彥霞,王震洲,劉教民.基于雙目立體視覺的三維建模算法[J].河北科技大學學報,2008,29(3):219-222.WANG Yanxia,WANG Zhenzhou,LIU Jiaomin.Three-dimensional modeling approach based on stereo vision[J].Journal of Hebei University of Science and Technology,2008,29(3):219-222.

[30]KIM S Y,CHO J H,KOSCHAN A,et al.3Dvideo generation and service based on a TOF depth sensor in MPEG-4multimedia framework[J].IEEE Transactions on Consumer Electronics,2010,56(3):1 730-1 738.

[31]SHIMIZU S,KITAHARA M,KIMATA H,et al.View scalable multiview video coding using 3-D warping with depth map[J].IEEE Transactions on Circuits and Systems for Video Technology,2007,17(11):1 485-1 495.

[32]EKMEKCIOGLU E,WORRALL S T,KONDOZ A M.A temporal subsampling approach for multiview depth map compression[J].IEEE Transactions on Circuits and Systems for Video Technology,2009,19(8):1 209-1 213.

[33]TANIMOTO M,WILDEBOER M.Frameworks for FTV coding[A].Proceedings of the 27th Conference on Picture Coding Symposium[C].[S.l.]:[s.n.],2009.1-4.

[34]CHEN Y,WANG Y K,UGUR K,et al.The emerging MVC standard for 3Dvideo services[J].EURASIP Journal on Applied Signal Processing,2009,78:6 015-6 032.

[35]WILLNER K,UGUR K,SALMIMAA M,et al.Mobile 3D video using MVC and N800internet tablet[A].The True Vision-Capture,Transmission and Display of 3DVideo[C].[S.l.]:[s.n.],2008.69-72.

[36]ISO/IEC JTC1/SC29/WG11,N 12036:Call for Proposals on 3DVideo Coding Technology[S].

猜你喜歡
深度系統
Smartflower POP 一體式光伏系統
工業設計(2022年8期)2022-09-09 07:43:20
WJ-700無人機系統
ZC系列無人機遙感系統
北京測繪(2020年12期)2020-12-29 01:33:58
深度理解一元一次方程
基于PowerPC+FPGA顯示系統
半沸制皂系統(下)
深度觀察
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: 国产精品手机视频| 99精品伊人久久久大香线蕉| 国产精品视频第一专区| 日本免费精品| 黄色国产在线| 亚洲成人黄色网址| 乱人伦视频中文字幕在线| 国产午夜精品一区二区三| 婷婷午夜天| 久久久久无码精品| 中文精品久久久久国产网址| 九色在线视频导航91| 精品久久人人爽人人玩人人妻| 欧洲熟妇精品视频| 国产尤物视频网址导航| 国产激情无码一区二区三区免费| 国产一级视频久久| 激情在线网| 在线a视频免费观看| 成人福利在线视频| 人妻精品全国免费视频| 日本a级免费| 亚洲一区毛片| 久久久久亚洲精品成人网 | 国产人碰人摸人爱免费视频| 91www在线观看| 日本妇乱子伦视频| yjizz视频最新网站在线| 无码专区国产精品一区| 91福利片| 亚洲欧美自拍视频| 欧美成人一级| 91在线日韩在线播放| 日本AⅤ精品一区二区三区日| 欧美亚洲国产精品第一页| 精品国产www| 一区二区午夜| jizz在线免费播放| 亚洲高清中文字幕在线看不卡| 国产区免费精品视频| 在线色国产| 欧美a在线看| 日本在线亚洲| 日韩免费毛片| 97视频精品全国在线观看| 国产精品理论片| 欧亚日韩Av| jizz在线观看| 四虎影视8848永久精品| 无码一区二区波多野结衣播放搜索| 日本免费精品| 国产嫩草在线观看| 伊人狠狠丁香婷婷综合色| 99re经典视频在线| 男女精品视频| 国产99免费视频| 毛片在线区| 久久免费视频6| 91精品免费高清在线| 亚洲欧美在线综合一区二区三区| 国产打屁股免费区网站| 最新日韩AV网址在线观看| 熟女日韩精品2区| 国产成人综合亚洲欧美在| 国产偷国产偷在线高清| 日韩欧美国产综合| 伊在人亚洲香蕉精品播放| 欧美三级视频网站| 亚洲熟妇AV日韩熟妇在线| 日韩成人午夜| 露脸真实国语乱在线观看| 国产亚洲美日韩AV中文字幕无码成人| www亚洲天堂| 久久久黄色片| 日韩欧美中文| 丁香亚洲综合五月天婷婷| 亚洲欧美成人影院| 亚洲成人福利网站| 国产AV无码专区亚洲A∨毛片| 国产无码在线调教| 亚洲成人高清无码| 午夜福利视频一区|