王自然,張亞南,劉學軍,4,王美珍,4(.南京師范大學泰州學院,江蘇泰州225300;2.南京師范大學地理科學學院,江蘇南京20023;3.江蘇省地理信息資源開發(fā)與利用協同創(chuàng)新中心,江蘇南京20023;4.警用地理信息技術公安部重點實驗室,江蘇常州23022)
視頻傳感器覆蓋范圍精細化計算方法*
王自然1,張亞南2,3,劉學軍2,3,4,王美珍2,3,4
(1.南京師范大學泰州學院,江蘇泰州225300;2.南京師范大學地理科學學院,江蘇南京210023;
3.江蘇省地理信息資源開發(fā)與利用協同創(chuàng)新中心,江蘇南京210023;4.警用地理信息技術公安部重點實驗室,江蘇常州213022)
視頻傳感器覆蓋范圍計算是視頻傳感器網絡初始配置、優(yōu)化部署等的核心基礎,其精度嚴重影響覆蓋分析的結果,然而現有很多方法并未考慮計算方法執(zhí)行效率與精度的影響,而方法的精度與效率在大范圍監(jiān)控視頻覆蓋分析應用中顯得尤為重要。因此,提出一種兼顧速度與精度的視頻傳感器覆蓋范圍計算方法,將地理空間進行格網化;計算每個格網角點被視頻傳感器覆蓋的狀況,用0或1表示;接著,以格網四個角點的覆蓋情況描述格網的覆蓋情況,將格網分為16種覆蓋狀態(tài);逐步細化整個格網覆蓋狀態(tài)非(0000)和(1111)的格網,直至達到預設精度;獲得視頻傳感器的覆蓋范圍。實驗結果表明,該方法能夠更為精確地獲得部署在地理場景中視頻傳感器的覆蓋范圍,同時兼顧了計算方法的速度和精度。
相機覆蓋;覆蓋分析;二值化網格;格網細化
視頻傳感器,作為物聯網中一種重要有向的視覺傳感器,能夠記錄豐富的時空信息,有全天候、高度覆蓋、實時性等優(yōu)點,已被廣泛應用于公共安全、交通管理、軍事國防、環(huán)境監(jiān)測等領域。視頻傳感器覆蓋范圍是表征視頻傳感器有效性的重要指標,是視頻監(jiān)控內容與地理環(huán)境進行融合展示的前提。覆蓋范圍計算是視頻傳感器網絡初始配置、優(yōu)化部署等分析[1-4]的核心基礎,覆蓋范圍的計算精度嚴重影響覆蓋分析的結果。
在傳感器網絡等相關領域,已經提出了一些視頻的覆蓋范圍的算法。Erdem[5]提出了將視頻傳感器的可視域分割成多個“可視塊”的算法。H?rster等[6]、Mittal等[7]、Shen等[8]則用視線檢測方法檢測多邊形可視域中各個節(jié)點的覆蓋情況。Angella等[9]和Zhao等[10-14]將視線檢測的方法推廣到三維。Liu[15]分析了山體等錐形地形無線傳感器網絡的覆蓋問題。而在視頻傳感器網絡配置、優(yōu)化等算法中涉及視頻傳感器覆蓋計算的研究中,大部分研究將監(jiān)控場景簡化為二維平面,少量研究障礙物遮擋問題,無法表達視頻傳感器的真實覆蓋。障礙物的遮擋問題方面,當分析場景中的障礙物(樹木、建筑物等)時,多以簡單的幾何圖形或者高墻代替。
然而,視頻傳感器在實際應用中是布設于真實的地理環(huán)境中的,并且視頻傳感器具有有向性的特點,其覆蓋范圍的計算可看作是一種特殊的可視域分析,得到的覆蓋范圍,可稱作“視頻可視域”[16],因此視頻覆蓋范圍計算除了要考慮地形因素外,還需要考慮視頻傳感器參數,并且覆蓋范圍計算對視頻傳感器參數變化敏感,參數調整通常意味著覆蓋范圍的重新計算,而GIS領域主要關注地形起伏。近年來的研究多集中在提高方法效率,如并行化方法[17]、基于距離場映射的地形可視域分析方法[18]等,為視頻覆蓋范圍計算提供借鑒。方陸明等[16]提出了基于數字高程模型(Digital Elevation Model,DEM)的視頻可視域提取方法,實現了視頻在DEM上的同步跟蹤,但實驗分析僅僅以單個視頻的可視域驗證了方法的可用性,對算法的效率未作討論。
空間中的一地面點被視頻傳感器感知必須滿足兩個條件:①空間點在視頻傳感器的視棱錐中,即空間點在視頻傳感器中成像;②視頻傳感器與空間點之間不存在遮擋。條件①與視頻傳感器感知模型相關,條件②還與地理環(huán)境中的障礙物有關。
視頻傳感器感知模型如圖1所示,視頻傳感器的光學中心C,坐標記作(XC,YC,HC),由CD1D2D3D4構成的棱錐即為當前視頻傳感器的理論覆蓋范圍,棱錐的大小可由相機的基本參數與姿態(tài)參數確定。基本參數包括:成像芯片尺寸、焦距(f)、中心點等。姿態(tài)參數包括:方位角P、俯仰角T、橫滾角v。方位角P以某點的指北方向線起,依順時針方向到目標方向線之間的水平夾角;俯仰角T則指從某點的水平方向線起,依順時針方向到目標方向線之間的垂直夾角;橫滾角v指視頻傳感器繞著“光學中心-靶面中心”軸順時針旋轉的角度。研究主要針對實際應用中最為常見的監(jiān)控攝像機——搖攝-傾斜-變焦(Pan-Tilt-Zoom,PTZ)攝像機,其可以改變方位角、俯仰角以及焦距,不能改變橫滾角,橫滾角接近0°。因此空間點G,坐標記作(XG,YG,HG),與其對應圖像點,坐標記作(x,y),可通過式(1)計算而得。式(1)中λ為尺度因子,不影響圖像點的計算。

地理空間中一個點能被視頻傳感器感知到,需要視線與靶面有交點,即圖像坐標滿足x∈[xmin,xmax],y∈[ymin,ymax];[xmin,xmax]與[ymin,ymax]分別表示圖像坐標系中圖像點在坐標軸方向上的最大最小值。同時,視線之間無障礙點,即判斷障礙物的高度是否高于當前視線與障礙物交點的高度,如圖1所示,G1被覆蓋,而G2未被覆蓋。

圖1 視頻傳感器感知模型Fig.1 Perception model of camera
2.1 方法基本思想
本文方法首先利用一個初始格網將地理環(huán)境進行格網剖分;其次,根據第1節(jié)判斷格網點是否被當前相機感知/可視,若可視,則格網點的值表示為1,否則表示為0;再次,利用格網四個角點的感知狀態(tài)表示單個格網的感知狀態(tài),再將所有的格網組合在一起,模擬整個空間區(qū)域的感知狀態(tài);最后,逐步細化格網覆蓋狀態(tài)非(0000)和(1111)的格網,直至達到預設精度,進而最終獲得視頻傳感器的覆蓋范圍。該方法的核心思想是先空間離散,后空間內插,從而快速、準確估算視頻傳感器覆蓋范圍。
2.2 障礙物數據的獲取與表示
障礙物高度可以從原始空間數據中獲得,可以為固定值、圖層的屬性值、屬性的表達式、無限高(∞)。修剪整齊的植被、圍墻、電線桿等高度規(guī)格一致的障礙物可以使用固定值。一些障礙物的高度會保存在圖層的屬性值中,可以直接指定屬性值為高度數據的來源。一些建筑物的圖層沒有高度信息,但是有層數的信息,此時建筑物的高度可以通過表達式(層高乘以層數)估計。此外,實踐中在一些場合里,例如在計算道路兩側的路面視頻監(jiān)控的覆蓋范圍時,不需要考慮建筑物等障礙物的真實數值,可將障礙物看作是一堵無限高的墻,任何與墻有交點的視線都不能穿越,從而大大提升計算效率。
一般而言,地理數據可用點、線、面三種類型進行表達,不同的類型其幾何信息都以坐標序列的形式存儲,這就便于對其進行統一處理,因為根據實際情況,本文方法面狀對象看作為閉合的線對象,將點與面對象轉化為線對象進行統一處理,將點根據實際情況做一個緩沖區(qū),形成一個閉合的線,如樹木在地理信息系統中通常作為點對象存儲,可根據樹冠的大小將其變?yōu)榫€對象參與本文方法的計算。
本文方法主要關注視線上是否有遮擋,只需要獲得視線上的對象高度即可,因此本方法在三維GIS可視域分析中也適用。

表1 格網二進制編碼、覆蓋情況及其面積Tab.1 Binary coding coverage and area of grids
2.3 格網覆蓋狀態(tài)二值表達
每個單元格有四個角點,每個角點有可被感知和不可被感知兩種狀態(tài),分別用1和0標記,此值可根據1.2節(jié)方法計算而得。四個角點的感知狀態(tài)(0或者1)按左上、右上、左下、右下排列組合,一共16種狀態(tài),用二進制編碼可表示為(0000)2到(1111)2,對應十進制的0~15,每個編碼表達了格網的一種被覆蓋狀態(tài)。編碼與格網覆蓋狀態(tài)的對應關系如表1所示,從表1可以看出(0110)2和(1001)2狀態(tài)存在歧義,即可能存在兩種格網一個編碼的情況。此時,檢測格網中心點的感知狀態(tài),若格網中心可被感知,那么對應第一種狀態(tài),否則為第二種狀態(tài)。
當一個格網的編碼為(0000)2時,整個格網內狀態(tài)視為“空”;同理,編碼為(1111)2時,視為“滿”。當格網狀態(tài)為“空”或者“滿”時,格網內
部狀態(tài)勻質,表示當前格網表達的地理環(huán)境未被覆蓋或者被覆蓋;否則,當前格網非勻質,需要進一步處理以獲得精確的覆蓋范圍。
2.4 格網逐步細化
在計算視頻傳感器覆蓋范圍過程中,視頻傳感器覆蓋計算所確定的掃描格網的大小至關重要,掃描格網粒度過大,可能會導致面積較小的信息丟失;而格網粒度過小,會浪費大量的計算資源、存儲資源。
針對格網尺寸對視頻傳感器覆蓋精度與效率的影響,提出了通過細化格網采樣的方法,對非(0000)2和(1111)2編碼的格網進行逐步細化。本節(jié)將以圖2為例,說明掃描細化過程。圖2(a)表示初始掃描格網的大小,記作w0,格網編碼為(1101)2,為非勻質網格,需要對格網進一步細化;格網大小取w0/2,如圖2(b)所示,格網四條邊的中點和格網的中心點這5個點,將格網分割成4份,計算5個點被視頻傳感器覆蓋的情況,四個格網的編碼從左到右從上到下分別為(1101)2,(1111)2,(0100)2,(1101)2,由于右上方的細化格網勻質,不需要進一步細化,其他三個格網需要進一步細化;取格網大小w0/4,每個二級格網被進一步細化,同時判斷新增加的5個點的覆蓋情況,細化結果如圖2(c)所示,若當前細化粒度達到預期則不再細化,或者,當網格細化到一定程度,所有級別的網格都是“空”或“滿”,格網也無須進一步細化。

圖2 格網分級細化Fig.2 Different levels of girds
格網細化結束后,覆蓋面積CA可根據式(2)以及表1中的編碼進行估算:

式(2)由兩部分組成,前部分表示所有非最細層次的格網覆蓋的面積之和,后部分表示所有最細層次的格網覆蓋的面積之和。式(2)中,d表示格網細化的層數,count(i)表示第i層次中編號為(1111)2的格網數量,而count(j)表示編號為j (j=0,1,…,15)的格網的個數,ap(j)表示編號為j的格網其覆蓋面積占當前細節(jié)層次的格網的比例,其取值參考如表1所示。圖2(c)覆蓋的面積即為:

2.5 二值格網覆蓋范圍計算方法
二值格網覆蓋范圍計算方法描述如下:

算法1二值格網覆蓋范圍計算算法Alg.1 Algorithm for Coverage estimation based on binary coded grids
本文方法中用一個三元組(d,i,j)表達格網中的一個格網的角點,d為層數,i表示行號,j表示列號。記0層格網的寬度為w0,0層格網的起始點(0,0,0)空間坐標為(X0,Y0),那么第0層的(0,i0,j0)點的空間坐標是(X0+i0×w0,Y0+j0×w0)。記(d,i,j)在第d+1層的標號為(d+1,2×i,2×j),可以得出結論:(d,i,j)與(d+n,2n×i,2n×j)空間位置相同。(d,i,j)點所在的空間坐標為(X0+(i×w0)/2d,Y0+(j×w0)/ 2d)。
3.1 實驗
為了進一步驗證方法的有效性和效率,并討論初始格網尺寸和格網層次對方法的影響,本文設計了視頻傳感器覆蓋分析實驗。實驗中障礙物主要包括建筑物與樹木。

圖3視頻傳感器覆蓋計算結果Fig.3 Results of cameras coverage
圖3 中共部署了6個監(jiān)控攝像機,其中4個為云臺槍機,其俯仰角和水平角度可調節(jié),2個為固定槍機,其參數不可調,傳感器參數參見表2,攝像機部署的地理位置及其覆蓋范圍如圖3所示,圖中深色半透明區(qū)域是視頻傳感器可以覆蓋到的區(qū)域,半透明多邊形中的編號對應表2中的編號。實驗中以1m,2m,4m,5m為初始格網寬度,相對應的格網細化層次為0,1,0/1/2,2。由于布設在實際地理環(huán)境中的監(jiān)控相機不易預先獲取其真實的覆蓋范圍,因此無法與真實值進行比較,本實驗中,將地理場景分別分為最大尺寸(4m ×4m)和最小尺寸(1m×1m)的剖分格網進行覆蓋面積的計算,理論上,若本文方法覆蓋面積與最小尺寸格網的計算結果接近,則表示效率相當。而格網點的個數表示需要掃描的點的個數,體現算法的執(zhí)行效率,因此,實驗中以掃描格網角點作為衡量效率的標準,實驗結果見表3。
3.2 分析
理論分析本文最耗時的過程為格網角點覆蓋情況判斷。假設當前空間初始劃分N×M個格網,即層次數d=0,此時需要判斷(N+1)×(M+ 1)個角點的覆蓋狀況,這為本文方法的最好情況;若當前空間每一個格網都需要細化到d(d>0)層次,則需要判斷(N+1)×(M+1)×(2×d) ×(2×d)個角點的覆蓋狀況,此為本文方法的最差情況。因此,從理論上講,本文方法的效率介于將覆蓋范圍按照初始格網大小進行剖分和按照最細層次格網大小進行剖分的效率之間,且接近于按照初始格網大小進行剖分的效率,而覆蓋面積精度接近于將地理環(huán)境剖分為最小網格時候的情況。若地理環(huán)境較為復雜,遮擋視線的障礙物多,其效率接近將空間劃分為最細層次的格網時的效率;而當地理環(huán)境中地勢平坦、障礙物少時,其效率接近將空間劃分為最高層次的格網時的效率;若地理環(huán)境復雜度介于兩者之間時,本文方法在計算效率方面具有明顯的優(yōu)勢。

表2 視頻傳感器部署參數Tab.2 Parameters of cameras
本文方法以格網的四個角點的覆蓋狀態(tài)表示格網的覆蓋情況,而不是用格網中心點的覆蓋情況表示,以16種不同的覆蓋情況代替2種覆蓋情況,格網的覆蓋情況被細化,相比較而言,本文方法估算的覆蓋面積更精細。從理論上講,地理環(huán)境被分割得越精細,覆蓋面積計算的精度越高,但當地理環(huán)境簡單時,精細格網分割并不能帶來計算精度的顯著提高,反而提高了計算時間;而地理環(huán)境復雜時,較大尺寸的格網分割必然導致格網內部信息的丟失。本文方法顧及了地理環(huán)境的復雜性,達到了計算效率與計算精度的平衡。
實驗分析實驗結果也證明了上述理論分析。由表3可知,本文方法采用逐層細化的策略,相對于地理環(huán)境以較小格網尺寸進行均一化劃分時需要判斷的格網角點顯著減少,使得計算的時間大大縮短;相對于以較大格網尺寸進行劃分時地理空間的信息可能被丟失,盡量細化非勻質的格網,從而使得計算精度得到保證。本文方法做到了精度和效率的平衡,尤其在大規(guī)模的傳感器覆蓋計算時,本文方法優(yōu)勢顯著。

表3 實驗結果Tab.3 Results of experiment
初始格網大小與格網層次是影響本文方法效率和精度的兩個重要參數。從實際地理環(huán)境的實驗可知:①在利用均一格網大小進行剖分時,即格網層次為0,如表3所示的第一大列(注:包括計算面積和掃描格網角點的個數,下同)和第二大列,初始格網越小計算的精度越高,格網每縮小1/2,所要掃描的格網點的數量即變?yōu)樵瓉淼?倍;②在初始格網大小一定的情況下,如表3中的第二、三、四大列,分割的格網層次越大,精度越高,但當格網層次到達一定程度后精度提高不明顯,耗費的時間卻明顯增加;③在最小層次的格網大小相同的情況下,如表3中的第一、四、五大列,選用本文方法,其計算的精度幾乎一致,與相同大小的格網均一剖分的精度相差無幾,但其效率卻提高數倍,此時初始格網大,效率越高;④當最小層次的格網大小接近,但初始格網大小和層次均不相同時,如表3中的第六大列,初始格網為5m剖分層次為2,其最細層次格網大小為1.25m,初始格網為4m剖分層次為2,兩組數據的精度相當,并且掃描格網的數目也相當。與格網分割方向的關系的影響。如圖4所示,圖4(a)中梯形表示當前視頻傳感器地面高度上的可感知范圍,圓點為掃描的點,黑色實心圓點處可被感知,白色空心圓點處不可被感知,圖片下方中間位置的矩形區(qū)域局部細節(jié)放大效果圖如圖4 (b)所示,在梯形邊緣處點非常的密集,而在其他區(qū)域比較稀疏,這是由于掃描格網方向與視頻傳感器覆蓋范圍的邊緣并非正交,同時邊緣區(qū)域的障礙物對視線的遮擋,導致視頻傳感器視域范圍邊緣處的格網內部非勻質,需要逐步細化格網才能獲得精確覆蓋范圍值。

圖4 二值格網覆蓋掃描Fig.4 Coverage of corner points for the proposed method
本文方法在覆蓋范圍計算精度方面存在一些誤差。分析誤差來源:①離散化方法的固有特性,一方面,由于將地理環(huán)境進行離散的過程中不可避免的誤差,增加格網的細分層次,細分格網到一定程度即可逼近真實覆蓋范圍,但實際應用中并不是無限制地細化,而是細化到覆蓋面積變化不大即可;另一方面,格網剖分的方法無法處理格網中間有洞或者有島的情況,本文方法也不例外,即使當前格網大小非最細級別,因為其編碼為(1111)2和(0000)2,格網將不再細化,覆蓋面積將被高估/低估,若格網中洞/島面積不大,則對最終精度影響不大,否則將無法忽視其影響。在實際應用中,此種屬于較為極端的情況,可以預先將較大尺寸的格網疊加在地理數據上,直觀判斷是否存在此種情況,然后通過調整格網大小來避免此種情況的發(fā)生。②地理場景復雜度,結合圖4和表3分析,由于地理環(huán)境中存在遮擋,不同剖分格網大小對計算精度影響較大。因此,在地理環(huán)境簡單的情況下,可選用較小的剖分層次,以減少格網點覆蓋與否的判斷過程,提高效率,同時使精度不下降。
本文提出了用二值格網掃描近似計算視頻傳感器覆蓋范圍的方法。該方法顧及地理環(huán)境中的障礙物等,將視頻傳感器覆蓋范圍計算從一個連續(xù)空間的通視性分析轉變到多個離散點的通視性分析,快速計算出覆蓋范圍;同時,利用格網細化的策略,分層次精細化覆蓋范圍,既可以降低需要處理的數據量,又可以保障覆蓋范圍計算的精度。為大范圍地理空間中視頻傳感器快速、精細覆蓋分析提供方法支持。本文的地理數據為二維矢量數據,對象的高度通過圖層屬性、手動設置等方式設置,能夠用于地形較為平坦的城市區(qū)域的監(jiān)控。
本文方法可移植到三維GIS平臺中,因為其本質是基于數字表面模型(Digtal Surface Model,DSM)的可視域分析,只是此處可視域還受到相機參數的限制。本文方法尤其適合格網形式的DSM數據,其求得的覆蓋面積即為DSM在平面上的投影面積,在以覆蓋率為目標的視頻監(jiān)控網絡/有向傳感器網絡優(yōu)化方法中,用投影面積代替曲面面積,影響并不大。若能夠利用三維數據更“真實”地模擬地理環(huán)境中的對象,采用本文方法能夠快速獲得更為精確的視頻傳感器覆蓋范圍。
References)
[1]陳文萍,楊萌,洪弋,等.視頻傳感器網絡覆蓋問題[J].計算機應用,2013,33(6):1489-1494.CHEN Wenping,YANG Meng,Hong Yi,et.al.Coverage problems in visual sensor networks[J].Journal of Computer Application,2013,33(6):1489-1494.(in Chinese)
[2]肖甫,王汝傳,葉曉國,等.基于改進勢場的有向傳感器網絡路徑覆蓋增強算法[J].計算機研究與發(fā)展,2009,46(12):2126-2133.XIAO Fu,WANG Ruchuan,YE Xiaoguo,et al.A path coverage-enhancing algorithm for directional sensor network based on improved potential field[J].Journal of Computer Research and Development,2009,46(12):2126-2133.(in Chinese)
[3]蔣一波,王萬良,陳偉杰,等.視頻傳感器網絡中無盲區(qū)監(jiān)視優(yōu)化[J].軟件學報,2012,23(2):310-322.JIANG Yibo,WANG Wanliang,CHEN Weijie,et al.Coverage optimization of occlusion-free surveillance for video sensor networks[J].Journal of Software,2012,23(2):310 -322.(in Chinese)
[4]陶丹,馬華東.有向傳感器網絡覆蓋控制算法[J].軟件學報,2011,22(10):2317-2334.TAO Dan,MA Huadong.Coverage control algorithms for directional sensor networks[J].Journal of Software,2011,22(10):2317-2334.(in Chinese)
[5]Erdem U M,Sclaroff S.Automated camera layout to satisfy task-specific and floor plan-specific coverage requirements[J].Computer Vision and Image Understanding,2006,103(3): 156-169.
[6]H?rster E,Lienhart R.On the optimal placement ofmultiple visual sensors[C]//Proceedings of the4th ACM International Workshop on Video Surveillance and Sensor Networks,ACM,2006:111-120.
[7]Malik R,Bajcsy P.Automated placement ofmultiple stereo cameras[C]//Proceedings of the 8th Workshop on Omnidirectional Vision,Camera Networks and Non-classical Cameras-OMNIVIS,2008.
[8]Shen C S,Zhang C,Fels S.A multi-camera surveillance system that estimates quality-of-view measurement[C]// Proceedings of IEEE International Conference on Image Processing,IEEE,2007,3:193-196.
[9]Angella F,Reithler L,Gallesio F.Optimal deployment of cameras for video surveillance systems[C]//Proceedings of IEEE Conference on Advanced Video and Signal Based Surveillance,2007:388-392.
[10]Zhao J,Fusion S,Planning S,et al.Camera planning and fusion in a heterogeneous camera network[J].Dissertations&Theses-Gradworks,2012.
[11]Zhao J,Cheung S C,Nguyen T.Optimal visual sensor network configuration[J].Multi-camera Networks:Principles and Applications,2009:139-141.
[12]Zhao J,Cheung S S.Optimal visual sensor planning[C]// Proceedings of IEEE International Symposium on Circuits and Systems,IEEE,2009:165-168.
[13]Zhao J,Cheung S S.Multi-camera surveillance with visual tagging and generic camera placement[C]//Proceedings of 1stACM/IEEE International Conference on Distributed Smart Cameras,IEEE,2007:259-266.
[14]Zhao J,Yoshida R,Cheung S S,et al.Approximate techniques in solving optimal camera placement problems[J].International Journal of Distributed Sensor Networks,2013.
[15]Liu L,Ma H D,Zhang X.Analysis for localization-oriented coverage in camera sensor networks[C]//Proceedings of Wireless Communications and Networking Conference,IEEE,2008:2579-2584.
[16]方陸明,柴紅玲,唐麗華,等.基于DEM的視頻可視域提取算法[J].北京林業(yè)大學學報,2010,32(3):27-32.FANG Luming,CHAI Hongling,TANG Lihua,et al.An extraction algorithm of a DEM based video visualization domain[J].Journal of Beijing Forestry University,2010,32(3):27-32.(in Chinese)
[17]張剛,湯國安,宋效東,等.基于DEM的分布式并行通視分析算法研究[J].地理與地理信息科學,2013,29(4): 81-85.ZHANG Gang,TANG Guoan,SONG Xiaodong,et al.Research on distributed parallel visibility analysis algorithm based on DEM[J].Geography and Geo-Information Science,2013,29(4):81-85.(in Chinese)
[18]王晨昊,湯曉安,馬伯寧,等.基于距離場映射的地形可視域分析方法[J].測繪學報,2011,5:563-568.WANG Chenhao,TANG Xiaoan,MA Boning,et al.Terrain viewshed analysismethod based on distance field mapping[J].Acta Geodaetica et Cartographica Sinica,2011,5:563-568.(in Chinese)
Fine camera coverage calculation method
WANG Ziran1,ZHANGYanan2,3,LIU Xuejun2,3,4,WANGMeizhen2,3,4
(1.Nanjing Normal University Taizhou College,Taizhou 225300,China;2.School of Geography Science,Nanjing Normal University,Nanjing 210023,China;3.Jiangsu Center for Collaborative Innovation in Geographical Information Resource Development and Application,Nanjing 210023,China;4.Key Laboratory of Police Geographic Information Technology Ministry of Public Security,Changzhou 213022,China)
Camera coverage is an important basis of camera network initial configuration,optimal deployment and so on.Its precision and efficiency are the critical influences on the results of coverage analysis,which are very important to the application of large area camera coverage analysis,butmanymethods do not consider them.A new method to efficiently estimate camera coverage was proposed.Firstly,the geographic space was dispersed into grids.Secondly,the statuses of the four corners of each grid were computed.If the cornerwas covered by the camera,the statuswas denoted by using1 or0.So the statusof the gird can be presented by the codewhich iseither0 or1.Consequently there are16 statuses to represent the status of a grid.Finally,if the code of the grid was not(0000)or(1111),the gird would be divided into four isometrical subgirds until the sub-girdswere small enough or their codes were(0000)or(1111).According to the levels and statues of all grids,the whole camera coveragewas estimated.Experimental results show that the proposed method can obtain more precise camera and can give consideration to both efficiency and accuracy.
camera coverage;coverage analysis;bi-valued grid;grid-fractionizing
TN95
A
1001-2486(2015)05-054-07
10.11887/j.cn.201505009
http://journal.nudt.edu.cn
2015-06-25
項目來源:國家自然科學基金資助項目(41401442,41201417);國家863計劃資助項目(2015AA123901);江蘇省高校自然科學研究面上資助項目(14KJB170011);博士學科點專項科研基金資助項目(新教師類)(20133207120017);江蘇省測繪科研資助項目(JSCHKY201204);測繪遙感信息工程國家重點實驗室資助項目(12E01);公安部科技強警基礎工作專項資助項目(2014GABJC009);泰州市科技局科技支撐計劃資助項目(TS036)
王自然(1983—),男,江蘇鹽城人,講師,碩士,E-mail:wangzr@outlook.com