999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于微波雷達回波信號的智能車道劃分方法

2017-12-14 05:22:24王東峰
計算機應用 2017年10期

修 超,曹 林,王東峰, 2,張 帆

(1.北京信息科技大學 通信工程系,北京 100101; 2.北京川速微波科技有限公司,北京 100080) (*通信作者電子郵箱charlin26@163.com)

基于微波雷達回波信號的智能車道劃分方法

修 超1,曹 林1*,王東峰1, 2,張 帆1

(1.北京信息科技大學 通信工程系,北京 100101; 2.北京川速微波科技有限公司,北京 100080) (*通信作者電子郵箱charlin26@163.com)

利用多目標交通測速雷達進行交通執法時,只有正確地判斷出車輛所在的車道,抓拍照片才能作為交通執法的依據。傳統的分車道方法主要通過人工測量的固定閾值以及坐標系旋轉的方法來達到車道劃分的目的,但這種方法誤差較大并且不易于操作。基于統計和密度特征的核聚類算法(K-CSDF)分兩步進行:首先對雷達獲取的車輛數據進行特征提取,包括基于統計特征的閾值處理和基于密度特征的動態半徑提取;然后引入基于核的相似性的動態聚類算法對篩選出的有效點進行聚類。通過和高斯混合模型(GMM)算法以及自組織映射神經網絡(SOM)算法進行仿真對比表明:當只取100個有效點進行聚類時,K-CSDF和SOM算法能達到90%以上的分車道正確率,而GMM算法不能給出車道中心線;在算法用時上,當取1 000個有效點時,K-CSDF和GMM算法用時均小于1 s,可以保證實時性,而SOM算法則需要2.5 s左右;在算法魯棒性上,K-CSDF對不均勻樣本的適應性優于這兩種算法。當取不同數量的有效點進行聚類時,K-CSDF可以達到95%以上的平均分車道正確率。

多目標雷達;車道劃分;統計特征;動態半徑;核;動態聚類

0 引言

在智能交通系統中,車道檢測是一個長期的研究熱點。車道檢測包括車道線的檢測、道路邊界的檢測以及車輛可通行區域的檢測等。目前,基于視覺的檢測技術[1-2]由于攝像機獲取信息量大、成本低等優勢應用最為廣泛。但攝像機拍攝的圖片極易受到光照和天氣等外部環境的影響,對環境條件要求較為苛刻。近年來,隨著雷達探測技術[3-5]的發展,研究人員開始采用毫米波雷達和激光雷達來代替或者輔助攝像機。雷達不受光照和惡劣天氣等環境因素影響,并且具有探測范圍廣、測距精度高等優點。

史鵬波[6]利用雷達數據并采用了一種雙閾值的方法來提取道路邊界點,但需要預先確定兩個閾值,缺乏自適應性;Xu[7]將雷達獲取的數據點分成若干個區域,計算該區域的隨機密度來檢測路邊,方法簡單,但計算量大要計算每個區域的協方差矩陣;Han等[8]采用閾值分割和綜合概率數據關聯濾波器(Integrated Probabilistic Data Association Filter, IPDAF)算法來檢測和跟蹤道路邊沿;吳維一等[9]采用改進的迭代自組織數據分析算法(Iterative Self Organizing Data Analysis Techniques Algorithm, ISODATA)對雷達數據進行聚類,雖然算法具有一定的自組織性和啟發性,但還是需要給出先驗的最小樣本數目和長度約束。

本文提出了一種基于統計和密度特征的核聚類算法(Kernel Clustering algorithm based on Statistical and Density Features, K-CSDF),從毫米波雷達獲取的車輛數據中提取道路信息。無論雷達采用正裝還是側裝的方式(見圖1),該算法都可以對車道進行智能劃分,不需要人為地測量雷達的擺角以及雷達安裝位置到車道中心的距離等信息,提高了人工操作的簡便性以及車道劃分的準確率。K-CSDF的流程見圖2。

圖1 相機抓拍的照片

圖2 K-CSDF流程

1 雷達數據獲取

本文的實驗載體是北京川速微波科技有限公司的多目標交通測速雷達,主要用于在測速卡口對車輛進行超速抓拍。該雷達系統主要包括三部分:相機、雷達和補光燈。其中雷達是系統的核心設備,它能捕獲到車輛并觸發相機對車輛進行抓拍。

多目標交通雷達采用頻移鍵控(Frequency Shift Keying, FSK)體制,利用多普勒頻移對目標進行測速,利用不同發射頻率的相位差對目標進行測距,并通過一發兩收的天線設計來測量目標的角度。雷達對目標的測距和測角公式如下:

(1)

(2)

其中:R為雷達到目標的距離;c為光速;Δφ為同一接收天線兩個不同發射頻率f1和f2的相位差;θ為雷達天線法向與目標的夾角;λw為雷達發射電磁波的波長;Δφ′為兩個不同接收天線的同一發射頻率的相位差;d為兩個接收天線之間的距離。

在一段時間內,雷達識別出的車輛目標的行駛軌跡分布如圖3所示,為了直觀起見,已將雷達獲取的車輛目標的極坐標距離信息(R,θ)轉換成直角坐標信息(x,y),即圖3中每個點坐標(x,y)表示車輛的距離信息,y的正負代表車輛行駛的方向。將每個樣本點對應的幅度記為z,所有點的幅度按由小到大排序得到車輛信號的能量分布,記為q(z)。

圖3 雷達獲取的原始車輛數據

2 車輛數據特征提取

2.1 基于統計特征的閾值處理

對雷達獲取的車輛數據,首先利用車輛目標幅度信息的統計特征對數據進行閾值處理,剔除掉部分異常數據。以監測來向車為例,取ylt;0的數據進行分析,如圖4所示。

圖4 在正裝和側裝情況下的來向車輛軌跡分布

通常,雷達照射范圍內的車輛反射信號很強,但同時也存在鄰近車道的車輛產生的干擾信號,圖4中“鬼影區”就是受天線的測角范圍所限,由非監測區域的干擾目標所產生的干擾信號,因此閾值處理的目的就是去掉“鬼影區”的異常數據。

為了提取出有效的車輛信息,將車輛信號的能量分布q(z)的上分位數α定義如下:

(3)

其中:α表示能量高于zα的樣本點的百分比,0lt;αlt;1;Nq表示樣本總數。q(z)的統計分布如圖5所示,呈現出“雙峰”特性,低峰值處表示“鬼影區”的樣本分布,高峰值處表示監測車道區域的樣本分布。

圖5 樣本的能量直方圖和概率密度曲線

對于任一α值,可以將q(z)分成兩組,取兩組數據之間的方差達到最大時的α值作為保留數據的百分比,即保留能量較高的α·Nq個點,剔除能量較低的(1-α)Nq個點。假設兩組數據的均值分別為λ1和λ2,分別對應于α和1-α,則樣本總體均值λ為:

λ=αλ1+(1-α)λ2

(4)

兩組數據之間的方差δ2定義如下:

δ2(α)=α(λ1-λ)2+(1-α)(λ2-λ)2=

α(1-α)(λ1-λ2)2

(5)

在0~1之間改變α,便能求得式(5)取得最大值時的α,此時閾值的取值為能量分布q(z)中的第?(1-α)Nq」個點對應的幅值。經實驗驗證,即使q(z)的統計分布無明顯的“雙峰”特性,這種方法也能很好地剔除“鬼影區”的異常數據。

2.2 基于樣本密度特征的動態半徑提取

對樣本數據的特征提取對后續算法以及最終結果具有直接的影響,更好的特征能夠降低模型的復雜度并提高車道劃分的準確性。

假設經過上述處理后的數據樣本集合為X={x(1),x(2),…,x(m);x(i)∈Rn}。其中:x(i)是一個n維的向量,代表第i個樣本的n維信息,m表示樣本的數量。

將第i個樣本點的局部密度[10]定義如下:

(6)

其中:

(7)

dij表示樣本x(i)與x(j)之間的距離,dc是截斷距離(Cut-off distance)。

由定義可知,ρi表示與樣本x(i)距離小于dc的樣本點的個數,當ρi大于N時,該樣本被視為有效樣本。其中dc和N是超參數,需要人為指定,參數設置的不同可能會導致結果的較大差異。為了降低算法的參數敏感性,把dc看作一個變量,將第i個樣本點的動態半徑定義如下:

(8)

其中:τi表示樣本x(i)達到密度N所需要的最小半徑(如圖6所示),τ的值越小,表明該樣本點越可能為有效點;τ的值越大,表明該樣本點越可能為噪聲點。

圖6 樣本的動態半徑示意圖

3 基于統計和密度特征的核聚類算法

本章主要介紹K-CSDF的第二步:對提取出的有效點進行聚類。首先分析了傳統K均值算法的不足,然后通過引入核函數改進了原有算法,最后給出了K-CSDF的聚類實現流程。

3.1 K均值算法的不足

K均值算法[11]是一種簡單、高效的動態聚類算法,其時間復雜度接近線性,因此在工業中有廣泛的應用。

K均值算法采用迭代的思想,利用最小誤差平方和準則來判斷失真函數(Distortion function)是否收斂,定義失真函數如下:

(9)

其中:

(10)

μj是第j類樣本的均值向量,代表第j類的聚類中心;lj表示第j類樣本的數量;下標c(i)表示第i個樣本的類別標簽;k表示類別數。當Jc, μ取得最小值時的聚類就是誤差平方和準則下的最優結果。

在本文的應用場景中,直接采用K均值算法來進行聚類是不合適的。由于該算法采用歐氏距離來定義樣本間的相似性,并用均值來更新聚類中心,只有當類內樣本分布為超球狀或接近超球狀時,才能取得較好的效果。另一種距離度量方法是采用閔可夫斯基距離(Minkowski distance),設兩個樣本為(a1,a2,…,an)和(b1,b2,…,bn),則它們之間的閔可夫斯基距離定義為:

(11)

圖7顯示了當p取不同值時,樣本逼近聚類中心的趨勢。但采用閔可夫斯基距離也不能解決所有問題,更一般的距離或相似性度量方式可以通過引入核函數[12]的方法來實現。

圖7 p取不同值時,樣本逼近聚類中心的趨勢

3.2 K-CSDF的實現

通過上述分析可知,設計一個有效的核函數是K-CSDF第二步的關鍵。在本文應用場景中,樣本數據是由車輛在車道內行駛而產生的,因此樣本數據的特點是集中在相應的主軸方向,即車道中心線的方向。因此,定義主軸核函數如下:

Kj(x(i),Uj)=UjTx(i)

(12)

其中:Uj是樣本類內離散度矩陣Sj的最大特征值所對應的特征向量。

(13)

相應地,可以將樣本與核函數之間的距離ζ定義如下:

ζ(x(i),Kj)=ηTη

(14)

η=(x(i)-μj)-UjUjT(x(i)-μj)

(15)

圖8 樣本到核函數的距離示意圖

在定義了代表不同類的核函數以及樣本與核函數之間的距離之后,就可以參照K均值算法來構造K-CSDF的聚類部分,具體流程如下。

輸入 樣本集合{x(1),x(2),…,x(m);x(i)∈Rn}

初始化 將樣本x(i)初始化成k類;隨機初始化每類的核Kj。

Repeat

對每個樣本x(i)利用式(14)計算出它到初始核的距離ζ,取最小距離并將樣本歸為c(i)類;

對所有歸為c(i)類的樣本利用式(13)求出其Sj和Uj,并更新核Kj

Until

4 實驗仿真和路測結果

4.1 實驗仿真結果

首先,給出K-CSDF特征提取的實驗仿真流程,見圖9。經過K-CSDF第一步的特征提取后通常可以得到2 000個左右的有效樣本點,取100個有效點進行聚類,最終的聚類結果見圖10。從圖10中可以看出算法識別出的三條車道中心線是由每一類的樣本在核方向上的投影產生的。

圖9 K-CSDF特征提取過程

圖10 樣本在核方向上的投影示意圖

其次,分別取樣本點數量為100、500、1 000、2 000對聚類效果進行分析。此時,聚類結果的實驗仿真如圖11所示,通過對100組實際采集的數據進行分析,結果表明即使只取100個樣本點,算法仍能很好地識別出車道中心線。表1給出了圖11的聚類結果所對應的聚類中心μj,樣本類內離散度矩陣Sj和其最大特征值所對應的最大特征向量Uj的數值。

此外,在實際采集數據時很容易遇到的一個問題就是,各個車道的過車數量可能并不均勻,這會導致采集到的樣本分布不均且有明顯的“間斷”。為了衡量聚類效果,定義評價指標eva如下:

eva=(βi-αi)/max(αi,βi)

(16)

其中:αi表示第i個樣本到此類的其他樣本的平均距離;βi表示第i個樣本分別到其他各類樣本的平均距離中的最小值;eva值在-1~1范圍內,越接近1表明聚類效果越好。如圖12所示,仿真結果能識別出車道中心線并且大部分樣本的eva值都大于0.6,表明算法能很好地適應這種情況。

圖11 聚類識別車道中心線示意圖

表1 實驗結果對應的聚類參數值

圖12 過車不均時的聚類效果

最后,考慮到國內該類產品仍處于研發階段并涉及商業機密,關于多目標交通雷達的車道劃分理論研究還未見公開的文獻以及實際的工程結果,因此將本文提出的K-CSDF和另外兩種具有代表性的聚類算法在算法用時以及車道劃分的準確率上進行對比:

1)高斯混合模型(Gaussian Mixture Model, GMM):相對于K均值算法強制地將每個樣本分給某個類,GMM算法給出的是樣本分到每個類的概率,因而又稱作軟聚類(soft clustering)。圖13是GMM的聚類結果以及樣本分類的后驗概率。

圖13 GMM算法的聚類效果

2)自組織映射神經網絡(Self-Organizing Maps, SOM):采用2×3的拓撲網絡將樣本分成6類,訓練次數取200次。SOM網絡的聚類結果給出了6個類的中心,如圖14所示,分別取左、中、右拓撲結構的兩個聚類中心的連線作為識別出的車道中心線。

圖14 SOM算法的聚類效果

實驗仿真顯示三種聚類算法在大多數情況下都能達到90%以上的分車道正確率。其中,本文算法和SOM算法可以給出車道中心線,而GMM算法不能;在樣本分布不均衡的情況下,本文算法也具有很好的魯棒性,仍能達到95%以上的正確率,GMM算法可以達到90%左右的正確率,而SOM算法無法正確分類;在算法用時上,以取1 000個樣本點為例, GMM算法用時最快,在0.2 s左右,本文算法需要0.8 s左右,SOM算法需要2.5 s左右。具體對比見表2和圖15。

表2 本文算法和其他兩種算法的性能以及訓練時間對比

表3 多目標雷達路測結果統計

圖15 取不同數量樣本點時分車道正確率對比

4.2 路測結果

測試設備:PC、雷達、相機和三腳架等。

測試地點:天橋。

測試步驟:

1)將雷達用三腳架正裝,并連接相機和PC,然后用雷達采集車輛數據5 min(約20輛車)。

2)通過上位機發送命令,執行車道劃分算法,通過聚類結果的聚類中心和特征向量對車道進行擬合,上位機界面見圖16。

3)將雷達設置成工作狀態,對車輛進行正常抓拍并保存原始數據、抓拍照片和視頻用于統計分析。

4)對雷達進行側裝,重復上述三個步驟。

圖16 上位機界面

對三組測試結果分別統計分車道正確率,并對每輛過車取10幀數據進行單幀分析,如圖17所示。路測統計結果見表3。

圖17 實際視頻的單幀圖像以及對應的單幀數據

表3中,第1組數據為正裝時采集,第2、3組為側裝時采集,可以看出正裝的車道劃分正確率要稍高于側裝時的正確率,但從總體上,該方法在兩種安裝方式下都可以達到95%以上的車道劃分正確率,可以滿足實際應用的需求。

5 結語

本文提出了K-CSDF用于車道劃分,該算法主要包括對原始數據的特征提取以及基于核的相似性的動態聚類兩步。從實驗仿真和路測結果可以看出,該方法在保證實時性的同時,可以達到95%以上的分車道正確率;當只取100個樣本點進行擬合時,算法也具有很好的魯棒性。但本文只對監測3個車道的情況進行了分析,對于監測更多車道以及更復雜環境下的道路情況,還需要后續的研究。

References)

[1] BEYELER M, MIRUS F, VERL A. Vision-based robust road lane detection in urban environments [C]// ICRA 2014: Proceedings of the 2014 IEEE International Conference on Robotics and Automation. Piscataway, NJ: IEEE, 2014: 4920-4925.

[2] DU X, TAN K K, HTET K K K. Vision-based lane line detection for autonomous vehicle navigation and guidance [C]// ASCC 2015: Proceedings of the 2015 10th Asian Control Conference. Piscataway, NJ: IEEE, 2015: 1-5.

[3] FELGUERA-MARTN D, GONZLEZ-PARTIDA J T, ALMOROX-GONZLEZ P, et al. Vehicular traffic surveillance and road lane detection using radar interferometry[J]. IEEE Transactions on Vehicular Technology, 2012, 61(3): 959-970.

[5] JANDA F, PANGERL S, SCHINDLER A. A road edge detection approach for marked and unmarked lanes based on video and radar [C]// FUSION 2013: Proceedings of the 2013 16th International Conference on Information Fusion. Piscataway, NJ: IEEE, 2013: 871-876.

[6] 史鵬波. 基于單線激光雷達的道路特征檢測[D]. 南京: 南京理工大學, 2013. (SHI P B. Road feature detection based on single line lidar [D]. Nanjing: Nanjing University of Science and Technology, 2013.)

[7] XU Z. Laser rangefinder based road following[C]// ICMA 2005: Proceedings of the 2005 IEEE International Conference on Mechatronics and Automation. Piscataway, NJ: IEEE, 2005, 2: 713-717.

[8] HAN J, KIM D, LEE M, et al. Enhanced road boundary and obstacle detection using a downward-looking LIDAR sensor[J]. IEEE Transactions on Vehicular Technology, 2012, 61(3): 971-985.

[9] 吳維一, 劉大學, 戴斌. 一種處理激光雷達數據的聚類分析方法[J]. 計算機仿真, 2007, 24(8): 236-240. (WU W Y, LIU D X, DAI B. A clustering analysis for lidar data [J]. Computer Simulation, 2007, 24(8): 236-240.)

[10] RODRIGUEZ A, LAIO A. Clustering by fast search and find of density peaks[J]. Science, 2014, 344(6191): 1492-1496.

[11] FORGY E W. Cluster analysis of multivariate data: efficiency versus interpretability of classifications[J]. Biometrics, 1965, 61(3): 768-769.

[12] SCH?LKOPF B, SMOLA A, MüLLER K R. Nonlinear component analysis as a kernel eigenvalue problem[J]. Neural Computation, 1998, 10(5): 1299-1319.

Automaticlanedivisionmethodbasedonechosignalofmicrowaveradar

XIU Chao1, CAO Lin1*, WANG Dongfeng1, 2, ZHANG Fan1

(1.DepartmentofTelecommunicationEngineering,BeijingInformationScienceandTechnologyUniversity,Beijing100101,China;2.BeijingTransMicrowaveScienceandTechnologyCompanyLimited,Beijing100080,China)

When police carry out traffic law enforcement using multi-target speed measuring radar, one of the most essential things is to judge which lane each vehicle belongs to, and only in this way the captured pictures can serve as the law enforcement evidence. To achieve lane division purpose, traditional way is to obtain a fixed threshold by manual measurement and sometimes the method of coordinate system rotation is also needed, but this method has a large error with difficulty in operating. A new lane division algorithm called Kernel Clustering algorithm based on Statistical and Density Features (K-CSDF) was proposed, which includes two steps: firstly, a feature extraction method based on statistical feature and density feature was used to process the vehicle data captured by radar; secondly, a dynamic clustering algorithm based on kernel and similarity was introduced to cluster the processed data. Simulations with Gaussian Mixture Model (GMM) algorithm and Self-Organizing Maps (SOM) algorithm were conducted. Simulation results show that the proposed algorithm and SOM algorithm can achieve a lane accuracy of more than 90% when only 100 sample points are used, while GMM algorithm cannot detect the lane center line. In terms of running time, when 1 000 sample points are taken, the proposed algorithm and GMM algorithm spend less than one second, and the real-time performance can be guaranteed, while SOM algorithm takes about 2.5 seconds. The robustness of the proposed algorithm is better than GMM algorithm and SOM algorithm when sample points have a non-uniform distribution. When different amounts of sample points are used for clustering, the proposed algorithm can achieve an average lane division accuracy of more than 95%.

multi-target radar; lane division; statistical feature; dynamic radius; kernel; dynamic clustering

2017- 04- 05;

2017- 06- 22。

國家自然科學基金資助項目(61671069);北京高等學校高水平人才交叉培養項目。

修超(1991—),男,山東煙臺人,碩士研究生,主要研究方向:信號處理、模式識別; 曹林(1977—),男,遼寧沈陽人,教授,博士,主要研究方向:圖像處理、模式識別; 王東峰(1974—),男,陜西寶雞人,教授,博士,主要研究方向:雷達信號處理; 張帆(1994—),男,安徽亳州人,碩士研究生,主要研究方向:信號處理、圖像識別。

1001- 9081(2017)10- 3017- 07

10.11772/j.issn.1001- 9081.2017.10.3017

TP274.2

A

This work is partially supported by the National Natural Science Foundation of China (61671069), the Cross Training of High Level Talents Real-training Plan of Beijing Municipal Commission of Education.

XIUChao, born in 1991, M. S. candidate. His research interests include signal processing, pattern recognition.

CAOLin, born in 1977, Ph. D., professor. His research interests include image processing, pattern recognition.

WANGDongfeng, born in 1974, Ph. D., professor. His research interests include radar signal processing.

ZHANGFan, born in 1994, M. S. candidate. His research interests include signal processing, image recognition.

主站蜘蛛池模板: 2048国产精品原创综合在线| 午夜啪啪网| 色噜噜综合网| 久青草免费在线视频| 亚洲精品无码在线播放网站| 国产精品香蕉| 日本日韩欧美| 久久毛片网| 国产va在线观看免费| 亚洲视频四区| 高清码无在线看| 国产成人精品优优av| 嫩草国产在线| 88国产经典欧美一区二区三区| 久久久久久高潮白浆| a级毛片免费播放| 97国产精品视频自在拍| 亚洲人成网线在线播放va| 自拍欧美亚洲| 久久亚洲日本不卡一区二区| 欧美福利在线观看| 亚洲精品另类| 99精品视频播放| 亚洲中文字幕23页在线| 国产精品亚洲天堂| yy6080理论大片一级久久| 亚洲无码高清免费视频亚洲| 国模私拍一区二区三区| 午夜色综合| 国产在线观看人成激情视频| 精品视频福利| 国产浮力第一页永久地址| 国产最新无码专区在线| 国产91视频观看| 欧美日韩精品一区二区视频| 亚洲成人网在线观看| 中国特黄美女一级视频| 91精品在线视频观看| 2019国产在线| 免费观看成人久久网免费观看| 97人妻精品专区久久久久| 国产成在线观看免费视频| 国产精品视频公开费视频| 日韩无码一二三区| 91国内在线视频| 久久久91人妻无码精品蜜桃HD| 无码视频国产精品一区二区| 在线欧美日韩国产| 国产亚洲精品自在久久不卡| 性喷潮久久久久久久久| 99精品视频九九精品| 亚洲色图欧美视频| 天堂成人在线| 99久久人妻精品免费二区| 亚洲一区二区成人| 高潮毛片无遮挡高清视频播放| 五月综合色婷婷| 找国产毛片看| 中国成人在线视频| 日韩精品亚洲人旧成在线| 国产剧情国内精品原创| 国产成人精品一区二区三在线观看| 亚洲日韩AV无码一区二区三区人| 四虎影视无码永久免费观看| 91视频精品| 亚洲美女一区| 亚洲有无码中文网| 夜色爽爽影院18禁妓女影院| 亚洲 欧美 偷自乱 图片| 亚洲欧美精品一中文字幕| 日韩资源站| 精品国产毛片| 精品伊人久久久久7777人| 另类欧美日韩| 国产精品久久久久久影院| 粉嫩国产白浆在线观看| 一区二区欧美日韩高清免费| 免费一级无码在线网站| 粉嫩国产白浆在线观看| 一级成人欧美一区在线观看| 婷婷亚洲最大| 亚洲码一区二区三区|