999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于最小臨近點跡和航跡關聯的多源目標融合方法

2022-10-12 10:26:52趙樹廉吳思宇趙鵬云田浩東孟璋劼唐逸超
汽車工程學報 2022年5期
關鍵詞:關聯融合檢測

趙樹廉,吳思宇,趙鵬云,田浩東,唐 宇,孟璋劼,唐逸超

(1.清華大學車輛與運載學院,北京 100084;2.中國汽車工程研究院股份有限公司,重慶 401122;3.中汽院智能網聯科技有限公司,重慶 401122;4.重慶大學機械與運載工程學院,重慶 400044)

汽車已成為交通運輸中的重要組成部分,是民眾出行的重要選擇。隨著汽車持有量持續增加,交通安全、能源消耗越來越成為制約汽車產業發展的主要因素。汽車新能源、智能化、網聯化技術的出現,為解決上述問題提供了解決手段。國務院《中國制造2025》、汽車產業“十三五”發展狀況圖解以及《國家車聯網產業標準體系建設指南(智能網聯汽車)(2017)》均提出“智能網聯汽車”是未來的重要發展方向。2021年上半年,具備L2輔助駕駛功能的乘用車新車累計銷量156.8萬輛,市場滲透率達到20%左右,其中新能源汽車市場滲透率超過30%。由此可知,智能網聯電動車,已成為汽車行業的研究熱點。

然而,智能駕駛汽車突破的關鍵點之一在于構建高精度、高可靠性及實時的環境感知模型。環境感知模型是汽車與外界環境交互的媒介,是汽車決策系統的前提條件。目前,毫米波雷達、視覺相機以及激光雷達是感知系統主要應用的傳感器。毫米波雷達能夠可靠地檢測遠距離目標并測速,擴展感知范圍,提高跟蹤精度;視覺傳感器能夠提供豐富的環境語義信息,為感知系統對環境的理解提供支持;激光雷達能夠穩定可靠地檢測遠距離目標物并測量其速度。針對單一傳感器無法滿足感知需要的現狀,多傳感器目標跟蹤融合成為研究的熱點。

多傳感器目標融合主要包括集中式融合、分布式融合以及混合式融合,數據融合過程主要包括多源傳感器目標物信息關聯,多目標跟蹤及融合3個部分:

(1)數據關聯包括點跡與航跡的關聯以及航跡與航跡的關聯,是按照一定的關聯度量標準進行的。所采用的方法主要包括最近鄰域法、概率密度數據關聯、聯合概率數據關聯、多假設追蹤等。由于這些方法采用的關聯指標為馬氏距離與歐氏距離,關聯區域為不同傳感器探測范圍的重疊區域,所以存在探測范圍較小、易丟失非重疊區域的信息、在多目標情況下匹配不準確、后續跟蹤不穩定等問題。此外,多源異構傳感器采集的數據在時間和空間上并不完全一致,因此數據融合前需進行空間同步。由于不同傳感器的測量精度不同,給后期的數據關聯和融合帶來較大難度。

(2)多目標跟蹤針對傳感器會存在數據丟失引起某一目標物下一幀缺少關聯值的問題,現有的目標跟蹤方法通常采用目標估測值的閾值進行跟蹤,通過考察在設定的周期內有無觀測值來判斷目標物是否丟失或消失。如果周期內均無觀測值,則認為目標物消失。但是該方法并未有效解決跟蹤不穩定的問題。

(3)目標級數據融合算法對不同類型的傳感器系統檢測到的目標通過融合算法獲得被感知目標物更精確的信息。常用的方法為基于隨機統計的方法,主要包括加權平均法、卡爾曼濾波法、貝葉斯估計法、DS證據推理法等。由于不同傳感器的測量特性存在差別,所以需要考慮不同傳感器的誤差進行數據融合,劉衛東等等為得到位置誤差更小的、更加精確可靠的、融合性能更優的信息,利用凸組合融合算法和Bar-Shalom-Campo融合算法對目標航跡進行融合估計,并利用這3種方法對設定目標的運動情況進行仿真估計,從而給出仿真結果。

然而,目前大多數傳感器數據融合為毫米波雷達與視覺傳感器的數據融合,它僅基于毫米波雷達檢測到的目標物在視覺傳感器生成的圖像中設定感知區域,然后通過視覺方法對該區域繼續檢測。盡管該方法在一定程度上提高了雷達的檢測準確率和視覺檢測的運算效率,但未加強兩種傳感器的信息互補,所以融合效果不佳,感知準確度有待提升。ZHANG Bingli等針對這一問題提出了一種基于YOLO v2和分層聚類的融合方法,但在隧道或車輛密集處等復雜場景中仍會出現一定程度的誤差。同時,該算法的驗證僅局限于照片檢測,并未開展實車試驗。

因此,針對現有方法存在的探測范圍較小,易丟失非重疊信息,并且在多目標情況下匹配不準確,會導致后續跟蹤不穩以及融合效果不佳等問題,本文基于歐氏距離與余弦相似度的點跡和航跡的數據關聯提出了多源異構的目標融合方法,充分考慮不同傳感器的優缺點并進行優勢互補,大大減小了計算量并提高了跟蹤效果,使用狀態更新方程對不同傳感器測量值進行融合,并最終通過在實車環境中利用毫米波雷達和視覺傳感器進行試驗,驗證了算法的準確性。

1 目標融合方法

基于最小鄰近點跡和航跡的多源異構目標融合方法采用的多源異構數據來源于Mobileye視覺傳感器和毫米波雷達感知的目標數據,通過最小臨近實現點跡和航跡的正確關聯。其中,Mobileye視覺傳感器主要用來識別車道線、信號燈、車輛和行人等,并測量目標物的位置和速度;毫米波雷達用于識別障礙物并得到精確的位置和速度測量值。Mobileye視覺傳感器的優點為目標物類別識別準確且橫向測距精度高,相比于Mobileye視覺傳感器,毫米波雷達的縱向測距和測速更準確。因此,該方法利用多源數據的各自優勢進行融合互補,開發Mobileye視覺傳感器和前向毫米波雷達的目標級數據融合算法,主要技術流程如下:

(1)數據解析:Mobileye視覺傳感器和毫米波雷達數據解析。

(2)坐標統一及目標篩選:Mobileye視覺傳感器和毫米波雷達坐標統一,并進行目標物的篩選。

(3)目標物初始化:初始化目標物狀態信息。

(4)數據關聯:使用空間相似度指標(歐式距離、余弦相似度、航跡信息)對兩個傳感器檢測的目標物運動狀態信息進行關聯。

(5)目標物管理及跟蹤:目標物的生命周期管理,確定有效目標物,對于匹配的測量值小于設定的幀數的目標物認為是虛假目標,進行剔除。

(6)數據融合:考慮不同傳感器的測量特性進行視覺和雷達系統輸出信號融合。

(7)融合結果:在確定目標物狀態的基礎上,再根據攝像頭給出的分類信息來確定目標物種類。

多源異構目標融合方法流程,如圖1所示。

圖1 多源異構目標融合方法流程

1.1 坐標統一

如圖2所示,由于在車體坐標系中,向前、向左、向上,而在激光雷達坐標系中,指向輸出電纜的相反方向,向左、向上,不同的傳感器坐標系在時間同步和空間坐標不能完全統一,所以會對多傳感器數據標定造成困難。

圖2 不同傳感器間的坐標變換

因此,在數據解析階段對Mobileye視覺傳感器和毫米波雷達的坐標進行統一。坐標統一步驟如下:

(1)在目標點云中取出點集。

(2)從原始點云中取出點集對應的點集。

(3)求出到的變換矩陣。

(4)對原始點云應用變換矩陣得到新的點集。

(5)計算出和點集中對應點的平均距離ˉ。

(6)判斷平均距離ˉ是否小于閾值或迭代次數是否大于設定值NUM,若兩個條件任滿足其一,則輸出坐標統一結果,迭代結束;否則返回(2)重新迭代。

其中,到坐標變換矩陣的一般形式為:

1.2 數據關聯

數據關聯是目標跟蹤,尤其是雜波環境下多目標跟蹤的重要環節。點跡關聯和航跡關聯是目前常見的數據關聯方法。這兩種方法均可對兩個傳感系統的目標物數據列表中對應同一個目標物的數據進行關聯。當僅使用點跡關聯方法可對目標物進行快速地關聯和匹配,而目標物又距離較遠時,會存在較大的誤差。如果結合使用航跡關聯方法,則可較好地彌補點跡關聯的不足。因此,本文提出了點跡關聯與航跡關聯相結合的關聯方法,可同時對距離較遠和距離較近的目標物實現準確有效的關聯匹配。

本方法包含點跡關聯和航跡關聯,在進行目標物關聯之前,需將Mobileye視覺傳感器和毫米波雷達的坐標統一,并對目標物進行篩選和初始化,如圖3所示,其具體步驟為:

圖3 數據關聯算法流程

(1)判斷目標物是否為首次出現在傳感系統的探測范圍內。如果是,則執行(2),否則執行(3)。

(2)根據兩個傳感系統輸出的目標物的點跡位置數據,計算目標物之間的最小臨近參數(歐式距離和余弦相似度),并構建數據關聯矩陣,再根據關聯矩陣和預設閾值對兩個傳感系統輸出的目標物數據進行關聯,輸出目標物關聯結果。

(3)判斷目標物航跡信息是否可以使用。如果是則執行(4),否則執行(2)。(4)根據前后幀的目標物的航跡信息,確定關聯目標物,輸出目標物關聯結果。

在(2)中,構建關聯矩陣使用的方法為點跡關聯,涉及的最小臨近參數為歐氏距離與余弦相似度,在構建時需計算兩個目標物之間的最小歐式距離和最大余弦相似度,具體計算方法如下:

假設Mobileye視覺傳感器檢測到的目標為:

毫米波雷達檢測到的目標為:

根據點跡最小臨近距離和最大余弦相似度,對與進行點跡關聯,其關聯函數可表述為:

式中:為融合最小臨近歐氏距離與最大余弦相似度的點跡關聯結果。

為最小臨近距離關聯函數,其表達式為:

式中:D的歐式距離。

為點跡余弦相似度關聯函數,其表達式為:

式中:θ的夾角。

在(4)中使用的方法為航跡關聯方法,使用的航跡信息包括目標物ID和生命周期狀態。Mobileye視覺傳感器和雷達均對各自探測的目標進行了跟蹤,并在系統中賦予對應的ID,在對前后幀數據進行關聯時,使用跟蹤的ID及目標物生命周期情況進行匹配可增加融合結果跟蹤的穩定性,并減小計算量。在目標物剛進入兩個傳感系統的探測范圍中時,可以先使用點跡關聯確定關聯矩陣,關聯完成后,后續的周期中可以使用航跡進行關聯,省去計算關聯矩陣的計算消耗。

1.3 目標跟蹤算法

目標物跟蹤步驟主要是用于形成對目標物的生命周期管理,方便對目標物有效性進行評價,及時剔除失效的或虛假的目標,提高檢測的可靠性和有效性。目標物跟蹤步驟包括:

(1)對目標物數據應用卡爾曼濾波,形成下一時刻的預測狀態值和與狀態值對應的預測協方差:卡爾曼濾波算法主要是根據當前的相對運動狀態,預測下一周期目標物的可行區域,并根據實際目標物信息進行修正,從而實現前后數據的連續跟蹤。本文中采用的卡爾曼濾波器的計算過程,如圖4所示。

圖4 卡爾曼濾波器的計算過程

(2)對當前時刻的各個目標物數據與上個時刻的目標物數據進行關聯匹配得到匹配結果,匹配結果包括完全匹配的目標物數據、新目標物數據以及當前時刻不存在目標物數據。

(3)對完全匹配的目標物數據則使用當前時刻的目標物數據對(1)中的預測結果進行修正和更新,得到目標新的狀態值,并賦予同一ID。

對當前時刻不存在目標物數據的目標物,即(2)的檢測結果為當前時刻不存在目標物數據時,會記錄對應目標物連續未出現幀數,當連續未出現幀數大于幀數閾值時,則判定目標物消失;幀數閾值根據目標物的連續存在時長以及目標物位置數據進行調整;目標物已存在的時間越長,幀數閾值越大,目標物已經存在時間越短,幀數閾值越小,如果目標物位于目標區域以內,則增大幀數閾值,如果目標物位于目標區域以外,則減小幀數閾值。在實際情況下由于傳感器誤差等原因,可能會出現目標物短暫消失或目標物是由誤差造成的等情況,所以設置幀數閾值可以避免錯誤地將目標物移除,目標物已存在的時間越長,則目標物是由誤差造成的可能性就越小,因此為其預留更長的幀數閾值;相反,目標物存在的時間越短,則其是由誤差造成的可能性就越大,因此為其預留的幀數閾值更小,如果目標物出現在目標區域內,如正前方或與傳感系統距離非常近,則代表對當前系統可能有一定的威脅,應當重點關注,幀數閾值應適當調大。

目標物跟蹤步驟中,如果一個目標物僅在一個傳感系統中有對應的目標物數據,則由對應的傳感系統對其進行持續跟蹤,當目標物進入兩個傳感系統共同的探測范圍內時,直接進行目標物數據融合。如果某一個傳感系統先檢測到目標物后,目標物離開第1個傳感系統進入第2個傳感系統的檢測范圍,那么會把第1個傳感器記錄的數據刪除掉,不再與第2個傳感器感知的數據融合。

本文中,則是在只有1個傳感系統檢測到目標物時就進行跟蹤,當目標進入兩個傳感器共同的探測范圍時,進行融合,進而實現目標物的穩定跟蹤,在此過程中,目標物對應的系統ID不變,也不需要進行關聯匹配。提高處理速度,同時相比現有技術可以利用和保留更多的數據信息。

目標物的生命周期是對目標物從形成到消亡的整個過程進行描述。不同目標的生命周期值反映了該目標的有效性,從而為后續的傳感器信息融合提供依據。為描述目標生命周期,引入表1所示的參數。

表1 目標物周期管理參數

目標跟蹤算法流程,如圖5所示。

圖5 目標跟蹤管理流程

1.4 數據融合算法

數據融合的本質是通過融合算法整合來自多個傳感器的信息,擴展系統的時空覆蓋率,提高系統的精度、可靠性以及信息利用率。融合算法則是使用基于卡爾曼濾波的狀態更新方程進行融合。其步驟為根據上一時刻的融合結果預測當前時刻的預測狀態值及對應的預測協方差矩陣,然后對兩個傳感系統的數據進行融合,融合公式如下:

式中:為預測狀態值;為預測協方差矩陣;和分別為對應時刻的兩個傳感系統對同一目標物的觀測值;和為對應的噪聲矩陣;XP分別為融合后的狀態值和協方差矩陣。

X為目標物的狀態變量,本研究中目標物狀態變量為目標物與主車的速度和距離,即

其中,噪聲矩陣和滿足噪聲矩陣模型:

在預測過程中,通過調整噪聲矩陣中的參數來調節兩個傳感系統的觀測值對融合結果的影響程度。具體的目標物數據包括橫向信息、縱向信息、速度信息和類別信息。當融合得到目標物的橫向信息或類別信息時,通過調節噪聲矩陣增大Mobileye視覺傳感器的觀測值的影響程度;當融合得到目標物的縱向信息或速度信息時,通過調節噪聲矩陣增大毫米波雷達系統的觀測值的影響程度。

2 實車試驗結果及分析

為驗證該方法準確值的有效性,本研究在實車上搭建數據采集平臺,對目標車和跟車兩種場景進行試驗,并分析試驗數據。此法是以高精度定位慣導系統為基準,對數據采集的精度進行分析,即根據高精度定位系統計算目標物的位置與運動狀態,并與主車傳感器輸出數據進行對比以明確偏差。

2.1 實車數據獲取平臺

通過選用6路大陸408 mm波雷達、1個Mobileye EQ2攝像頭、6路攝像頭、i-Tester數據采集設備以及組合慣導來搭建數據獲取平臺實車。

(1)毫米波雷達可以提供目標物類型、尺寸、精準的目標物位置與速度信息等,其位置測量精度可以達到分米級,速度測量精度達到0.1 km/h,且位置與速度信息為獨立測量,互不干擾。

(2)Mobileye視覺傳感器安裝于車輛前方,可以彌補毫米波雷達在目標物類別識別、標志牌識別和車道線識別方面的弱勢,提供更加豐富的場景信息。

(3)攝像頭安裝于車輛前方和左、右側,提供各方向的視場信息,可以彌補Mobileye視覺傳感器無法提供視頻圖像的缺陷,為數據分析人員提供更加直觀的視頻數據。

(4)i-Tester用來采集自車的CAN總線數據,以及儲存毫米波雷達和Mobileye視覺傳感器的目標物感知數據。

(5)差分全球定位系統(Differential Global Position System,DGPS)可以提供車輛實時經緯度位置,方便進行車輛定位管理、行駛區域自動區分等操作,DGPS還可以作為多傳感器時間同步的基準。

2.2 試驗場景

由于毫米波雷達和視覺傳感器被廣泛應用于自適應巡航控制(Adaptive Cruise Control,ACC)系統、自動緊急制動(Autonomous Emergency Braking,AEB)系統、前方碰撞預警(Forward Collision Warning,FCW)系統中,所以這些系統主要對主車前方目標物進行識別,并根據識別結果觸發其功能。因此,本試驗設置了兩個具有代表性的場地工況與實際道路測試,通過這些案例來驗證目標級數據融合算法的精度、多源傳感器的橫向與縱向位置和速度。其中,兩個典型的場地測試場景分別為目標車靜止與跟車試驗。

2.2.1 目標車靜止

主車與目標車均靜止,測量不同車間距時的目標物測量精度,其中車間距分別取值7.5 m和125 m。目標車靜止如圖6所示。

圖6 目標車靜止

2.2.2 跟車條件

主車與目標車初始間距20 m、100 m,同時起步,主車速度增加至50 km/h以上,目標車穩定至30 km/h,即保證目標車速度低于主車,兩車間距可以逐漸減小,主車駕駛員根據車間距變化逐步正常減速跟車,當跟車穩定5 s后,目標車制動停車,主車跟隨停車。車間距動態增加,如圖7所示。

圖7 車間距動態增加

2.2.3 實際道路測試

實際道路測試,是在裝有本方案的測試車輛上、在高速公路上采集數據,通過人工標注作為真值與本算法的處理結果來對比驗證本方案的準確性,定義入檢率、正檢率、誤檢率、漏檢率等指標,其計算公式為:

式中:為車輛總數;為檢測到的車輛數;為漏檢的車輛數;為檢測到的正確的車輛數;為檢測到的錯誤的車輛數。

2.3 試驗數據分析與結果

本次試驗主要目的是驗證基于最小鄰近點跡和航跡數據關聯的多源異構的目標融合方法的縱向位置和縱向速度精度,通過使用該方法在探測時間和空間兩個維度上融合Mobileye視覺傳感器和毫米波雷達目標數據并跟蹤目標。傳感器真值使用DGPS數據。數據分析采用均方根誤差(Root Mean Squared Error,RMSE)來評價傳感器誤差大小。融合結果在探測時間和空間范圍上為Mobileye視覺傳感器和毫米波雷達的并集,對于以下3種情況下的目標物都進行了數據采集與分析:單獨毫米波雷達檢測到的目標物、單獨Mobileye視覺傳感器檢測到的目標物、Mobileye視覺傳感器和毫米波雷達同時檢測到的目標物,并與DGPS真值數據進行對比。

2.3.1 靜止場景

遠距靜止場景下縱向測距的計算結果,毫米波雷達的RMSE為0.615 m,Mobileye視覺傳感器的RMSE為12.753 m,融合之后的RMSE為0.853 m,Mobileye視覺傳感器在遠距場景下的識別誤差大于毫米波雷達識別誤差。而對于縱向速度的檢測,毫米波雷達的RMSE為0.051 m/s,Mobileye視覺傳感器的RMSE為0.291 m/s,融合之后的RMSE為0.052 m/s。遠距靜止下各傳感器的RMSE見表1。遠距靜止下的位置與速度的誤差對比,如圖8所示。

表1 遠距靜止下各傳感器的RMSE

圖8 遠距靜止下的位置與速度的誤差對比

近距靜止場景下縱向測距的計算結果,毫米波雷達的RMSE為0.144 m,Mobileye視覺傳感器的RMSE為0.35 m,融合之后的RMSE為0.134 m,Mobileye視覺傳感器在遠距場景下的識別誤差大于毫米波雷達的識別誤差,融合的結果優于兩個傳感器。而對于縱向速度的檢測,毫米波雷達的RMSE為0.046 m/s,Mobileye視覺傳感器的RMSE為0.049 m/s,融合之后的RMSE為0.47 m/s。根據誤差分析可知,融合結果的速度縱向位置精度更加接近毫米波雷達的探測結果,橫向位置的精度更加考慮Mobileye視覺傳感器的識別結果,而匹配上的類型均使用Mobileye視覺傳感器的識別結果,用毫米波雷達的測距測速性能彌補了Mobileye視覺傳感器的短板,根據不同傳感器的測量特性來調整誤差矩陣,實現上述優化結果。近距靜止下各傳感器的RMSE,見表2。近距靜止場景下各傳感器位置與速度對比,如圖9所示。

圖9 近距靜止場景下各傳感器位置與速度對比

表2 近距靜止下各傳感器的RMSE

2.3.2 跟車場景

遠距跟車場景下縱向測距的計算結果,毫米波雷達的RMSE為0.96 m,Mobileye視覺傳感器的RMSE為2.37 m,融合之后的RMSE為0.87 m,融合后的結果優于兩個傳感器的識別結果,Mobileye視覺傳感器在遠距場景下識別誤差遠大于毫米波雷達。而對于縱向速度的檢測,毫米波雷達的RMSE為0.54 m/s,Mobileye視覺傳感器的RMSE為0.76 m/s,融合之后的RMSE為0.60 m/s,毫米波雷達在測速方面更有優勢。遠距跟車場景下各傳感器的RMSE,見表3。遠距跟車下的位置與速度的誤差對比,如圖10所示。

圖10 遠距跟車下的位置與速度的誤差對比

表3 遠距跟車場景下各傳感器的RMSE

近距跟車場景下縱向測距的計算結果,毫米波雷達的RMSE為0.28 m,Mobileye視覺傳感器的RMSE為0.21 m,融合之后的RMSE為0.23 m,Mobileye視覺傳感器在遠距場景下識別誤差小于毫米波雷達,融合的結果介于兩者之間。而對于縱向速度的檢測,毫米波雷達的RMSE為0.14 m/s,Mobileye視覺傳感器的RMSE為0.21 m/s,融合之后的RMSE為0.13 m/s,融合的結果優于兩個傳感器。近距跟車場景下各傳感器的RMSE,見表4。近距跟車場景下位置與速度對比,如圖11所示。

表4 近距跟車場景下各傳感器的RMSE

圖11 近距跟車場景下位置與速度對比

2.3.3 實際道路測試

實際道路測試,是在高速公路上采集數據,通過人工標注作為真值與本算法的處理結果來對比驗證其準確率。根據式(9),對實際道路測試中傳感器的檢測數據分析計算出其入檢率、正檢率、誤檢率與漏檢率并與ZHANG Bingli等的試驗結果進行對比,分析結果見表5。由此可知,相比于單一傳感器,本文基于最小臨近點跡和航跡關聯的多源目標融合方法成功融合了毫米波雷達與Mobileye的優勢,在降低了漏檢率的同時提高了檢測準確率。實際道路測試中傳感器的檢測結果對比,見表5。

表5 實際道路測試中傳感器的檢測結果對比

2.3.4 試驗結論

根據誤差分析可知,融合結果的速度縱向位置精度更加接近毫米波雷達探測結果,橫向位置的精度更加考慮Mobileye視覺傳感器的識別結果,而匹配上的類型均使用Mobileye視覺傳感器的識別結果,用毫米波雷達的測距測速性能彌補了Mobileye視覺傳感器的短板,根據不同傳感器的測量特性來調整誤差矩陣,實現上述優化結果。同時,利用狀態更新方程融合多傳感器匹配目標的數據可以調整噪聲矩陣參數,實現多傳感器互補的優勢。最終的融合結果優于單個傳感器。因此,通過毫米波雷達與Mobileye視覺傳感器的多源異構的目標融合方法進行環繞視野感知可以獲得更準確的環境信息,不僅提高了準確率,還降低了漏檢率,從而實現更好的檢測效果。

3 結語

本文探討了多源異構傳感器數據融合問題,通過采用點跡和航跡相結合的數據關聯算法對多源傳感器的數據關聯算法進行改進,提高了匹配的精確度,減小了計算量,對不同區域的目標物設置不同的估計預測值的最大閾值,對于感興趣區域的目標物更加穩定,使用狀態更新方程對多傳感器匹配的目標物進行數據融合,調整噪聲矩陣參數,實現多傳感器的優勢互補,融合結果優于單一傳感器,體現了該融合算法的可行性和有效性。

本文研究的內容為前向毫米波雷達和前向視覺的融合,而對于后向和側向區域的探測不足,未來考慮加入多個毫米波雷達和多線激光雷達進行環視感知,尤其是激光雷達的測距更精確,并且可以提供目標物三維信息,得到更精確的環境信息。

猜你喜歡
關聯融合檢測
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“苦”的關聯
當代陜西(2021年17期)2021-11-06 03:21:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
奇趣搭配
智趣
讀者(2017年5期)2017-02-15 18:04:18
主站蜘蛛池模板: 国模视频一区二区| 国产性精品| 午夜国产小视频| 欧美国产菊爆免费观看| 91美女在线| 国产一级一级毛片永久| 亚洲欧美一区二区三区图片| 少妇人妻无码首页| 亚洲欧美成aⅴ人在线观看| 一级一级特黄女人精品毛片| 欧美日韩一区二区三| 999福利激情视频| 免费观看亚洲人成网站| 麻豆精品在线视频| 一级香蕉人体视频| 久久综合九九亚洲一区| 国产在线第二页| 99在线小视频| 亚洲国产精品一区二区第一页免 | 亚洲第一视频网| 99九九成人免费视频精品| 国产精品视频观看裸模| 人妻精品全国免费视频| 成年人福利视频| 韩国福利一区| 狼友视频一区二区三区| 国产精品白浆无码流出在线看| 欧美亚洲国产一区| P尤物久久99国产综合精品| 久久久久久久久久国产精品| 中文字幕永久在线看| 国产杨幂丝袜av在线播放| 欧美精品aⅴ在线视频| 素人激情视频福利| 丰满人妻被猛烈进入无码| 国产精品刺激对白在线| 亚洲综合极品香蕉久久网| 青青操国产| 亚洲第一极品精品无码| 亚洲综合第一区| 91成人在线观看| 精品免费在线视频| 成人一级免费视频| 2020国产在线视精品在| 91热爆在线| 亚洲欧美另类视频| 三上悠亚在线精品二区| 亚洲第一精品福利| 国产一级毛片yw| 国产精品极品美女自在线| 欧美日韩在线第一页| 91在线免费公开视频| 99热这里只有精品久久免费| 亚洲免费黄色网| 色综合中文| 亚洲天堂视频网站| 国产va在线观看免费| 一级成人欧美一区在线观看 | 国产一级毛片在线| 91外围女在线观看| 中文字幕av一区二区三区欲色| 国产一级α片| 欧美在线精品一区二区三区| 日本久久网站| 久久人妻xunleige无码| 黄色网页在线播放| 福利一区在线| 久久婷婷五月综合色一区二区| 国产精品蜜芽在线观看| 五月婷婷精品| 国产99在线| 亚洲国产午夜精华无码福利| 熟女视频91| 国产成人夜色91| 精品成人一区二区三区电影 | 激情综合网激情综合| 亚洲欧美另类中文字幕| 好吊色妇女免费视频免费| 妇女自拍偷自拍亚洲精品| 另类专区亚洲| 欧美高清三区| 午夜国产理论|