999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

常見環(huán)境感知傳感器在智能駕駛領域的應用與發(fā)展趨勢

2025-04-05 00:00:00李翊軒查云飛
汽車文摘 2025年4期

【摘要】為滿足智能駕駛對精準環(huán)境感知的需求,聚焦智能駕駛環(huán)境感知傳感器的應用與發(fā)展,解析其在系統(tǒng)架構中的基礎性地位。討論了視覺傳感器、激光雷達、毫米波雷達和超聲波雷達等各類傳感器的工作機制、應用場景以及優(yōu)劣勢,分析了多傳感器融合對提高感知精度與智能駕駛可靠性的影響。未來,智能車輛的環(huán)境感知傳感器技術將圍繞新型傳感材料、智能自適應、節(jié)能設計、故障診斷、實時校準和環(huán)境影響抑制6大方向發(fā)展;傳感器將向小型化、集成化及自適應低功耗設計方面持續(xù)演進;將在車載攝像頭高精度化、激光雷達固態(tài)化、超聲波雷達融合創(chuàng)新等方面取得更大突破,以提升傳感精確度、實時性和可靠性,滿足日益復雜的駕駛環(huán)境需求。

關鍵詞:智能駕駛;環(huán)境感知傳感器;攝像頭;激光雷達;毫米波雷達;超聲波雷達

中圖分類號:U463.6" "文獻標志碼:A" DOI: 10.19822/j.cnki.1671-6329.20240105

Applications and Development Trends of Common Environmental Perception Sensors in the Field of Intelligent Driving

Li Yixuan, Zha Yunfei

(Fujian University of Technology, Fuzhou 350118)

【Abstract】 To meet the demand for precise environmental perception in intelligent driving, this paper focuses on the application and development of intelligent driving environment perception sensors, analyzing their foundational position in system architecture. It discusses the working mechanisms, application scenarios, and advantages and disadvantages of various sensors such as visual sensors, LiDAR, millimeter-wave radar, and ultrasonic radar, analyzing the impact of multi-sensor fusion on improving perception accuracy and autonomous driving reliability. In the future, environmental perception sensor technology for intelligent vehicles will focus on 6 major directions: new sensing materials, intelligent adaptability, energy-efficient design, fault diagnosis, real-time calibration, and environmental impact suppression. Sensors will continue to evolve towards miniaturization, integration, and adaptive low-power design. Breakthroughs will be made in areas such as high-precision vehicle cameras, solid-state LiDAR, and innovative integration of ultrasonic radar, aiming to enhance sensing accuracy, real-time performance, and reliability to meet the increasingly complex demands of driving environments.

Key words: Intelligent driving, Environmental perception sensor, Camera, LiDAR, Millimeter-wave radar, Ultrasonic radar

0 引言

在全球汽車產業(yè)變革中,交通壓力與道路安全挑戰(zhàn)凸顯,智能駕駛技術迅速發(fā)展,成為行業(yè)創(chuàng)新焦點。傳感器技術作為智能駕駛系統(tǒng)的核心支撐,是車輛的“感官中樞”,對于車輛自主導航、環(huán)境感知及精密決策執(zhí)行等關鍵環(huán)節(jié)起著決定性作用[1]。其進步直接影響著車輛安全性能提升,并加速無人駕駛技術的商用化進程[2]。尤其在人工智能、大數(shù)據技術的強力驅動下,傳感器技術發(fā)展迅速,為智能駕駛的落地實施奠定了堅實的基礎。本文聚焦傳感器技術在智能駕駛領域的應用與演進,闡述其基礎支撐特性和最新發(fā)展,包括單車傳感器與傳感器融合技術等核心內容。深入剖析各類傳感器在智能駕駛中的應用場景、研究進展,并預見未來發(fā)展趨勢。最后,提出傳感技術在智能駕駛領域的發(fā)展策略建議,旨在助力傳感技術的創(chuàng)新迭代與廣泛應用。

1 智能駕駛技術概述

1.1 基本架構與關鍵技術構成

智能駕駛系統(tǒng)融合了多項先進技術,構建了環(huán)境感知、決策規(guī)劃、控制執(zhí)行3大關鍵模塊,如圖1所示[3]。環(huán)境感知模塊利用視覺傳感器、激光雷達(Light Detection and Ranging, LiDAR)、超聲波雷達等設備實時收集道路信息、交通標志、行人與其他車輛信息,形成全面準確的環(huán)境模型[4-5]。決策規(guī)劃模塊扮演“大腦”角色,對接收到的感知數(shù)據進行深度學習與智能算法處理,制定適應復雜路況的最優(yōu)行駛方案[6]。而控制執(zhí)行模塊則如同“手腳”,依據規(guī)劃指令精確操控車輛動力、制動與轉向系統(tǒng),確保汽車在行駛時既遵守交規(guī)又能靈活適應環(huán)境變化,始終保持安全、穩(wěn)定和可控的狀態(tài),從而實現(xiàn)從起點到終點的全自動、高效率駕駛。

1.2 傳感器技術的基礎性地位

智能駕駛技術架構核心由車載系統(tǒng)與云端系統(tǒng)構成,如圖2所示。車載系統(tǒng)借助多元傳感器如視覺傳感器、雷達等,實時捕獲環(huán)境和車輛狀態(tài)數(shù)據,通過融合算法形成精確環(huán)境模型以支持決策控制。云端系統(tǒng)則強化模型學習與優(yōu)化,提供高精度地圖等增值服務。傳感器的性能表現(xiàn)對于整個智能駕駛系統(tǒng)的可靠性和安全性發(fā)揮決定性影響[7],尤其在實現(xiàn)L4及以上級別自動駕駛時,必須滿足更高標準的探測精度、視野范圍、全天候穩(wěn)定性和復雜環(huán)境適應性要求。

2 常見傳感器技術在智能駕駛中的應用

2.1 各類傳感器技術

智能駕駛系統(tǒng)中的環(huán)境感知模塊主要依賴于多元傳感器集成技術,其中包括2類核心關鍵傳感器:光學傳感器,例如視覺傳感器和激光雷達,負責捕捉和解析視覺圖像信息;非光學傳感器,如毫米波雷達和超聲波雷達,用于探測距離和速度等非視覺環(huán)境數(shù)據。這兩類傳感器協(xié)同工作,共同構建車輛對外部環(huán)境的精確、全面認知。

2.1.1 視覺傳感器

表1列舉了多種車載圖像傳感器產品,顯現(xiàn)了5項技術發(fā)展特點:(1)高像素化趨勢,5 MP以上產品占主流,甚至最高達到20 MP;(2)高速幀率受重視,多產品實現(xiàn)60幀/s、并能在高動態(tài)范圍(High Dynamic Range, HDR)模式下保持高性能,滿足動態(tài)場景需求;(3)大光學格式與多樣化分辨率漸成標配,包括適應低光環(huán)境的大尺寸傳感器及針對特定場景的非標準分辨率;(4)高分辨率趨勢明顯,如OmniVision與Samsung等品牌的部分產品已實現(xiàn)4 K分辨率;(5)HDR功能受到關注,Samsung ISOCELL系列等新品在高幀率下仍保持HDR性能,顯示出HDR技術對提升復雜光線環(huán)境下圖像質量的重要性。圖像傳感器技術正在向高像素、高幀率、小型化,以及4 K分辨率和HDR功能強化普及,以滿足智能駕駛對高清、高速、寬視角的需求。

車載攝像頭在智能駕駛系統(tǒng)中按安裝位置和功能劃分為前視、環(huán)視、后視等多種類型,并依據攝像頭數(shù)量設計為單目、雙目或多目系統(tǒng)[1]。前視攝像頭對于前方碰撞預警(Forward Collision Warning, FCW)、車道偏離預警(Lane Departure Warning, LDW)等高級輔助駕駛功能的實現(xiàn)至關重要,盡管成本較高,已有8百萬像素高性能產品投入使用,并預計未來可能增加前視攝像頭數(shù)量以提升前方道路狀況識別精度[8]。在L3級以下智能駕駛中,單目攝像頭因性價比優(yōu)勢被廣泛應用,但其在距離測量準確性和視角覆蓋范圍上存在局限性。隨著智能駕駛功能需求不斷拓展,多攝像頭系統(tǒng)逐漸成為主流,以增強環(huán)境感知能力,尤其是在高級駕駛輔助系統(tǒng)(Advanced Driver Assistance Systems, ADAS)中,整合多種攝像頭實現(xiàn)倒車影像、全景影像等功能[9]。

車載攝像頭需嚴格遵照嚴苛工業(yè)標準,確保極端條件穩(wěn)定耐用,根據現(xiàn)行標準QC/T 1128—2019《汽車用攝像頭》要求[10],其壽命需達8~10年。像素通常在5×106~13×106像素點,功率限制在10 W內;后視廣角超135°,環(huán)視拼接可達100°~170°全景,前視視場40°~70°或更廣至150°,探測距離遠至250 m以上。

為了構建全方位、多維度的智能駕駛輔助系統(tǒng),各類車輛已經廣泛采用了不同類型的攝像頭。表2列舉了不同安裝部位所配備的攝像頭類型及其數(shù)量范圍,以及各自對應的核心功能。

主要汽車零部件企業(yè)前視單目及環(huán)視攝像頭系統(tǒng)如表3所示。車載攝像頭系統(tǒng)主要呈現(xiàn)4方面改進:(1)像素提升至8×106像素點,以Infineon和NVIDIA芯片為核心實現(xiàn)高清成像;(2)單目攝像頭如Bosch MPC3通過增強動態(tài)范圍,以保證在復雜光照下保持良好圖像質量;(3)視場角設計持續(xù)拓寬,如Continental SVC300提供的超185°水平視場角,確保車輛周圍環(huán)境全面覆蓋;(4)集成高性能AI處理器,如EyeQ? 5和EyeQ? 6,針對機器視覺與深度學習優(yōu)化,以實現(xiàn)圖像捕獲至復雜實時分析的全程智能化,以滿足智能駕駛對環(huán)境感知日益增強的需求。

2.1.2 激光雷達

LiDAR是基于激光測距與光探測技術,精密獲取目標三維空間的信息。其中,單線束LiDAR僅產生單一掃描線,形成2D點云數(shù)據;多線束LiDAR則通過發(fā)射及接收多個激光脈沖同時掃描,生成更為詳盡的2.5D或3D點云模型[11],其線束數(shù)量從早期的4/8線束、16/32線束已經提升至40/64線束甚至192線束及以上,線束數(shù)目的增多直接提升了空間分辨率和測距精度[12]。

LiDAR系統(tǒng)的核心模塊由4部分構成:(1)激光器發(fā)射脈沖,按波長類型可分為905 nm和1 550 nm,其中905 nm激光器因成本優(yōu)勢在技術轉化方面更為領先。(2)掃描光學組件負責空間定向掃描[13]。(3)光電探測器與接收集成電路捕獲并轉換回波信號。(4)位置導航器件提供雷達自身定位信息[14]。

自西奧多·梅曼發(fā)明激光器以來[15],LiDAR技術歷經發(fā)展,已在航空航天、測繪等諸多領域得到了廣泛應用[16],而隨著汽車智能化程度的提升,特別是在L3及以上級別的智能駕駛系統(tǒng)中,因其能夠實現(xiàn)遠距離、高精度、實時3D環(huán)境建模的獨特優(yōu)勢而成為關鍵技術[17]。其不受光照條件限制的特性使得智能駕駛車輛能在各種環(huán)境下準確識別道路狀況、障礙物以及其他重要交通標志[11]。

LiDAR利用不同的技術架構實現(xiàn)全景掃描,其中機械旋轉式依賴機械旋轉組件,半固態(tài)式結合固定收發(fā)模塊與有限運動掃描元件以實現(xiàn)定向視角掃描,而固態(tài)式則完全基于固態(tài)電子機制消除機械運動,實現(xiàn)高速、高精度和小型化的掃描。半固態(tài)激光雷達因其平衡的實用性和技術成熟度,被廣泛用于車輛智能駕駛感知領域。

固態(tài)化是LiDAR技術研發(fā)的核心方向,旨在通過創(chuàng)新固態(tài)掃描技術和陣列配置滿足多樣化需求,提升系統(tǒng)可靠性和緊湊性,同時降低成本[18]。隨著技術的不斷進步,LiDAR系統(tǒng)正在經歷一場從傳統(tǒng)的機械式結構向半固態(tài)乃至全固態(tài)設計的演進過程[19]。這一轉變極大地推進了LiDAR的小型化、低功耗和高度集成化發(fā)展,從而有力地促進了其在智能駕駛和其他尖端領域的廣泛應用。

表4匯總了多家LiDAR廠商如Innoviz、Velodyne等旗下多種型號產品的核心性能指標,可以看出LiDAR的最新進展主要表現(xiàn)在5個方面:(1)系統(tǒng)探測距離不斷延伸,部分設備最遠探測距離已達300 m,增強了早期環(huán)境感知,縮短了安全響應時間;(2)產品趨向于提供更大視場角度,包括實現(xiàn)360°全方位覆蓋,以全面感知周圍環(huán)境;(3)角分辨率持續(xù)優(yōu)化,0.05°×0.05°的高精度成為現(xiàn)實,有力推動了三維空間建模的精確度和目標識別能力的提升;(4)激光點頻不斷提升,如Valeo SCALA Gen 3、Hesai AT512、MicroVision MAVIN? N等,提高了實時捕獲動態(tài)環(huán)境信息的能力;(5)雖然905 nm波長仍為主流,但部分產品采用1 550 nm等較長波長以優(yōu)化穿透性能和適應各種天氣條件下的穩(wěn)定探測。

深度學習技術與LiDAR系統(tǒng)的集成優(yōu)化了三維感知性能,在微機電系統(tǒng)激光雷達(MEMS LiDAR)中增強了視場覆蓋和探測距離[20],有效應對復雜環(huán)境下的高噪、非結構化3D點云數(shù)據挑戰(zhàn)[21],通過挖掘時間冗余信息提升處理效率而不損失精度[22],對智能駕駛環(huán)境感知能力的提升具有顯著意義,為LiDAR技術未來的發(fā)展提供了重要參考。

在智能駕駛的應用中,確保有效檢測低反射率物體是關鍵技術挑戰(zhàn)之一,現(xiàn)有幅度調制連續(xù)波(Amplitude Modulated Continuous Wave, AMCW)和頻率調制連續(xù)波(Frequency Modulated Continuous Wave, FMCW)激光雷達技術受限[23],普遍難以突破300 m的探測范圍。而單光子激光雷達(Single-Photon LiDAR, SPL)的發(fā)展為解決這一距離探測瓶頸提供了新的可能性。SPL利用單個光子飛行時間測量實現(xiàn)高精度深度映射,尤其適用于低光照環(huán)境,具有遠至數(shù)公里的探測范圍和厘米級分辨率[24],適合智能駕駛中的環(huán)境建模[25]。相較于傳統(tǒng)的多光子檢測LiDAR,SPL采用非線性探測技術,提升數(shù)據采集效率并增強物體分類準確性,尤其是在不同光照條件下。然而,SPL在面對低強度反射、高入射角及復雜環(huán)境如植被時,精度和多重返回解析能力受限[26]。盡管面臨技術和成本挑戰(zhàn),單光子LiDAR在提升智能駕駛環(huán)境感知方面的潛力突出,尤其是在整合其他傳感器如RGB相機的過程中,解決數(shù)據融合和校準問題有望進一步拓寬其應用場景[27]。

2.1.3 超聲波雷達

超聲波雷達利用超聲波高頻振動(gt;20 kHz)在介質中的傳播與反射原理進行測距[28]。系統(tǒng)核心包含超聲波發(fā)射器、接收器及信號處理單元,常見工作頻率如40 kHz,以其適中的角度覆蓋和有效探測范圍而被廣泛采納[29]。通過發(fā)射超聲波脈沖并精確測量回波返回時間,實現(xiàn)對目標距離的計算。此種技術特別適應于0.1~5 m的短距離應用場景,尤其在低速環(huán)境如泊車輔助中展現(xiàn)高精度優(yōu)勢[30],但受限于超聲波在遠距離和高速條件下的衰減與延遲效應,不適用于高速遠程距離測量場合[31]。

超聲波雷達按信號類型和技術架構可分為模擬式、二線數(shù)位、三線主動數(shù)位及四線數(shù)位四種[32]。其中,模擬式雷達憑借成本優(yōu)勢廣泛應用,但其抗干擾能力有限。二線數(shù)位雷達保持較低成本,但同樣存在抗擾度不足的問題。三線主動數(shù)位雷達提升了信號辨識度,適合精密研究,但成本較高。四線數(shù)位雷達通過全數(shù)字化提高了抗干擾性能,雖然裝配復雜度增加,但隨著汽車智能化技術的發(fā)展,其在前瞻研究中占據顯著地位。

車載超聲波雷達主要分為超聲波泊車輔助(Ultra-sonic Parking Assist, UPA)雷達和自動泊車輔助(Automatic Parking Assist, APA)雷達2類[33]。UPA雷達安裝于汽車前后保險杠,主要用于實時探測15~250 cm范圍內前后方向的障礙物,尤其在低速行駛、倒車或停車時提供安全保障,已廣泛應用在各類車型尤其是倒車雷達系統(tǒng)中,常見配置為4個。APA雷達則位于汽車兩側,主要功能是測量停車位長度及泊車過程中的車輛位置,探測距離通常為30~500 cm,常用于高級自動泊車系統(tǒng),典型配置含8個UPA雷達和4個APA雷達,負責車位識別和精準泊車指導[29]。

除此之外,憑借超聲波雷達技術的低能耗、強穿透性、快速響應及環(huán)境獨立性等優(yōu)勢,成為智能駕駛中如AEB、FCW、BSD、LCA及后方橫向來車預警(Rear Cross Traffic Alert, RCTA)等多類主動安全系統(tǒng)不可或缺的核心傳感技術,有效助力車輛實時探測周邊環(huán)境以避免碰撞事故的發(fā)生。

不同制造商所生產的多種超聲波雷達產品的詳細規(guī)格如表5所示,其進步體現(xiàn)在精度與測量范圍的提升上,如Bosch Ultrasonic Sensors 6.5傳感器提高了短距離測量精度至3 cm,并將探測范圍拓展至5.5 m,順應了對更精準近距離及遠距離探測的需求。多品牌產品視角寬度可達75°×45°至120°×60°,強調全面監(jiān)測功能,而主流測量范圍集中于0.15~5.5 m,反映出該區(qū)間在汽車倒車雷達等應用中的標準配置。工作頻率普遍在50 kHz左右,體現(xiàn)該頻段在確保測量性能與環(huán)境適應性間的良好平衡。未來,超聲波雷達將實現(xiàn)更高精度、更大探測范圍、更寬視野角以及更高的集成度與小型化設計,且會加強與其他傳感技術融合,以滿足智能駕駛對環(huán)境感知技術的嚴苛要求[33]。

2.1.4 毫米波雷達

毫米波雷達是一種精密雷達系統(tǒng),專為24 GHz至300 GHz頻段設計,利用此頻譜區(qū)間內的電磁波進行探測。其波長介于微波與厘米波之間,兼顧了微波的穿透能力和光電雷達的高分辨率特點,尤其體現(xiàn)在小巧體積、高集成度和出色的測距、測速以及角度定位能力上。系統(tǒng)核心組件包括雷達罩、分體式機體、天線印刷電路板、高性能處理器、毫米波集成電路芯片以及電源管理單元[34]。

毫米波雷達系統(tǒng)采用FMCW調制技術,通過定向天線發(fā)送射頻脈沖至目標區(qū)域。遇到障礙物后,電磁波會反射回來,雷達精確接收并分析回波的時間、頻率特征以確定目標距離,利用多普勒效應獲取目標的徑向速度信息。此外,通過天線陣列技術和信號相位比較,能夠精準測定目標在三維空間中的方位角。

毫米波雷達最初服務于軍事用途,但隨著技術進步,已成功跨界進入汽車行業(yè)的ADAS和其他民用領域,如智能駕駛車輛的距離和速度感知、目標識別及環(huán)境監(jiān)測等,展現(xiàn)出在復雜氣候和光照條件下優(yōu)異的全天候工作能力,有效補充了激光雷達在某些特定環(huán)境下的局限性[35]。

車載毫米波雷達在ADAS中起關鍵作用,依據探測距離的不同主要分為短程、中程和長程3類[36];按照工作頻段劃分,可以分為24 GHz和77 GHz兩類。如表6所示,24 GHz雷達適用于近距離到中距離探測,常用于基礎ADAS功能如BSD、LKA和LCA。相反,77 GHz雷達因具備更高分辨率、更遠探測距離及更強穿透性[37],使其在高速公路上的應用更為可靠[38],適用于ACC、FCW、AEB等高級ADAS功能,在提升道路行駛安全方面發(fā)揮著不可或缺的作用。

鑒于24.25 GHz至27.5 GHz頻段在全球范圍內被分配給5G毫米波服務,各國開始推動車載雷達向更高頻段遷移[39]。由此,24 GHz雷達在角雷達領域的應用將逐步被77 GHz雷達取代,后者所處的77~81 GHz頻段被規(guī)劃專用于汽車雷達。此外,77 GHz雷達因其小型化結構和卓越性能日益成為車載雷達的標準配置,標志著其在未來2至3年內將引領車載雷達技術的發(fā)展趨勢。

傳統(tǒng)車載毫米波雷達因測高能力有限,在智能駕駛應用中表現(xiàn)尚有不足,而激光雷達雖性能卓越但因成本問題尚未完全普及。鑒于此,4D毫米波雷達通過引入精確俯仰角感知并提高點云密度,實現(xiàn)了對距離、速度、角度及高度的高精度測量,且能生成類似激光雷達的高分辨率圖像[8],相比于傳統(tǒng)3D毫米波雷達,其清晰程度可以提高5至10倍[12]。此外,4D毫米波雷達能在各種氣候條件下提供卓越的物體檢測性能,尤其在復雜場景如行人檢測與隧道尺寸測量中表現(xiàn)出色[40],增強了智能駕駛環(huán)境感知的安全性。

通過表7可知,4D毫米波雷達通過引入縱向天線設計和大規(guī)模天線陣列技術,實現(xiàn)了從二維到三維的高精度探測升級,顯著提高了對復雜交通環(huán)境中各類目標的識別能力,還增加了探測距離和點云信息豐富度,進而強化了對遠程、靜止及橫向移動目標的有效識別,并能精確測量高度信息以有效區(qū)分多層和遮擋目標,有力地增強了智能駕駛系統(tǒng)的態(tài)勢感知性能。

盡管4D毫米波雷達理論上具有明顯優(yōu)勢,但在實際應用中尚存挑戰(zhàn),如噪聲抑制與點云密度優(yōu)化間的權衡問題[41],以及雷達數(shù)據集規(guī)模對深度學習算法發(fā)展的制約[42]。當前研究著重于提升雷達分辨率、降噪技術和改進數(shù)據處理算法,如使用隨機稀疏步進頻率波形(Random Sparse Step-Frequency Waveform, RSSFW)和多輸入多輸出(Multiple-Input Multiple-Output, MIMO)技術來增強雷達的空間分辨率[43],并結合深度學習方法優(yōu)化復雜路況下的探測性能[44-45],探索新的算法來生成更高分辨率的點云圖像從而提高其成像性能[46]。

表8列舉了部分廠商的主要4D毫米波雷達產品的相關參數(shù),可以看出當前4D毫米波雷達的核心發(fā)展趨勢體現(xiàn)在3方面:首先,提升檢測精度與分辨率是關鍵,通過增加通道數(shù),例如Arbe Phoenix和Mobileye的產品擁有48T/48R甚至更高的配置,實現(xiàn)了對目標更為精細的識別能力。其次,雷達系統(tǒng)設計傾向于擴大視角并增強角分辨率,普遍產品水平視場角可達120°,從而拓寬探測范圍并精準定位目標物體。再者,探測距離顯著延長且速度與距離分辨率優(yōu)化顯著,諸如Arbe Lynx的高角度分辨率產品以及Continental ARS540、Huawei和SenseTime的部分產品能夠實現(xiàn)300 m以上的遠距離精確追蹤??傮w而言,4D毫米波雷達正持續(xù)向更高集成度、更高性能、更高分辨率以及更強環(huán)境適應性演進,以滿足智能駕駛對復雜環(huán)境感知不斷提升的標準要求。

2.2 傳感器技術優(yōu)劣勢分析

智能駕駛感知系統(tǒng)中的車載攝像頭、激光雷達、超聲波雷達和毫米波雷達各具特色,應用場景各異并互為補充。通過表9可知,車載攝像頭擅長視覺識別,適于交通標志、車道線和參與者識別,但受光照[47]、天氣影響大[48]。激光雷達以高精度三維探測著稱,尤其在障礙物識別與精密測距上有顯著優(yōu)勢,雖成本高且易受極端天氣干擾,仍是智能駕駛核心傳感器。超聲波雷達經濟實用,擅長短程探測,如PA,不受光照影響但探測距離有限。毫米波雷達兼具中遠距離探測與高分辨率測速測角能力,且對惡劣天氣適應性強,常用于ACC、FCW等,隨技術進步成本降低,精度提升。4種傳感器應合理結合各自優(yōu)勢,共同賦能智能駕駛車輛在多種復雜環(huán)境中精準感知與決策。

3 傳感器融合技術

L4與L5級別的智能駕駛對環(huán)境感知的精密性和完整性有極高的要求,這促使了多傳感器融合(Multi-Sensor Fusion, MSF)技術的應用。該技術的核心在于整合各類傳感器的優(yōu)勢,如攝像頭的視覺識別能力、毫米波雷達的距離和速度探測、激光雷達的三維環(huán)境建模及衛(wèi)星導航提供的全局定位等功能,以此共同克服單一傳感器在探測距離、視場角覆蓋、抗干擾性以及復雜環(huán)境適應性等方面的局限性。如表10所示,MSF技術驅動下的多元化駕駛輔助功能,如LDW、LKA、FCW等,實現(xiàn)了行車全程智能化管控,并結合GPS、DSRC及V2X通信技術實現(xiàn)實時精確定位、通信及V2V、V2I信息共享[49],以提升交通效率與安全性能。

MSF通過復雜的多傳感器數(shù)據融合算法,可在數(shù)據處理順序上分為早、中和后多層次融合[29,50,51],有效提升障礙物識別、軌跡預測及路況理解的精度和可靠性[52],從而增強智能駕駛的安全性。空間維度上的融合策略則優(yōu)化組合各傳感器優(yōu)勢,確保對復雜駕駛環(huán)境的全面適應。當前,前融合技術因其能簡化感知架構、降低延遲和提高穩(wěn)健性而成為發(fā)展趨勢,但同時也對軟件算法、芯片算力和數(shù)據通信提出了更高要求,目前正處于技術演進初期階段。

技術上,卡爾曼濾波(Kalman Filter, KF)作為一種核心的數(shù)據融合技術,特別擅長在噪聲環(huán)境中進行信息優(yōu)化與狀態(tài)估計,即便在數(shù)據質量不佳的情況下也能保證較高性能。針對非線性問題,通過擴展卡爾曼濾波(Extended Kalman Filter, EKF)等算法進行了適應性改進。

此外,融合系統(tǒng)進一步融入深度學習、神經網絡等先進技術,結合概率統(tǒng)計理論如貝葉斯推理框架,以應對數(shù)據同步問題、優(yōu)化融合算法并平衡計算資源[12],目標是構造出既精確又穩(wěn)定的多傳感器融合感知系統(tǒng),以支撐L4及L5級智能駕駛功能的有效部署和實施。

在智能駕駛感知方案中,一種是特斯拉為首的以攝像頭為主導的視覺派方案,另一種則是大部分國內汽車廠商所強調的MSF以提高系統(tǒng)冗余度的方案。如小鵬汽車的Xpilot系統(tǒng)便采用視覺核心策略,并融合激光雷達以實現(xiàn)安全冗余。在硬件架構上,小鵬逐步構建了包含多種雷達、攝像頭及高精定位在內的融合感知系統(tǒng),并通過自主研發(fā)的XNet技術,將多攝像頭數(shù)據轉化為鳥瞰視圖(Bird’s Eye View, BEV)視角信息,以此減少對高精地圖的依賴,增強環(huán)境感知和決策能力。

4 總結與展望

4.1 車載攝像頭的技術革新

車載攝像頭系統(tǒng)要實現(xiàn)L3及以上級別的智能駕駛,需要在硬件層面上實現(xiàn)鏡頭、CMOS傳感器的小型化、低成本與國產化,同時依賴高效能計算平臺支持的軟件算法,實時精確處理和融合多攝像頭數(shù)據以消除冗余信息,提升環(huán)境適應性和圖像識別精度,確保智能駕駛的安全高效運行。其未來的發(fā)展目標將更側重于適應多元駕駛場景,注重成像品質、成本效益與計算資源的有效分配,而非單純追求高像素。關鍵技術革新主要體現(xiàn)在圖像傳感器技術、鏡頭材質與鏡片制造工藝等方面,這些均是構建滿足高級智能駕駛標準攝像頭系統(tǒng)的核心基石。

4.2 車載激光雷達的固態(tài)化演進

車載激光雷達技術正朝固態(tài)化發(fā)展,以突破功率密度與探測距離局限,但小型化、低成本的高級固態(tài)雷達仍面臨諸多挑戰(zhàn)。當前研究聚焦硬件改進、振鏡優(yōu)化、掃描器升級和算法更新,尤其是擁有遠距離探測優(yōu)勢的FMCW測距技術,但其在極端環(huán)境穩(wěn)定性及高效數(shù)據處理上存在問題尚待解決。與此同時,固態(tài)雷達如光學相控陣(Optical Phased Array, OPA)和Flash技術雖展現(xiàn)出巨大潛力,但仍需突破旁瓣效應、工藝難度與成本控制等技術難關。此外,車載雷達數(shù)據處理算法急需增強復雜環(huán)境下的實時準確識別能力,為此需要構建一套統(tǒng)一標準體系,以推進算法的普適性、移植性和適應性,滿足智能駕駛對高精度環(huán)境感知的嚴苛需求。

4.3 車載雷達的性能升級

超聲波雷達相較于毫米波雷達和激光雷達,在長距離測量和分辨率方面存在性能局限,主要適用于短程探測和泊車輔助場景。盡管如此,提升其遠距離精度、環(huán)境適應性及與其他傳感器融合仍是技術研發(fā)的重要方向,同時也需追求成本效益及硬件的小型化與智能化。而毫米波雷達作為智能駕駛中實現(xiàn)高精度環(huán)境感知的核心元件,未來重點突破方向為高頻信號處理,特別是在76~81 GHz頻段,優(yōu)化天線陣列以提高分辨率,以及保證射頻組件與電路的高度集成,確保惡劣環(huán)境下精確的目標信息感知。隨著4D成像雷達技術的演進,雷達系統(tǒng)對后端處理芯片的算力需求顯著增加,這將促使雷達微控制器的角色和性能要求發(fā)生轉變。同時,面對復雜設計挑戰(zhàn),研究還需著重解決大規(guī)模天線集成引發(fā)的空間干擾抑制問題,以及探索創(chuàng)新的信號處理算法應用。

4.4 多模態(tài)傳感器融合技術的發(fā)展

智能駕駛技術的發(fā)展催生了對小型化、集成化傳感器的需求,以整合多元傳感數(shù)據以適應成本和空間限制,并提高環(huán)境感知精度。當前核心技術挑戰(zhàn)在于如何實時精確地融合不同模態(tài)傳感器的時空信息,以及在復雜駕駛場景下深化冗余驗證、目標檢測及環(huán)境模型構建的研究。隨著智能駕駛級別的提升和車載傳感器數(shù)量的增長,低成本且高性能的傳感技術變得至關重要,這要求算法必須具備卓越的環(huán)境適應性和理解力。因此,解決多傳感器數(shù)據融合問題不僅需要攻克技術難題,還需同步優(yōu)化傳感器性能、適應環(huán)境變化并改進硬件配置設計,確保系統(tǒng)在任何駕駛情境中均能實現(xiàn)精準感知和高效決策。

4.5 發(fā)展建議與未來展望

盡管智能車輛的環(huán)境感知傳感器技術已取得顯著進步,但隨著汽車智能化程度不斷進化,對其環(huán)境感知精確度及實時性需求呈現(xiàn)日益增強的趨勢?;诒疚膶χ悄荞{駛環(huán)境感知傳感器技術的探究與分析,預測該領域在未來可以圍繞以下6大核心方向持續(xù)演進與發(fā)展:

(1)尋求和研制具有高靈敏度、高穩(wěn)定性和大動態(tài)范圍的新型傳感材料與器件,以大幅提升車載攝像頭、毫米波雷達等傳感器的基礎性能。

(2)開發(fā)智能自適應傳感器技術,使其能根據復雜環(huán)境自主調整參數(shù),例如自適應光學系統(tǒng)可隨光照變化自動優(yōu)化鏡頭配置,毫米波雷達采用智能調諧以確保各種工況下的最優(yōu)性能。

(3)研發(fā)節(jié)能型硬件結構和精細化能源管理系統(tǒng),在保證傳感器高性能表現(xiàn)的前提下,最大程度減少能耗,延長使用壽命,滿足車載傳感器持久可靠運行的要求。

(4)加強故障診斷與冗余備份技術的研究,建立全面?zhèn)鞲衅鹘】当O(jiān)測與故障識別體系,并設計有效多傳感器冗余配置方案,以實現(xiàn)在單個傳感器故障時,其余傳感器迅速替補,保持系統(tǒng)運行連續(xù)穩(wěn)定。

(5)發(fā)展高效精準的實時校準技術和方法,對傳感器進行定期或連續(xù)校準,這對于提升車載多模態(tài)傳感器數(shù)據一致性并增強整體感知系統(tǒng)的性能至關重要。

(6)聚焦環(huán)境影響抑制技術升級,深入研究并有效應對溫度、濕度、風速等環(huán)境變量對車載傳感器性能的干擾,開發(fā)耐極端環(huán)境的封裝技術及高級抗擾信號處理算法,確保傳感器在惡劣條件下仍能保持穩(wěn)定準確的工作狀態(tài)。

參 考 文 獻

[1] 熊曉倩. 傳感器在無人駕駛汽車中的應用探析[J]. 科技資訊, 2020, 18(27):70-72.

[2] 姚小勇, 朱德燦. 傳感器在無人駕駛汽車中的應用研究[J]. 林業(yè)機械與木工設備, 2020, 48(1): 32-35.

[3] LEVINSON J, ASKELAND J, BECKER J, et. al. Towards Fully Autonomous Driving: Systems and Algorithms[C]// 2011 IEEE Intelligent Vehicles Symposium (IV). Baden-Baden: IEEE, 2011:163-168.

[4] 孫朋朋. 城市環(huán)境下智能車行車環(huán)境精確感知關鍵技術研究[D]. 西安: 長安大學, 2019.

[5] YEONG D J, VELASCO-HERNANDEZ G, BARRY J, et al. Sensor and Sensor Fusion Technology in Autonomous Vehicles: A Review[J]. Sensors, 2021, 21(6): 2140.

[6] 楊曰凱. 基于多任務網絡的智能車輛環(huán)境感知方法研究[D]. 大連: 大連理工大學, 2019.

[7] WANG B, HAN Y, TIAN D, et. al. Sensor-Based Environmental Perception Technology for Intelligent Vehicles[J/OL]. Journal of Sensors, (2021-09-02) [2024-03 -02].https://www.hindawi.com/journals/js/2021/8199361/.

[8] 天風證券股份有限公司. 智能汽車—智能化系列一:智能駕駛:新技術,新認知,新機會[R/OL]. (2023-11-15) [2024-03-11]. https://pdf.dfcfw.com/pdf/H3_AP202311151610957135_1.pdf?1700057675000.pdf.

[9] 程增木. 智能駕駛之“眼”——車載攝像頭技術的現(xiàn)在與未來(上)[J]. 汽車維修與保養(yǎng), 2022(8): 43-46.

[10] 全國汽車標準化技術委員會. 汽車用攝像頭: QC/T 1128-2019[S/OL].(2019-04-11)[2024-03-04]. https://www.doc88.com/p-6661644948714.html.

[11] LI Y, IBANEZ GUZMAN J. Lidar for Autonomous Driving: The Principles, Challenges, and Trends for Automotive Lidar and Perception Systems[J]. IEEE Signal Processing Magazine, 2020, 37(4): 50-61.

[12] 國聯(lián)證券股份有限公司. 汽車:從華為看智能汽車(三)激光雷達性價比提升,關注細分賽道投資機會[R/OL]. (2024-01-17)[2024-03-12]. https://pdf.dfcfw.com/pdf/H3_AP202401171617591565_1.pdf?1705519758000.pdf.

[13] 天風證券股份有限公司. 激光雷達行業(yè)報告:禾賽科技——首個中國激光雷達IPO,看好智能駕駛標準化趨勢下的空間[R/OL]. (2023-06-11)[2024-03-12]. https:// pdf.dfcfw.com/pdf/H3_AP202306121590851189_1.pdf.

[14] 東方財富證券股份有限公司. 汽車電子系列報告之二:高階輔助駕駛走向標配, 智能駕駛域前景廣闊[R/OL]. (2023-09-08)[2024-03-15].https://pdf.dfcfw.com/pdf/H3_AP202309081598090238_1.pdf?1694167031000.pdf.

[15] MAIMAN T H. Stimulated Optical Radiation in Ruby[J]. Nature, 1960, 187: 493-494.

[16] MOLEBNY V, MCMANAMON P, STEINVALL O, et. al. Laser Radar: Historical Prospective—from the East to the West[J/OL]. Optical Engineering, 2016, 56(3): 031220.

[17] SHI P, ZHANG Y, LI J. LiDAR-Based Place Recognition For Autonomous Driving: A Survey[J/OL]. (2023-07-29)[2024-03-13]. https://www.researchgate.net/publication/371729036_LiDAR-Based_Place_Recognition_For_Autonomous_Driving_A_Survey.

[18] 程川, 宋春華, 王鵬. 車載激光雷達發(fā)展研究綜述[J]. 裝備制造技術, 2022(5): 247-251.

[19] CHEN J Y, SHI Y C. Research Progress in Solid-State LiDAR[J/OL]. Opto-Electronic Engineering, 2019, 46(7): 190218.

[20] ZHANG J, LI W, YANG R, et al. Lead: Lidar Extender for Autonomous Driving[C]// CAAI International Conference on Artificial Intelligence. Singapore: Springer Nature Singapore, 2023: 91-103.

[21] LI Y, MA L, ZHONG Z, et. al. Deep Learning for LiDAR Point Clouds in Autonomous Driving: A Review[J]. IEEE Transactions on Neural Networks and Learning Systems, 2021, 32(8):3412-3432.

[22] XIE W, HU T, LING N, et. al. Timely Fusion of Surround Radar/Lidar for Object Detection in Autonomous Driving Systems[C]// 2024 IEEE 30th International Conference on Embedded and Real-Time Computing Systems and Applications (RTCSA). Sokcho: IEEE, 2024.

[23] BEHROOZPOUR B, SANDBORN P A M, WU M C, et. al. Lidar System Architectures and Circuits[J]. IEEE Communications Magazine, 2017, 55(10): 135-142.

[24] RAPP J, JULIáN TACHELLA, ALTMANN Y, et. al. Advances in Single-Photon LiDAR for Autonomous Vehicles: Working Principles, Challenges, and Recent Advances[J]. IEEE Signal Processing Magazine, 2020, 37(4): 62-71.

[25] TAHER J, HAKALA T, JAAKKOLA A, et. al. Feasibility of Hyperspectral Single Photon Lidar for Robust Autonomous Vehicle Perception[J/OL]. Sensors, 2022, 22(15): 5759.

[26] BROWN R, HARTZELL P, GLENNIE C. Evaluation of SPL100 Single Photon Lidar Data[J]. Remote Sensing, 2020, 12(4):722.

[27] MILIOTO A, BEHLEY J, MCCOOL C, et. al. LiDAR Panoptic Segmentation for Autonomous Driving[C]// 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Las Vegas: IEEE, 2020: 8505-8512.

[28] 王志兵. 具備調頻功能的超聲波雷達在智能駕駛中的技術研究[J]. 汽車科技, 2022(4): 75-79.

[29] 民生證券股份有限公司. 多傳感器時代,融合之路正開啟——汽車電子行業(yè)系列報告之感知篇[R/OL]. (2021-05-19)[2024-03-13]. https://pdf.dfcfw.com/pdf/H3_AP202105191492596423_1.pdf?1621416189000.pdf.

[30] 史延雷, 孟慶浩, 龔進峰, 等. 車載超聲波雷達回波模擬器設計[J]. 裝備制造技術, 2021(2): 48-52.

[31] 紀者. 基于超聲波雷達的自動泊車系統(tǒng)研究[D]. 北京: 北京交通大學, 2021.

[32] 資產信息網, 千際投行, 國元證券. 2023年車載超聲波雷達行業(yè)研究報告[R/OL]. (2023-08-02)[2024-03-12]. https://laser.ofweek.com/2023-08/ART-240002-8420-30605519.html.

[33] 安信證券股份有限公司. 智能化系列報告之拆解超聲波雷達的幾大核心關注點[R/OL]. (2022-02-21) [2024-03-12].https://pdf.dfcfw.com/pdf/H3_AP202202221548485789_1.pdf?1645528283000.pdf.

[34] SOUMYA A, MOHAN C K, CENKERAMADDI L R. Recent Advances in mmWave-Radar-Based Sensing, Its Applications, and Machine Learning Techniques: A Review [J]. Sensors, 2023, 23(21): 8901.

[35] LIANG J, LI K, ZHANG Q, et. al. Research on a mmWave Beam-Prediction Algorithm with Situational Awareness Based on Deep Learning for Intelligent Transportation Systems[J]. Applied Sciences, 2022, 12(9): 4779.

[36] 鄭立昊. 用于智能駕駛的毫米波雷達發(fā)射前端關鍵技術研究與設計[D]. 上海: 華東師范大學, 2021.

[37] 孫美玲, 熊毅. 淺談智能網聯(lián)系統(tǒng)中77GHz毫米波雷達的應用[J]. 科技視界, 2019(27): 31-32.

[38] XU T, YU D, DU L. A Bi-Objective Simulation Facility for Speed and Range Calibration of 24 GHz and 77 GHz Automotive Millimeter-Wave Radars for Environmental Perception[J/OL]. Electronics, 2023, 12(13): 2947.

[39] 工業(yè)和信息化部無線電管理局. 汽車雷達無線電管理暫行規(guī)定[EB/OL]. (2021-11-16)[2024-03-13]. https://www. srrc.org.cn/kindeditor/attached/file/20211207/20211207090314_6542.pdf.

[40] 51CTO. 感知硬件,智能駕駛汽車“看”路奧秘[EB/OL]. (2023-04-11)[2024-03-13].https://www.51cto.com/article/751694.html.

[41] ZHANG X, WANG L, CHEN J, et. al. Dual Radar: A Multi-Modal Dataset with Dual 4D Radar for Autonomous Driving[J/OL]. arXiv preprint, 2023. (2023-11-09) [2024-03-14].https://arxiv.org/pdf/2310.07602.pdf.

[42] PAEK D, KONG S, WIJAYA K T. K-Radar: 4D Radar Object Detection for Autonomous Driving in Various Weather Conditions[J]. Advances in Neural Information Processing Systems, 2022, 35:3819-3829.

[43] SUN S, ZHANG Y D. 4D Automotive Radar Sensing for Autonomous Vehicles: A Sparsity-Oriented Approach[J]. IEEE Journal of Selected Topics in Signal Processing, 2021, 15(4): 879-891.

[44] CHENG Y, SU J, CHEN H, et. al. A New Automotive Radar 4D Point Clouds Detector by Using Deep Learning[C]// ICASSP 2021-2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Toronto: IEEE, 2021:8398-8402.

[45] ABEDI H, MA M, HE J, et. al. Deep Learning-Based In-Cabin Monitoring and Vehicle Safety System Using a 4D Imaging Radar Sensor[J]. IEEE Sensors Journal, 2023, 23(11): 11296-11307.

[46] JIANG M, XU G, PEI H, et. al. 4D High-Resolution Imagery of Point Clouds for Automotive mmWave Radar[J]. IEEE Transactions on Intelligent Transportation Systems, 2024, 25(1): 998-1012.

[47] REDDY K S P, SRINIVAAS A. Obstacle Detection Challenges of Camera Sensor Designed for ADAS[J]. International Journal of Innovative Technology and Exploring Engineering, 2020, 9(11): 90-98.

[48] PONN T, THOMAS KR?GER, DIERMEYER F. Identification and Explanation of Challenging Conditions for Camera-Based Object Detection of Automated Vehicles[J]. Sensors, 2020, 20(13): 3699.

[49] RAYAMAJHI A, BALSE A, LESLIE E M, et. al. Study on the Feasibility of Vehicle-to-Infrastructure Applications Supported through Advanced Wireless Communications[J]. Transportation Research Record: Journal of the Transportation Research Board, 2021, 2675(7): 501-512.

[50] 上海申銀萬國證券研究所有限公司. 毫米波雷達國產替代拐點已至—智聯(lián)汽車系列深度28[R/OL]. (2023-02-20)[2024-03-13].https://wxweb.swsresearch.com/swsreport/2023_02/345122.pdf.

[51] 國信證券股份有限公司. 智能駕駛行業(yè)專題 算法篇:AI 賦能背景下看汽車智能駕駛算法的迭代[R/OL]. (2023-08-07)[2024-03-14].https://pdf.dfcfw.com/pdf/H3_AP202308071593403023_1.pdf?1691429184000.pdf.

[52] BUTT F A, CHATTHA J N, AHMAD J, et. al. On the Integration of Enabling Wireless Technologies and Sensor Fusion for Next-Generation Connected and Autonomous Vehicles[J]. IEEE Access, 2022, 10: 14643-14668.

(責任編輯 明慧)

主站蜘蛛池模板: 久久综合一个色综合网| 日韩av手机在线| 免费国产福利| 四虎国产精品永久一区| 亚洲天堂.com| 国产无套粉嫩白浆| 国产精品亚洲一区二区三区z| 欧美性色综合网| 91视频99| 国产a在视频线精品视频下载| 国产后式a一视频| 国产裸舞福利在线视频合集| 大香网伊人久久综合网2020| 影音先锋丝袜制服| 26uuu国产精品视频| 欧美三级不卡在线观看视频| 毛片视频网址| 国产在线观看一区二区三区| 国产成人综合在线观看| 国产AV无码专区亚洲A∨毛片| 色老二精品视频在线观看| 真人免费一级毛片一区二区| 强奷白丝美女在线观看| 国产成人做受免费视频| 日韩精品成人网页视频在线| 国产自无码视频在线观看| 中文字幕久久亚洲一区| 亚洲第七页| 亚洲精品第一在线观看视频| 91久久大香线蕉| 国产亚洲精品97在线观看| 妇女自拍偷自拍亚洲精品| 亚洲免费成人网| 亚洲香蕉久久| 免费看av在线网站网址| 久久综合伊人 六十路| 亚洲中文在线看视频一区| 亚洲av日韩av制服丝袜| 精品撒尿视频一区二区三区| 国产原创第一页在线观看| 亚洲综合久久一本伊一区| 国产精品福利社| 又爽又大又光又色的午夜视频| 麻豆精品久久久久久久99蜜桃| 欧美h在线观看| 久久久久人妻精品一区三寸蜜桃| 九九九精品视频| 国产麻豆aⅴ精品无码| 日本欧美中文字幕精品亚洲| 无码不卡的中文字幕视频| 久久亚洲高清国产| 波多野结衣在线se| a亚洲天堂| 久久久久亚洲av成人网人人软件| 粗大猛烈进出高潮视频无码| 亚洲免费福利视频| 亚洲视频四区| 成人一级黄色毛片| 日本一区高清| 国产jizz| 97成人在线观看| 97精品久久久大香线焦| 成人一区在线| 国产精品所毛片视频| 国内熟女少妇一线天| 午夜毛片福利| 国产情侣一区二区三区| 欧美黄网站免费观看| 日本精品αv中文字幕| 亚洲精品另类| 久久久精品国产SM调教网站| 国产亚洲精| 国语少妇高潮| 亚洲一区免费看| 亚洲手机在线| 精品成人一区二区三区电影| 国语少妇高潮| 成人在线观看一区| 人妻丰满熟妇αv无码| 国产久草视频| 国产精品内射视频| 日韩精品免费在线视频|