999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于自動(dòng)駕駛典型場(chǎng)景的多模態(tài)感知數(shù)據(jù)集構(gòu)建

2025-08-22 00:00:00劉藝王瑤裴世康王樹(shù)達(dá)屈雁寶白文靜
汽車(chē)工程師 2025年8期

中圖分類(lèi)號(hào):U469.79;TP181 文獻(xiàn)標(biāo)志碼:A DOI: 10.20104/j.cnki.1674-6546.20250039

【Abstract]Toaddressthescarcityof multi-source heterogeneous dataand insuficient scenario adaptability incurrent perceptionalgorithm trainingand testingofautonomous driving,atypical scenario-basedmultimodal perceptiondatasetis constructed.Itcontains 10 specific typicalscenariosegments,covering multimodalsensordata from LiDAR,cameras,and 4D millmeter-waveradar.Thedatesetprovidesannotationinformationforsixcategoriesof targetsandofersdetaileddescriptions of dataacqusitiondeviceconfigurations,includingsensorparameters,calibrationdata,andatimesynchronizationproesing scheme.Bydeliveringscenario-specificdrivingcontext,theconstructed dataset enhances perceptionaccuracy incomplex environments,thereby improving the safety and reliability of autonomous driving systems.

Key Words: Perception dataset, Typical scenarios,Multimodal,Autonomous driving

【引用格式】劉藝,王瑤,裴世康,等.基于自動(dòng)駕駛典型場(chǎng)景的多模態(tài)感知數(shù)據(jù)集構(gòu)建[J].汽車(chē)工程師,2025(8):15-21. LIU Y,WANG Y,PEI S K,etal.Construction of a Multimodal Perception Dataset for Autonomous Driving in Typical Scenarios[J].Automotive Engineer,2025(8): 15-21.

1前言

隨著自動(dòng)駕駛技術(shù)的快速發(fā)展和智能交通系統(tǒng)的廣泛應(yīng)用,環(huán)境感知能力成為衡量自動(dòng)駕駛車(chē)輛安全性能的核心指標(biāo)。在復(fù)雜多變的交通環(huán)境中,感知系統(tǒng)的精準(zhǔn)度與魯棒性直接關(guān)系到自動(dòng)駕駛車(chē)輛的安全性與可靠性。由于單一傳感器的感知能力存在局限性,多傳感器多模態(tài)數(shù)據(jù)融合成為提升自動(dòng)駕駛感知性能的關(guān)鍵技術(shù)。該技術(shù)基于攝像頭、激光雷達(dá)、毫米波雷達(dá)以及全球?qū)Ш叫l(wèi)星系統(tǒng)(GlobalNavigationSatelliteSystem,GNSS)/慣性測(cè)量單元(InertialMeasurementUnit,IMU)等多種傳感器的數(shù)據(jù)特征進(jìn)行深度融合,為自動(dòng)駕駛系統(tǒng)提供了更為豐富、全面且精確的環(huán)境理解信息,但現(xiàn)有解決方案仍面臨復(fù)雜場(chǎng)景適應(yīng)性等重大挑戰(zhàn)。

為突破感知算法的研發(fā)瓶頸,學(xué)術(shù)界與產(chǎn)業(yè)界已構(gòu)建了多個(gè)具有里程碑意義的多模態(tài)數(shù)據(jù)集2。以Waymo開(kāi)放數(shù)據(jù)集(Waymo Open Dataset)[3]、nuScenes4、KITTI為代表的開(kāi)放數(shù)據(jù)集,通過(guò)融合激光雷達(dá)點(diǎn)云、視覺(jué)圖像與毫米波雷達(dá)數(shù)據(jù),構(gòu)建了涵蓋多氣候條件、多光照強(qiáng)度和多地域特征的三維場(chǎng)景數(shù)據(jù)庫(kù)。而Cityscapes、ApolloScape[及中國(guó)異構(gòu)環(huán)境自動(dòng)駕駛數(shù)據(jù)集(Autonomous DrivingDataset for China’s Heterogeneous Environments,AD4CHE)等數(shù)據(jù)集則聚焦于高精度語(yǔ)義分割與實(shí)例標(biāo)注,為深度學(xué)習(xí)算法提供了可靠的訓(xùn)練基準(zhǔn)。這些數(shù)據(jù)集不僅推動(dòng)了感知算法在常規(guī)駕駛場(chǎng)景中的優(yōu)化與提升,更為特殊場(chǎng)景下的算法魯棒性研究奠定了基礎(chǔ)[。

基于現(xiàn)有數(shù)據(jù)集在場(chǎng)景覆蓋度與數(shù)據(jù)模態(tài)豐富性方面的持續(xù)拓展,本文構(gòu)建自動(dòng)駕駛典型場(chǎng)景的多模態(tài)感知數(shù)據(jù)集,提供典型及特殊駕駛場(chǎng)景中的多維度感知信息,包括切入、切出、跟車(chē)和特殊場(chǎng)景等。數(shù)據(jù)集包含來(lái)自攝像頭圖像、激光雷達(dá)點(diǎn)云、4D毫米波雷達(dá)點(diǎn)云以及控制器局域網(wǎng)(ControllerAreaNetwork,CAN)總線數(shù)據(jù)等多種類(lèi)型數(shù)據(jù)源的數(shù)據(jù),并通過(guò)傳感器標(biāo)定和時(shí)間同步方案確保數(shù)據(jù)間的時(shí)空對(duì)齊。

2核心感知傳感器及其布置

數(shù)據(jù)集的原始數(shù)據(jù)來(lái)源于實(shí)車(chē)采集。采集車(chē)輛搭載了攝像頭、激光雷達(dá)、4D毫米波雷達(dá)、定位設(shè)備以及車(chē)輛基礎(chǔ)傳感器數(shù)據(jù)采集設(shè)備等,由數(shù)據(jù)采集人員在真實(shí)道路場(chǎng)景中執(zhí)行標(biāo)準(zhǔn)化采集流程,同步采集道路環(huán)境、車(chē)輛行駛狀態(tài)、交通參與者等信息[]。具體傳感器配置及參數(shù)如下:

a.配置128線激光雷達(dá),最大探測(cè)距離為 250m 測(cè)量精度為 ±3cm ,每秒可輸出2304000個(gè)數(shù)據(jù)點(diǎn)(單回波),水平掃描角度覆蓋 360° ,垂直掃描角度范圍為-25°~15° ,可提供厘米級(jí)的三維環(huán)境點(diǎn)云數(shù)據(jù)。

b.200萬(wàn)像素?cái)z像頭的分辨率為 1920×1080 ,水平視場(chǎng)角為 60° ,垂直視場(chǎng)角為 32° ,采用F1.8光圈和 6mm 焦距。800萬(wàn)像素長(zhǎng)焦攝像頭的分辨率為 3 840×2 160 ,水平視場(chǎng)角為 30° ,垂直視場(chǎng)角為16° ,采用F1.6光圈和 15.3mm 焦距,最大光學(xué)畸變?yōu)?-2.7% 。800萬(wàn)像素廣角攝像頭的分辨率為3 840×2 160 ,水平視場(chǎng)角為 120° ,垂直視場(chǎng)角為 66° ,采用F1.6光圈和 4.01mm 焦距,最大光學(xué)畸變?yōu)?57.9% 。

c.4D毫米波雷達(dá)的最大測(cè)量距離為 300m ,中心頻率為 76.5GHz ,幀周期為 100ms ,水平測(cè)角和垂直測(cè)角分別覆蓋 ±20° O

d.選用集成高精度陀螺儀、加速度計(jì)等傳感器的組合慣導(dǎo)系統(tǒng),并接入實(shí)時(shí)動(dòng)態(tài)差分(Real-TimeKinematic,RTK定位,可實(shí)現(xiàn)厘米級(jí)定位精度,能夠?qū)崟r(shí)提供車(chē)輛的姿態(tài)、速度和位置信息。

各傳感器的安裝位置如表1和圖1所示。

表1傳感器的安裝位置

圖1傳感器的安裝位置示意

3傳感器坐標(biāo)系及其標(biāo)定

3.1傳感器坐標(biāo)系定義

為確保數(shù)據(jù)集中各傳感器數(shù)據(jù)的空間對(duì)齊,需明確各傳感器的坐標(biāo)系和標(biāo)定方案。通過(guò)精確的標(biāo)定,可以建立傳感器之間的坐標(biāo)轉(zhuǎn)換關(guān)系,確保不同傳感器在空間上的數(shù)據(jù)一致性。

傳感器坐標(biāo)系包括坐標(biāo)系原點(diǎn)和坐標(biāo)軸方向等關(guān)鍵信息,激光雷達(dá)、攝像頭及4D毫米波雷達(dá)坐標(biāo)系定義如表2所示。

表2傳感器坐標(biāo)系定義

多傳感器融合的目的是實(shí)現(xiàn)汽車(chē)周邊環(huán)境目標(biāo)的有效識(shí)別和定位,由于各傳感器成像和測(cè)量數(shù)據(jù)坐標(biāo)系不同,需要先統(tǒng)一各傳感器的測(cè)量坐標(biāo)系,然后在統(tǒng)一的空間坐標(biāo)系下,通過(guò)多傳感器坐標(biāo)轉(zhuǎn)換參數(shù)標(biāo)定,實(shí)現(xiàn)場(chǎng)景數(shù)據(jù)的空間配準(zhǔn)。

3.2傳感器坐標(biāo)系標(biāo)定

3.2.1 攝像頭標(biāo)定

通過(guò)在攝像頭和激光雷達(dá)視野內(nèi)提取共同的特征點(diǎn)計(jì)算激光雷達(dá)到攝像頭的外參矩陣,從而將特征點(diǎn)從激光雷達(dá)坐標(biāo)系轉(zhuǎn)換到攝像頭坐標(biāo)系。在此過(guò)程中,不僅可以確定攝像頭的內(nèi)參、畸變系數(shù),還能對(duì)其外參進(jìn)行標(biāo)定,結(jié)果如圖2~圖4所示。其中,攝像頭外參矩陣(CameraExtrinsicMat)為 4×4 的矩陣,內(nèi)參矩陣(CameraMat)為 3×3 的矩陣,畸變矩陣(DistCoeff)為 1×5 的矩陣。

3.2.24D毫米波雷達(dá)標(biāo)定

通過(guò)激光雷達(dá)點(diǎn)云與毫米波雷達(dá)數(shù)據(jù)的對(duì)齊,計(jì)算出將激光雷達(dá)坐標(biāo)系轉(zhuǎn)換至4D毫米波雷達(dá)坐標(biāo)系的外參矩陣,標(biāo)定結(jié)果如表3所示。

表34D毫米波雷達(dá)坐標(biāo)系標(biāo)定結(jié)果

3.2.3 組合慣導(dǎo)標(biāo)定

RTK組合慣導(dǎo)與激光雷達(dá)安裝在同一支架部件上,使二者的相對(duì)位置關(guān)系固定,RTK組合慣導(dǎo)到激光雷達(dá)的坐標(biāo)系轉(zhuǎn)換標(biāo)定結(jié)果如表4所示。

表4RTK組合慣導(dǎo)坐標(biāo)系標(biāo)定結(jié)果

4 時(shí)間同步方案

數(shù)據(jù)集采用基于GPS協(xié)調(diào)世界時(shí)(UTC)的多傳感器時(shí)間同步方法,實(shí)現(xiàn)多傳感器數(shù)據(jù)間的時(shí)間對(duì)齊。通過(guò)時(shí)間同步模塊,將秒脈沖信號(hào)(1PulsePerSecond,1PPS)和GPS時(shí)間信息輸入授時(shí)模塊,可實(shí)現(xiàn)多傳感器的時(shí)間同步。此外,當(dāng)頂部激光雷達(dá)掃描至攝像頭視場(chǎng)的中心位置時(shí),會(huì)觸發(fā)攝像頭的曝光過(guò)程,所拍攝圖像的時(shí)間戳即為曝光觸發(fā)的時(shí)間點(diǎn)。這一機(jī)制確保了攝像頭圖像與激光雷達(dá)數(shù)據(jù)在時(shí)間維度上的高度一致。同時(shí),激光雷達(dá)的時(shí)間戳記錄了當(dāng)前激光雷達(dá)幀完成一次完整旋轉(zhuǎn)掃描的時(shí)刻。

為了保證同步精度,激光雷達(dá)和攝像頭均以10Hz 的頻率進(jìn)行數(shù)據(jù)采集。此外,4D毫米波雷達(dá)點(diǎn)云數(shù)據(jù)也按照 10Hz 的頻率進(jìn)行抽幀。數(shù)據(jù)集中激光雷達(dá)點(diǎn)云、4D毫米波雷達(dá)點(diǎn)云、圖像和車(chē)輛姿態(tài)數(shù)據(jù)處理后的時(shí)間對(duì)齊精度為 100ms 。這種綜合性的時(shí)間同步方案有效協(xié)調(diào)了不同傳感器的數(shù)據(jù)同步采集,確保了多模態(tài)數(shù)據(jù)在時(shí)間上的高精度對(duì)齊。

5 數(shù)據(jù)集分析

5.1典型場(chǎng)景片段

數(shù)據(jù)集包含10個(gè)不同的典型場(chǎng)景片段,每個(gè)片段持續(xù)時(shí)間為10s,均配有圖像、激光雷達(dá)點(diǎn)云、4D毫米波雷達(dá)點(diǎn)云、自車(chē)姿態(tài)信息、軌跡信息和標(biāo)注信息。原始數(shù)據(jù)采集由具備測(cè)繪資質(zhì)的人員和設(shè)備完成,涉及的所有敏感信息均已進(jìn)行脫敏處理,確保數(shù)據(jù)的合法性和安全性。典型場(chǎng)景片段的設(shè)計(jì)充分考慮了實(shí)際駕駛中的復(fù)雜性與多樣性,涵蓋了切入、切出、跟車(chē)等常見(jiàn)駕駛操作,以及交通燈起步、立交橋等特殊場(chǎng)景。表5給出了各典型場(chǎng)景片段的內(nèi)容,提供了清晰的場(chǎng)景分類(lèi)與特征概述。同時(shí),圖5通過(guò)直觀的可視化手段,展示了典型場(chǎng)景片段中的圖像與點(diǎn)云數(shù)據(jù)。

表5數(shù)據(jù)集典型場(chǎng)景片段介紹

(a)激光雷達(dá)點(diǎn)云

(b)4D毫米波雷達(dá)點(diǎn)云

(c)融合點(diǎn)云

(d)200萬(wàn)像素?cái)z像頭圖像

圖5場(chǎng)景片段圖像與點(diǎn)云可視化

5.2 數(shù)據(jù)標(biāo)注統(tǒng)計(jì)分析

數(shù)據(jù)集采用商業(yè)標(biāo)注軟件進(jìn)行人工標(biāo)注。采用人工核查的方式對(duì)標(biāo)注結(jié)果進(jìn)行核查,各類(lèi)標(biāo)注結(jié)果準(zhǔn)確率和召回率均高于 98% 。

5.2.1 標(biāo)注分類(lèi)

數(shù)據(jù)集中標(biāo)注對(duì)象分為6個(gè)類(lèi)別,分別為未知、行人、自行車(chē)/摩托車(chē)/三輪車(chē)/手推車(chē)、小型車(chē)輛、大型車(chē)輛和靜態(tài)目標(biāo)物。每個(gè)類(lèi)別細(xì)分為若干子類(lèi),以確保對(duì)各種目標(biāo)物類(lèi)型進(jìn)行詳細(xì)分類(lèi)和精準(zhǔn)標(biāo)注。具體目標(biāo)物類(lèi)型及對(duì)應(yīng)類(lèi)別代號(hào)如表6所示。

表64D目標(biāo)物類(lèi)型及對(duì)應(yīng)類(lèi)別代號(hào)

根據(jù)以上分類(lèi)對(duì)點(diǎn)云和圖像進(jìn)行聯(lián)合標(biāo)注,結(jié)果如圖6所示。

圖6聯(lián)合標(biāo)注結(jié)果可視化

5.2.2 主要交通參與者統(tǒng)計(jì)分析

對(duì)10個(gè)典型場(chǎng)景中的主要交通參與者進(jìn)行統(tǒng)計(jì),結(jié)果如表7所示,反映了各類(lèi)主要交通參與者在不同典型場(chǎng)景中呈現(xiàn)的差異性特征。

表7主要交通參與者統(tǒng)計(jì)

對(duì)于機(jī)動(dòng)車(chē)輛:乘用車(chē)作為主導(dǎo)交通元素,在全部場(chǎng)景中均顯著出現(xiàn)(總頻次486次),尤其是在場(chǎng)景2和場(chǎng)景10中出現(xiàn)的頻率最高;貨車(chē)在場(chǎng)景6和場(chǎng)景7中出現(xiàn)頻率較高;三輪車(chē)在場(chǎng)景7和場(chǎng)景10中有所出現(xiàn);客車(chē)在場(chǎng)景7和場(chǎng)景10中出現(xiàn)頻率較高。

對(duì)于非機(jī)動(dòng)車(chē)輛:無(wú)人騎摩托車(chē)在場(chǎng)景4中出現(xiàn)的頻率遠(yuǎn)高于其他場(chǎng)景;有人騎摩托車(chē)的分布較為分散,場(chǎng)景5和場(chǎng)景10較多;無(wú)人騎自行車(chē)在場(chǎng)景8中出現(xiàn)的頻率最高;有人騎自行車(chē)在場(chǎng)景1和場(chǎng)景5等場(chǎng)景中出現(xiàn)。

對(duì)于行人:成人作為主要群體,出現(xiàn)在多個(gè)場(chǎng)景中,特別是在場(chǎng)景4和場(chǎng)景5中;兒童僅在場(chǎng)景4中偶有出現(xiàn)。

綜上,數(shù)據(jù)集涵蓋了豐富的交通參與者類(lèi)型,為自動(dòng)駕駛及相關(guān)領(lǐng)域的研究提供了高價(jià)值數(shù)據(jù)資源。

6數(shù)據(jù)集特點(diǎn)及應(yīng)用方向

6.1 同類(lèi)數(shù)據(jù)集對(duì)比

對(duì)本文提出的多模態(tài)感知數(shù)據(jù)集從采集地點(diǎn)、環(huán)境特征、道路特征、傳感器配置、標(biāo)注形式和類(lèi)別方面與現(xiàn)有主流同類(lèi)數(shù)據(jù)集進(jìn)行對(duì)比,結(jié)果如表8

所示。本文數(shù)據(jù)集采用了更高的傳感器配置,同時(shí),相對(duì)于其他數(shù)據(jù)集普遍以固定時(shí)長(zhǎng)為數(shù)據(jù)片段,首次采用了場(chǎng)景化數(shù)據(jù)組織方式,篩選典型場(chǎng)景片段進(jìn)行處理和標(biāo)注。

表8同類(lèi)數(shù)據(jù)集對(duì)比

6.2 數(shù)據(jù)集特點(diǎn)

本文數(shù)據(jù)集具有以下特點(diǎn):

a.多源異構(gòu)數(shù)據(jù)融合:數(shù)據(jù)集匯聚了多種傳感器數(shù)據(jù),包含激光雷達(dá)點(diǎn)云、圖像、4D毫米波雷達(dá)點(diǎn)云和組合慣導(dǎo)等多模態(tài)傳感器數(shù)據(jù),各傳感器數(shù)據(jù)通過(guò)硬件級(jí)時(shí)間同步裝置實(shí)現(xiàn) ±5ms 精度對(duì)齊,有效解決了多源數(shù)據(jù)融合的時(shí)空錯(cuò)位問(wèn)題。

b.高精度數(shù)據(jù)獲取:數(shù)據(jù)集采用了業(yè)界領(lǐng)先的傳感器技術(shù),確保了數(shù)據(jù)的高分辨率和高準(zhǔn)確性。

c.場(chǎng)景化數(shù)據(jù)組織:數(shù)據(jù)集覆蓋了多種典型場(chǎng)景,包括切入、切出、交通燈起步等復(fù)雜的高質(zhì)量交通場(chǎng)景片段,以便于對(duì)特定場(chǎng)景進(jìn)行檢索與應(yīng)用,每個(gè)場(chǎng)景片段提供完整的傳感器數(shù)據(jù)流、精準(zhǔn)的時(shí)間戳( 10Hz 同步采樣)及數(shù)據(jù)描述文件。

d.結(jié)構(gòu)化數(shù)據(jù)架構(gòu):為了方便使用,數(shù)據(jù)集組織為結(jié)構(gòu)化格式,每個(gè)數(shù)據(jù)樣本包含時(shí)間戳、傳感器信息、自車(chē)姿態(tài)信息、軌跡信息及標(biāo)注信息。

6.3 數(shù)據(jù)集應(yīng)用

本文數(shù)據(jù)集專(zhuān)為自動(dòng)駕駛感知算法研發(fā)及測(cè)試構(gòu)建,提供多模態(tài)全要素交通場(chǎng)景數(shù)據(jù)資源,主要應(yīng)用價(jià)值體現(xiàn)在以下方面:

a.多模態(tài)目標(biāo)檢測(cè):融合激光雷達(dá)點(diǎn)云、攝像頭圖像與4D毫米波雷達(dá)的三維空間信息,支持車(chē)輛、行人、非機(jī)動(dòng)車(chē)等多類(lèi)道路目標(biāo)的精準(zhǔn)識(shí)別與分類(lèi),多源數(shù)據(jù)互補(bǔ)特性有效提升復(fù)雜光照及遠(yuǎn)距離場(chǎng)景下的檢測(cè)魯棒性。

b.動(dòng)態(tài)障礙物追蹤:基于時(shí)間同步的多傳感器數(shù)據(jù)流與目標(biāo)物連續(xù)軌跡標(biāo)注為實(shí)時(shí)障礙物運(yùn)動(dòng)狀態(tài)分析提供了時(shí)空一致性基礎(chǔ),有助于實(shí)現(xiàn)高效的實(shí)時(shí)障礙物檢測(cè)和跟蹤。

c.行為意圖預(yù)測(cè):包含歷史運(yùn)動(dòng)軌跡的時(shí)序標(biāo)注數(shù)據(jù),為深度學(xué)習(xí)模型提供交通參與者行為模式分析樣本,支撐轉(zhuǎn)彎、變道等駕駛行為的預(yù)測(cè)算法訓(xùn)練與驗(yàn)證。

d.系統(tǒng)性多場(chǎng)景訓(xùn)練:覆蓋切入、切出、交通燈等典型場(chǎng)景,配備多類(lèi)別目標(biāo)物精細(xì)化標(biāo)注,可系統(tǒng)評(píng)估感知算法在不同環(huán)境條件下的檢測(cè)精度與泛化能力,為算法迭代優(yōu)化提供多維度的基準(zhǔn)測(cè)試平臺(tái)。

7結(jié)束語(yǔ)

本文提出的數(shù)據(jù)集提供了典型場(chǎng)景下高分辨率的多模態(tài)數(shù)據(jù),不僅有助于提升感知算法的魯棒性和準(zhǔn)確性,還能加速算法的迭代和優(yōu)化,滿足不同方向算法的應(yīng)用需求。未來(lái),將致力于數(shù)據(jù)集的場(chǎng)景多樣性擴(kuò)充,覆蓋更多極端與復(fù)雜的環(huán)境條件,為自動(dòng)駕駛技術(shù)的研發(fā)提供更加堅(jiān)實(shí)的數(shù)據(jù)支撐。

參考文獻(xiàn)

[1]代振釗.面向自動(dòng)駕駛的多模態(tài)融合感知技術(shù)研究[D].北京:北方工業(yè)大學(xué),2024.

DAI Z Z.Research on Multimodal Fusion Perception Technology for Autonomous Driving[D]. Beijing:North ChinaUniversityof Technology,2024.

[2] 李弘揚(yáng),李陽(yáng),王暉杰,等.自動(dòng)駕駛開(kāi)源數(shù)據(jù)體系:現(xiàn)狀 與未來(lái)[J].中國(guó)科學(xué):信息科學(xué),2024,54(6):1283-1318. LIHY,LIY,WANG HJ,et al.Open-SourcedData Ecosystem in Autonomous Driving:The Present and Future [J].ScientiaSinica(Informationis),2024,54(6):1283-1318.

[3]SUN P,KRETZSCHMAR H, DOTIWALLA X,et al. Scalability inPerception for Autonomous Driving:Waymo OpenDataset[C]//2O20 IEEE/CVFConference on ComputerVisionand Pattern Recognition (CVPR).Seattle, WA,USA:IEEE,2019.

[4]CAESAR H,BANKITI V,LANG A H, et al. nuScenes:A Multimodal Dataset for Autonomous Driving[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Seattle,WA,USA:IEEE,202O:11618-11628.

[5]GEIGER A,LENZ P,URTASUN R.Are We Readyfor AutonomousDriving?TheKITTI Vision Benchmark Suite [C]//2012 IEEE Conference on Computer Vision and Pattern Recognition.Providence,RI, USA:IEEE,2012.

[6] CORDTS M, OMRAN M, RAMOS S, et al. The Cityscapes Dataset for Semantic Urban Scene Understanding[C]//2016 IEEEConference on Computer Vision and Pattern Recognition(CVPR).LasVegas,NV,USA:IEEE,2016.

[7]HUANG X Y,WANG P,CHENG X J,et al.The ApolloScape Open Dataset for Autonomous Driving and Its Application[J].IEEE Transactionson Pattern Analysis and Machine Intelligence,2020,42(10): 2702-2719.

[8]ZHANGYX,WANGC,YURL,etal.TheAD4CHE Dataset and Its Application in Typical Congestion ScenariosofTrafficJamPilotSystems[J].IEEE Transactions on Intelligent Vehicles,2023,8(5):3312- 3323.

[9]王云鵬,吳瓊,宋德王,等.自動(dòng)駕駛數(shù)據(jù)集及3D目標(biāo)感 知方法綜述[J].人工智能,2023(5):31-47. WANG YP,WUQ,SONGD W,et al.A Survey on Autonomous Driving Datasets and 3D Object Perception Methods[J].AI-View,2023(5):31-47.

[10]自動(dòng)駕駛標(biāo)準(zhǔn)工作組.智能網(wǎng)聯(lián)汽車(chē)自動(dòng)駕駛系統(tǒng)測(cè)試 場(chǎng)景數(shù)據(jù)采集和分析標(biāo)準(zhǔn)需求研究報(bào)告[R].天津:全國(guó) 汽車(chē)標(biāo)準(zhǔn)化技術(shù)委員會(huì),2023. Autonomous Driving StandardsWorking Group.Research Report on Data Collection and Analysis Standard RequirementsforAutomatedDrivingSystem TestScenarios of Intelligent and Connected Vehicles[R]. Tianjin:National Technical CommitteeofAuto Standardization,2023. (責(zé)任編輯斛畔) 修改稿收到日期為2025年3月7日。

《汽車(chē)工藝與材料》投稿須知

《汽車(chē)工藝與材料》于1986年創(chuàng)刊,是由中國(guó)第一汽車(chē)集團(tuán)有限公司主辦的國(guó)內(nèi)外公開(kāi)發(fā)行的汽車(chē)材料與制造技術(shù)類(lèi)月刊,目前已入選《中文核心期刊要目總覽》第二版)RCCSE中國(guó)準(zhǔn)核心學(xué)術(shù)期刊 (B+) 、中國(guó)核心期刊(遴選)數(shù)據(jù)庫(kù)、中國(guó)學(xué)術(shù)期刊綜合評(píng)價(jià)數(shù)據(jù)庫(kù)、歐洲學(xué)術(shù)出版中心數(shù)據(jù)庫(kù)(EuroPub)、哥白尼精選期刊數(shù)據(jù)庫(kù)(ICIJourmals MasterList)、EBSCO International數(shù)據(jù)庫(kù)J-Gate數(shù)據(jù)庫(kù)。

《汽車(chē)工藝與材料》以“為中國(guó)報(bào)道汽車(chē)制造,為汽車(chē)引領(lǐng)工藝材料\"為辦刊宗旨,致力于報(bào)道以汽車(chē)輕量化技術(shù)和智能制造技術(shù)為核心的先進(jìn)制造技術(shù)與材料應(yīng)用技術(shù),重點(diǎn)關(guān)注電動(dòng)汽車(chē)蓄電池、電機(jī)、電控關(guān)鍵材料技術(shù),燃料電池材料技術(shù),高強(qiáng)度鋼、鋁鎂合金、非金屬材料及其成形技術(shù),連接技術(shù),智能裝備與綠色制造等,以期通過(guò)高質(zhì)量學(xué)術(shù)內(nèi)容的出版和傳播助推行業(yè)創(chuàng)新技術(shù)的交流與發(fā)展。

《汽車(chē)工藝與材料》雜志關(guān)注領(lǐng)先的整車(chē)及零部件企業(yè)和材料、裝備等供應(yīng)商,及時(shí)報(bào)道汽車(chē)行業(yè)最新的產(chǎn)品設(shè)計(jì)、制造、材料、加工技術(shù)、生產(chǎn)裝備、檢測(cè)技術(shù)等方面的成功案例。

主要欄目:

ATamp;M視界、生產(chǎn)現(xiàn)場(chǎng)、材料應(yīng)用、生產(chǎn)裝備、檢測(cè)技術(shù)、數(shù)字化園地、行業(yè)動(dòng)態(tài)等。

投稿要求:

(1)來(lái)稿須具有獨(dú)創(chuàng)性并與實(shí)踐相結(jié)合,文章字?jǐn)?shù)最好控制在5000~8000字之內(nèi)。

(2)來(lái)稿不能在國(guó)內(nèi)、外公開(kāi)雜志上發(fā)表過(guò),請(qǐng)勿一稿多投。

(3)來(lái)稿的試驗(yàn)方法、試驗(yàn)數(shù)據(jù)、試驗(yàn)結(jié)論必須準(zhǔn)確、可靠。

(4)來(lái)稿須包括以下項(xiàng)目:題名、作者姓名、作者單位、摘要(200字左右)參考文獻(xiàn)等。來(lái)稿采用word文檔的格式。

(5)來(lái)稿文章格式應(yīng)符合一般科技論文格式,或參考近期本刊所刊登文章格式。

(6)文章必須附有公開(kāi)發(fā)表的、體現(xiàn)本領(lǐng)域最新研究成果的參考文獻(xiàn),且在文中應(yīng)標(biāo)注文獻(xiàn)引用處。

(7)本刊使用網(wǎng)站投稿,投稿網(wǎng)址:http://qcgyycl.cbpt.cnki.net,咨詢(xún)電話:0431-82026054。

竭誠(chéng)歡迎汽車(chē)行業(yè)及相關(guān)各界的專(zhuān)家學(xué)者積極向本刊投稿。

主站蜘蛛池模板: 久久久亚洲色| 亚洲一级毛片免费观看| 综合网久久| 免费一级无码在线网站| 岛国精品一区免费视频在线观看| 日日噜噜夜夜狠狠视频| 国产欧美日本在线观看| 亚亚洲乱码一二三四区| 天天色天天综合网| 国产福利在线观看精品| 日韩精品无码免费一区二区三区 | 野花国产精品入口| 国产综合日韩另类一区二区| 国产美女自慰在线观看| 国产成人一区| 麻豆精品久久久久久久99蜜桃| 国产系列在线| 亚洲乱码精品久久久久..| 亚洲AV成人一区国产精品| 亚洲欧美在线综合一区二区三区| 色综合天天视频在线观看| 亚洲日韩精品伊甸| 深夜福利视频一区二区| 免费A级毛片无码无遮挡| 狂欢视频在线观看不卡| 国产青榴视频| 精品一区二区三区视频免费观看| 日韩午夜福利在线观看| 伊人久久大香线蕉成人综合网| 国产精品无码AV片在线观看播放| 欧美视频在线播放观看免费福利资源| 久久国产乱子| 99久久精品久久久久久婷婷| 亚洲精品手机在线| 亚洲一区二区三区国产精品| 国产精品三级专区| 男女精品视频| 91九色视频网| 日韩精品久久无码中文字幕色欲| 国产9191精品免费观看| 欧美在线一级片| 欧美精品高清| 九九精品在线观看| 国产日韩丝袜一二三区| 成年人国产视频| 国产国语一级毛片在线视频| 老司机精品一区在线视频| 亚洲欧美另类色图| 国产在线91在线电影| 国产免费精彩视频| 国产打屁股免费区网站| 亚洲国产中文精品va在线播放| 福利片91| 国产无套粉嫩白浆| av在线无码浏览| 一本二本三本不卡无码| 国产精品成人久久| 国产老女人精品免费视频| 日本免费a视频| 粗大猛烈进出高潮视频无码| 黄色三级网站免费| 在线观看网站国产| 婷婷丁香在线观看| 国产精品一区二区在线播放| 亚洲av片在线免费观看| 国产一区二区在线视频观看| 国产精品久久久久久影院| 无码aaa视频| 中文无码影院| 亚洲国产中文欧美在线人成大黄瓜| 欧美日韩国产系列在线观看| 精品乱码久久久久久久| 噜噜噜综合亚洲| 国产福利小视频在线播放观看| 国产精品尹人在线观看| 免费视频在线2021入口| 国产在线观看一区二区三区| 91小视频在线观看免费版高清| 2022精品国偷自产免费观看| 五月天综合网亚洲综合天堂网| 不卡国产视频第一页| 亚洲精品成人片在线观看|