王 海 蔡英鳳 賈允毅 陳 龍 江浩斌
?
基于深度卷積神經(jīng)網(wǎng)絡(luò)的場景自適應(yīng)道路分割算法
王 海①蔡英鳳*②賈允毅③陳 龍②江浩斌①
①(江蘇大學(xué)汽車與交通工程學(xué)院 鎮(zhèn)江 212013)②(江蘇大學(xué)汽車工程研究院 鎮(zhèn)江 212013)③(克萊姆森大學(xué)汽車工程系 美國南卡羅拉納州 29634)
現(xiàn)有基于機器學(xué)習(xí)的道路分割方法存在當訓(xùn)練樣本和目標場景樣本分布不匹配時檢測效果下降顯著的缺陷。針對該問題,該文提出一種基于深度卷積網(wǎng)絡(luò)和自編碼器的場景自適應(yīng)道路分割算法。首先,采用較為經(jīng)典的基于慢特征分析(SFA)和GentleBoost的方法,實現(xiàn)了帶標簽置信度樣本的在線選取;其次,利用深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)深度結(jié)構(gòu)的特征自動抽取能力,輔以特征自編碼器對源-目標場景下特征相似度度量,提出了一種采用復(fù)合深度結(jié)構(gòu)的場景自適應(yīng)分類器模型并設(shè)計了訓(xùn)練方法。在KITTI測試庫的測試結(jié)果表明,所提算法較現(xiàn)有非場景自適應(yīng)道路分割算法具有較大的優(yōu)越性,在檢測率上平均提升約4.5%。
道路分割;場景自適應(yīng);深度卷積神經(jīng)網(wǎng)絡(luò);復(fù)合深度結(jié)構(gòu);自編碼器
道路分割是計算機視覺中一項重要的技術(shù),它在自動駕駛、智能車技術(shù)和道路障礙物檢測等應(yīng)用中都具有重要的價值。傳統(tǒng)道路分割常采用兩類方法:基于雙目視覺深度圖的方法和基于運動的方法。例如,Ladicky等人[7]提出了一個能量最小化的框架,采用條件隨機場進行深度重構(gòu),Sturgess等人[8]則以包括高度、投影表面方向,特征跟蹤密度等5個運動指標對道路進行分割。但是,上述兩類方法均需要極大的計算資源,難以滿足智能車應(yīng)用中實時性的要求。近年來,基于機器學(xué)習(xí)的框架被逐漸引入到路面分割中。該框架下,圖像中的像素(像素塊)都被輸入到一個分類器中,并被賦予“路面”或“非路面”的標簽。該過程中,分類器的獲取有著至關(guān)重要的作用,其往往通過準備大量的道路圖片所組成的通用樣本庫,再結(jié)合人工設(shè)計的特征進行訓(xùn)練。例如,Kühnl等人[9]面向單目視覺圖像,提出一種基于SFA和GentleBoost的道路分割方法。肖良等人[10]提出一種基于字典學(xué)習(xí)與稀疏表示的非結(jié)構(gòu)化道路分割方法。李駿揚等人[11]則面向城市環(huán)境,提出一種基于多尺度特征表示和稀疏編碼的城市道路檢測方法。Alvarez等人[12]提出一種基于多尺度特征集成和卷積神經(jīng)網(wǎng)絡(luò)的方法。以上基于機器學(xué)習(xí)的道路分割算法大大減低了計算強度,但是也存在部分場景下分割效果不佳的問題。其原因有兩點:(1)現(xiàn)有分類器訓(xùn)練中的人工特征表達能力有限,難以對部分復(fù)雜場景下的道路進行表達;(2)實際待檢測場景具有多樣性,當其視覺形式和通用樣本庫中的樣本均差異較大時,所訓(xùn)練的分類器往往失效。
針對以上兩點現(xiàn)有研究中的不足,本文從樣本特征抽取和場景自適應(yīng)學(xué)習(xí)分類器模型的建立這兩方面出發(fā)。首先,基于深度學(xué)習(xí)理論,利用通用樣本庫,以深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)深度結(jié)構(gòu)的特征自動學(xué)習(xí)能力對適用于道路分割的圖像特征進行自動抽取;其次,以基于離線訓(xùn)練的分類器對新場景下樣本進行提取并對其標簽賦予置信度,再以特征自編碼器對源-目標場景特征相似度度量,給相似度高的特征賦予更高的權(quán)值并重新訓(xùn)練DCNN分類器,從而實現(xiàn)了一種采用深度結(jié)構(gòu)的場景自適應(yīng)分類器模型并設(shè)計了訓(xùn)練方法。
為實現(xiàn)場景自適應(yīng)的道路分割分類器訓(xùn)練,首先需要在新場景下自動獲取帶標記的道路樣本。本節(jié)采用Tobias等提出的基于慢特征分析(Slow Feature Analysis, SFA)和GentleBoost的方法,該方法中輸入新場景下的道路圖像,經(jīng)判斷輸出對應(yīng)的置信圖,從而實現(xiàn)對圖像塊帶置信度的標簽(道路、非道路)的賦予。該方法簡述如下:
(1)基于SFA的特征提取:Wiskott和Sejnowski[13]在2002年提出了慢特征分析(SFA)原理,用以提取出輸入信號中隱含變化緩慢的部分。對于一個輸入維輸入信號,慢特征分析通過一組輸入輸出函數(shù),使得輸出信號中各個分量的變化盡可能緩慢。文獻[13]采用對時間的一階導(dǎo)數(shù)平方均值的方法來衡量變化的速率。于是,對于每個輸出信號的分量,在下述框架下求解變化速率最慢的優(yōu)化問題:
目標函數(shù):

約束條件:
(2)

(4)
在本文應(yīng)用中,待判斷圖像塊首先被向量化,然后進行SFA提取。所選取多個時刻的多個圖像塊Pi的大小均為像素,各圖像塊被向量化成一個空間信號,并集成為一個矩陣。的維數(shù)為,其中為樣本數(shù)目,為原始圖像塊向量的維數(shù)。采用式(1)-式(4)所描述的優(yōu)化問題對進行變換,抽取出對應(yīng)的緩變特征。
(2)基于GentleBoost的分類器訓(xùn)練:在圖像塊的分類中,首先將圖像塊表征為SFA特征、Walsh Hadamard 紋理特征和RGB顏色特征的特征集合,然后選用經(jīng)典的GentleBoost 分類算法對其進行分類,最終輸出帶標簽置信度的道路圖像。
上一節(jié)采用較為經(jīng)典的基于SFA和Gentle Boost的方法,實現(xiàn)了帶標簽置信度樣本的在線選取。本節(jié)進一步提出面向道路分割的場景自適應(yīng)學(xué)習(xí)的訓(xùn)練模型(如圖1所示)。該模型在訓(xùn)練階段以離線得到的源場景訓(xùn)練樣本和在線得到的新場景(即目標場景)訓(xùn)練樣本共同作為輸入,并可以同時完成分類識別和自動編碼重構(gòu)。
在特征抽取方面,本文采用一組兩層的深度卷積神經(jīng)網(wǎng)絡(luò)DCNN進行實施,如圖2所示。在這里,選擇深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)模型進行特征學(xué)習(xí),是出于其本身結(jié)構(gòu)優(yōu)勢以及如下優(yōu)點考慮[14]:(1)作為深度學(xué)習(xí)常用模型之一,DCNN是一種生物啟發(fā)訓(xùn)練的架構(gòu),它隱式地從訓(xùn)練數(shù)據(jù)中進行學(xué)習(xí),這使得它能通過結(jié)構(gòu)重組和減少權(quán)值將特征提取功能融合進多層感知器;(2)DCNN局部權(quán)值共享的特殊結(jié)構(gòu)在圖像處理方面有著獨特的優(yōu)越性,其布局更接近于實際的生物神經(jīng)網(wǎng)絡(luò),權(quán)值共享降低了網(wǎng)絡(luò)的復(fù)雜性,特別是多維輸入向量的圖像可以直接輸入網(wǎng)絡(luò)這一特點避免了特征提取和分類過程中數(shù)據(jù)重建的高復(fù)雜度計算過程。

圖1 復(fù)合深度模型示意圖

圖2 DCNN的具體結(jié)構(gòu)及參數(shù)
該DCNN包括一個輸入層,兩組卷積-下采樣層及一個特征向量輸出層。其輸入層大小為像素,該尺寸和所有待訓(xùn)練樣本的像素尺寸保持一致。兩組隱層均采用大小為的卷積核,下采樣濾波器大小均為,選用“池最大”操作。因此,兩組隱層的卷積層和下采樣層C1,S1,C2,S2大小分別為,,,。特征層和下采樣層S2及下采樣層S1的二次下采樣層相連,共包含600個神經(jīng)元。在該結(jié)構(gòu)中,特征向量輸出層實質(zhì)是由下采樣層S1和S2共同構(gòu)建,其目的是保留圖像在多尺度下的特征信息。
在DCNN特征抽取的基礎(chǔ)上,所提復(fù)合深度模型的結(jié)構(gòu)如圖1所示。圖1中,DCNN特征輸入層基礎(chǔ)上,增加了兩個隱層和,一個重構(gòu)隱層,一個重構(gòu)特征層以及一個分類標簽。上述結(jié)構(gòu)中,隱層,,和重構(gòu)特征實質(zhì)上是構(gòu)成了一個服務(wù)于特征的自動編碼器,該自動編碼器僅接受從目標場景獲取的樣本并進行特征重構(gòu)誤差計算用以對DCNN所抽取的特征進行源場景-目標場景的分布相似性評估。以上層間的參數(shù)傳遞按照式(5)-式(9)進行。

(6)
(7)

(9)
該網(wǎng)絡(luò)的訓(xùn)練方法如下:不妨設(shè)第個訓(xùn)練樣本在DCNN中所抽取的特征為,其對應(yīng)的標簽為,則該訓(xùn)練樣本所對應(yīng)的參數(shù)集為。其中,如果該樣本屬于目標場景,則令;反之,。是樣本的置信度,如果樣本屬于源場景,則;反之,,由GentleBoost分類器確定。在訓(xùn)練樣本參數(shù)集設(shè)定完成的基礎(chǔ)上,我們以反向傳播(Back-Propagation, BP)算法對,等網(wǎng)絡(luò)權(quán)值進行訓(xùn)練,并設(shè)計了如下的目標函數(shù):

4.1離線訓(xùn)練樣本準備
本文的訓(xùn)練樣本來自于劍橋駕駛標記視頻庫(CamVid)[15]。該庫采用放置于車輛前擋風(fēng)玻璃的攝像頭,在城市環(huán)境下,在不同的時間段采集了大量的道路視頻。更為重要的是,該庫提供了對道路圖片像素屬性的人工標注,其屬性包括道路、行人、車輛等共20余類,本應(yīng)用中僅利用其道路-非道路的二分類。CamVid中的每張圖片都含有大量標記為道路和非道路的像素區(qū)域,若以遍歷的方式對圖像所有子區(qū)域均進行選取并作為訓(xùn)練樣本容易產(chǎn)生大量的高相關(guān)訓(xùn)練樣本,即重復(fù)樣本,造成樣本分布的不合理。針對此問題,這里引入了一種過分割方法,即超像素的概念,即將圖像中具有相同或相似特征屬性的近鄰像素聚合成一個組,并命名為一個超像素。通過超像素分割,實現(xiàn)了同質(zhì)近鄰像素的合并,大大減少了同質(zhì)樣本的數(shù)量。CamVid數(shù)據(jù)庫中的部分數(shù)據(jù)如圖3所示,圖3中第1列為原始圖片、第2列為采用SLIC超像素分割算法分割后的圖片,其中超像素平均大小約束為像素,第3列為帶像素標簽人工標記的圖片。在本文應(yīng)用中,共選取CamVid多個場景下的訓(xùn)練圖片800張,并在其中選取包括道路、非道路在內(nèi)的樣本50000個(圖3所示)。
4.2 測試數(shù)據(jù)庫
本文的測試數(shù)據(jù)庫選用了KITTI視覺標準庫[16],和CamVid視頻庫類似,該視覺庫采用一個旅行車,安裝有兩個高分辨率彩色和灰度攝像機拍攝德國卡爾斯魯厄市的部分真實環(huán)境下的視頻和圖像,并在一臺Velodyne公司的64線激光雷達的幫助下完成了各種人工基準(baseline)標記。KITTI視覺標準庫中劃分了雙目、光流、圖像屬性、3D檢測和3D跟蹤在內(nèi)的子庫,本文采用了其中的2013道路/道線檢測評估庫,其采集了3個場景(UM, UMM, UU)下共579幅道路圖片,并人工將各圖像像素標記為路面區(qū)域和非路面區(qū)域(圖4所示)。其中,UM(Urban Marked)是帶車道標線的城區(qū)道路、UMM(Urban Multiple Marked)是帶多個車道標線的城區(qū)道路、UU(Urban Unmarked)是不帶車道標線的城區(qū)道路。
4.3 實驗結(jié)果與分析
本文所提算法包括在線樣本選取和標記及自適應(yīng)訓(xùn)練兩個步驟。在線樣本生成中,測試數(shù)據(jù)庫的3個場景下各選取了5張圖片用于進行基于SFA和GentleBoost的新樣本生成,其中SFA和GentleBoost的參數(shù)設(shè)置和文獻[9]一致。實驗中,所選取的3個場景共15張圖片仍采用先進行超像素分割,再進行分類的方案,最終共生成了約900個帶標簽置信度新樣本,部分圖片的處理結(jié)果如圖5所示。圖5(a)為道路原始圖片,圖5(b)是超像素分割圖,圖5(c)為道路分類圖,其中亮色區(qū)域表明分類為道路的像素,暗色為分類為非道路的像素,且其檢測為道路的置信度和亮度大小成正比。
在新樣本生成后,將在線所選取新樣本和離線訓(xùn)練樣本一起輸入到所提的采用DCNN及自編碼器的場景自適應(yīng)分類器中進行訓(xùn)練,并在測試數(shù)據(jù)庫中進行測試。測試圖片為3個場景圖中除去15張用于在線樣本生成外的其余所有道路圖片,共564張。為對所提算法進行評估,本算法和現(xiàn)有若干主流圖像道路分割算法進行了比較,包括:(1)基于顏色和紋理融合的路面識別方法[17];(2)僅采用離線數(shù)據(jù)庫的基于SFA和GentleBoost的道路分割方法[6];(3)僅采用離線數(shù)據(jù)庫的基于DCNN訓(xùn)練的道路分割方法;(4)僅采用離線數(shù)據(jù)庫的基于DDN(Deep Deconvolutional Networks)的方法。在對比實驗中,選取的評價指標為(準確率)和(召回率)。其中,表示3種測試場景。
本文方法和已有方法的實驗結(jié)果如表1所示,部分圖像的處理結(jié)果如圖6所示。圖6中,第1行為原圖,第2行為采用顏色和紋理融合的方法,第3行為采用離線數(shù)據(jù)庫的基于SFA和GentleBoost的方法,第4行為離線數(shù)據(jù)庫采用DDN的方法,第5行為本文所提采用DCNN及自編碼器的場景自適應(yīng)方法所進行的道路分割效果。

圖3 離線訓(xùn)練樣本準備

圖4 KITTI2013道路/道線檢測評估庫

圖5 帶標簽置信度新樣本生成
從表1中實驗結(jié)果和圖6中的部分分割對比圖中可以看出,在3個測試場景下,由于具有特征自學(xué)習(xí)及在新場景下自動調(diào)整的能力,所提基于DCNN及自編碼器的場景自適應(yīng)道路分割算法均具有最好的道路分割效果。此外,由于具有特征自學(xué)習(xí)能力,基于DDN及DCNN的方法也優(yōu)于傳統(tǒng)基于人工特征的SFA和GentleBoost的方法以及基于顏色和紋理融合的方法。相較于采用離線數(shù)據(jù)庫訓(xùn)練的各道路分割算法,本文所提出的采用DCNN及自編碼器的場景自適應(yīng)道路分割方法在3個測試場景下平均提升4.5%左右。在算法耗時上,采用傳統(tǒng)非深度學(xué)習(xí)的兩種方法具有較少的計算復(fù)雜度,耗時較少,耗時均在0.2 s左右;而3種采用深度學(xué)習(xí)的方法因為網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,訓(xùn)練參數(shù)多,平均對一幅圖片的檢測時間在2 s左右。

表1 KITTI測試庫中本文算法與現(xiàn)有算法比較

圖6 實驗結(jié)果對比
本文提出一種基于深度卷積網(wǎng)絡(luò)的場景自適應(yīng)道路分割算法。文中在采用DCNN進行特征自抽取的基礎(chǔ)上,針對源場景-目標場景樣本分布不匹配的問題,以特征自編碼器對各個特征表征下的源-目標場景樣本相似度進行度量,將高相似度特征即“更有價值”的特征賦予相對較高的權(quán)值并重新訓(xùn)練分類器,從而較好地實現(xiàn)了場景自適應(yīng)的分類器訓(xùn)練。
算法分為兩步,首先基于SFA和GentleBoost的方法,實現(xiàn)了帶標簽置信度樣本的在線選取;其次,利用DCNN深度結(jié)構(gòu)的特征自動抽取能力,輔以特征自編碼器對源-目標場景樣本相似度度量,提出了一種采用復(fù)合深度結(jié)構(gòu)的場景自適應(yīng)分類器模型并設(shè)計了訓(xùn)練方法。在KITTI數(shù)據(jù)集上的測試結(jié)果表明,所提算法較現(xiàn)有非場景自適應(yīng)道路分割算法具有較大的優(yōu)越性,分割準確率提升約4.5%。
[1] 余天洪, 王榮本, 顧柏園, 等. 基于機器視覺的智能車輛前方道路邊界及車道標識識別方法綜述[J]. 公路交通科技, 2006, 38(8): 139-142.
YU Tianhong, WANG Rongben, GU Baiyuan,. Survey on the vision-based recognition methods of intelligent vehicle road boundaries and lane markings[J]., 2006, 38(8): 139-142.
[2] ZHOU H, KONG H, WEI L,. Efficient road detection and tracking for unmanned aerial vehicle[J]., 2015, 16(1): 297-309. doi:10.1109/TITS.2014.2331353.
[3] SHIN B S, XU Z, and KLETTE R. Visual lane analysis and higher-order tasks: a concise review[J]., 2014, 25(6): 1519-1547. doi:10.1007/s00138- 014-0611-8.
[4] HILLEL A B, LERNER R, LEVI D,. Recent progress in road and lane detection: a survey[J]., 2014, 25(3): 727-745. doi:10.1007/s00138-011- 0404-2.
[5] PAZ L M, PINIES P, and NEWMAN P. A variational approach to online road and path segmentation with monocular vision[C]. 2015 IEEE International Conference on Robotics and Automation (ICRA), Seattle, USA, 2015: 1633-1639. doi:10.1109/ICRA.2015.7139407.
[6] PASSANI M, YEBES J J, and BERGASA L M. Fast pixelwise road inference based on Uniformly Reweighted Belief Propagation[C]. 2015 IEEE Intelligent Vehicles Symposium (IV), Seoul, Korea, 2015: 519-524. doi:10.1109/ IVS.2015.7225737.
[7] LADICKY L, STURGESS P, RUSSELL C,. Joint optimization for object class segmentation and dense stereo reconstruction[J]., 2012, 100(2): 122-133. doi:10.1007/s11263-011-0489-0.
[8] STURGESS P, ALAHARI K, LADICKY L,. Combining appearance and structure from motion features for road scene understanding[C]. BMVC 2012-23rd British Machine Vision Conference, Guildford, UK, 2012: 1-10.
[9] KUHNL T, KUMMERT F, and FFITACH J. Monocular road segmentation using slow feature analysis[C]. 2011 IEEE Conference on Intelligent Vehicles Symposium (IV), Baden-Baden, Germany, 2011: 800-806. doi:10.1109/IVS.2011. 5940416.
[10] 肖良, 戴斌, 吳濤, 等. 基于字典學(xué)習(xí)與稀疏表示的非結(jié)構(gòu)化道路分割方法[J]. 吉林大學(xué)學(xué)報(工學(xué)版), 2013, 43(S1): 384-388.
XIAO Liang, DAI bin, WU Tao,. Unstructured road segmentation method based on dictionary learning and sparse representation[J].(), 2013, 43(S1): 384-388.
[11] 李駿揚, 金立左, 費樹岷, 等. 基于多尺度特征表示的城市道路檢測[J]. 電子與信息學(xué)報, 2014, 36(11): 2578-2585. doi: 10.3724/SP.J.1146.2014.00271.
LI Junyang, JIN Lizuo, FEI Shumin,. Urban road detection based on multi-scale feature representation[J].&, 2014, 36(11): 2578-2585. doi: 10.3724/SP.J.1146.2014.00271.
[12] ALVAREZ J M, LECUN Y, GEVERS T,. Semantic road segmentation via multi-scale ensembles of learned features[C].2012 Workshops and Demonstrations Computer Vision of ECCV, Firenze, Italy, 2012: 586-595. doi:10.1007/978-3-642- 33868-7_58.
[13] WISKOTT L and SEJNOWAKI T J. Slow feature analysis: unsupervised learning of invariances[J]., 2002, 14(4): 715-770. doi: 10.1162/089976602317318938.
[14] KRIZHEVAKY A, SUTAKEVER I, and HINTON G E.Imagenet classification with deep convolutional neural networks[C]. Advances in Neural Information Processing Systems. South Lake Tahoe, Nevada, USA, 2012: 1097-1105.
[15] BROSTOW G J, FAUQUEUR J, and CIPOLLA R. Semantic object classes in video: A high-definition ground truth database[J]., 2009, 30(2): 88-97. doi: 10.1016/j.patrec.2008.04.005.
[16] GEIGER A, LENZ P, and URTASUN R. Are we ready for autonomous driving? The kitti vision benchmark suite[C]. 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Providence, RI, USA, 2012: 3354-3361. doi: 10.1109/CVPR.2012.6248074.
[17] áLVAREZ J M and LOPEZ A M. Road detection based on illuminant invariance[J]., 2011, 12(1): 184-193. doi: 10.1109/ TITS.2010.2076349.
Scene Adaptive Road Segmentation Algorithm Based on Deep Convolutional Neural Network
WANG Hai①CAI Yingfeng②JIA Yunyi③CHEN Long②JIANG Haobin①
①(,,212013,)②(,,212013,)③(,,29634,)
The existed machine learning based road segmentation algorithms maintain obvious shortage that the detection effect decreases dramatically when the distribution of training samples and the scene target samples does not match. Focusing on this issue, a scene adaptive road segmentation algorithm based on Deep Convolutional Neural Network (DCNN) and auto encoder is proposed. Firstly, classic Slow Feature Analysis (SFA) and Gentle Boost based method is used to generate online samples whose label contain confidence value. After that, using the automatic feature extraction ability of DCNN and performing source-target scene feature similarity calculation with deep auto-encoder, a composite deep structure based scene adaptive classifier and its training method are designed. The experiment on KITTI dataset demonstrates that the proposed method outperforms the existed machine learning based road segmentation algorithms which upgrades the detection rate on average of around 4.5%.
Road segmentation; Scene adaptive; Deep Convolutional Neural Network (DCNN); Composite deep structure; Auto-encoder
TP391.4
A
1009-5896(2017)02-0263-07
10.11999/JEIT160329
2016-04-05;改回日期:2016-08-22;
2016-10-21
蔡英鳳 caicaixiao0304@126.com
國家自然科學(xué)基金(U1564201, 61601203, 61573171, 61403172),中國博士后基金(2014M561592, 2015T80511),江蘇省重點研發(fā)計劃(BE2016149),江蘇省自然科學(xué)基金(BK20140555),江蘇省六大人才高峰項目(2015-JXQC-012, 2014-DZXX-040)
The National Natural Science Foundation of China (U1564201, 61601203, 61573171, 61403172), The China Postdoctoral Science Foundation (2014M561592, 2015T80511), The Key Research and Development Program of Jiangsu Province (BE2016149), The Natural Science Foundation of Jiangsu Province (BK20140555), The Six Talent Peaks Project of Jiangsu Province (2015-JXQC-012, 2014-DZXX-040)
王 海: 男,1983年生,博士,副教授,研究方向為機器視覺、模式識別及其在智能車上的應(yīng)用.
蔡英鳳: 女,1985年生,博士,副教授,研究方向為機器視覺、模式識別及其在智能交通系統(tǒng)中的應(yīng)用.
賈允毅: 男,1983年生,博士,助理教授,研究方向為機器人、智能制造和智能車輛研究.
陳 龍: 男,1958年生,博士,教授,研究方向為智能車動力學(xué)建模及控制方法研究.
江浩斌: 男,1969年生,博士,教授,研究方向為車輛轉(zhuǎn)向、懸架及動力學(xué)建模研究.