999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度卷積神經(jīng)網(wǎng)絡(luò)的場景自適應(yīng)道路分割算法

2017-10-13 22:09:40蔡英鳳賈允毅江浩斌
電子與信息學(xué)報 2017年2期
關(guān)鍵詞:深度特征方法

王 海 蔡英鳳 賈允毅 陳 龍 江浩斌

?

基于深度卷積神經(jīng)網(wǎng)絡(luò)的場景自適應(yīng)道路分割算法

王 海①蔡英鳳*②賈允毅③陳 龍②江浩斌①

①(江蘇大學(xué)汽車與交通工程學(xué)院 鎮(zhèn)江 212013)②(江蘇大學(xué)汽車工程研究院 鎮(zhèn)江 212013)③(克萊姆森大學(xué)汽車工程系 美國南卡羅拉納州 29634)

現(xiàn)有基于機器學(xué)習(xí)的道路分割方法存在當訓(xùn)練樣本和目標場景樣本分布不匹配時檢測效果下降顯著的缺陷。針對該問題,該文提出一種基于深度卷積網(wǎng)絡(luò)和自編碼器的場景自適應(yīng)道路分割算法。首先,采用較為經(jīng)典的基于慢特征分析(SFA)和GentleBoost的方法,實現(xiàn)了帶標簽置信度樣本的在線選取;其次,利用深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)深度結(jié)構(gòu)的特征自動抽取能力,輔以特征自編碼器對源-目標場景下特征相似度度量,提出了一種采用復(fù)合深度結(jié)構(gòu)的場景自適應(yīng)分類器模型并設(shè)計了訓(xùn)練方法。在KITTI測試庫的測試結(jié)果表明,所提算法較現(xiàn)有非場景自適應(yīng)道路分割算法具有較大的優(yōu)越性,在檢測率上平均提升約4.5%。

道路分割;場景自適應(yīng);深度卷積神經(jīng)網(wǎng)絡(luò);復(fù)合深度結(jié)構(gòu);自編碼器

1 引言

道路分割是計算機視覺中一項重要的技術(shù),它在自動駕駛、智能車技術(shù)和道路障礙物檢測等應(yīng)用中都具有重要的價值。傳統(tǒng)道路分割常采用兩類方法:基于雙目視覺深度圖的方法和基于運動的方法。例如,Ladicky等人[7]提出了一個能量最小化的框架,采用條件隨機場進行深度重構(gòu),Sturgess等人[8]則以包括高度、投影表面方向,特征跟蹤密度等5個運動指標對道路進行分割。但是,上述兩類方法均需要極大的計算資源,難以滿足智能車應(yīng)用中實時性的要求。近年來,基于機器學(xué)習(xí)的框架被逐漸引入到路面分割中。該框架下,圖像中的像素(像素塊)都被輸入到一個分類器中,并被賦予“路面”或“非路面”的標簽。該過程中,分類器的獲取有著至關(guān)重要的作用,其往往通過準備大量的道路圖片所組成的通用樣本庫,再結(jié)合人工設(shè)計的特征進行訓(xùn)練。例如,Kühnl等人[9]面向單目視覺圖像,提出一種基于SFA和GentleBoost的道路分割方法。肖良等人[10]提出一種基于字典學(xué)習(xí)與稀疏表示的非結(jié)構(gòu)化道路分割方法。李駿揚等人[11]則面向城市環(huán)境,提出一種基于多尺度特征表示和稀疏編碼的城市道路檢測方法。Alvarez等人[12]提出一種基于多尺度特征集成和卷積神經(jīng)網(wǎng)絡(luò)的方法。以上基于機器學(xué)習(xí)的道路分割算法大大減低了計算強度,但是也存在部分場景下分割效果不佳的問題。其原因有兩點:(1)現(xiàn)有分類器訓(xùn)練中的人工特征表達能力有限,難以對部分復(fù)雜場景下的道路進行表達;(2)實際待檢測場景具有多樣性,當其視覺形式和通用樣本庫中的樣本均差異較大時,所訓(xùn)練的分類器往往失效。

針對以上兩點現(xiàn)有研究中的不足,本文從樣本特征抽取和場景自適應(yīng)學(xué)習(xí)分類器模型的建立這兩方面出發(fā)。首先,基于深度學(xué)習(xí)理論,利用通用樣本庫,以深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)深度結(jié)構(gòu)的特征自動學(xué)習(xí)能力對適用于道路分割的圖像特征進行自動抽取;其次,以基于離線訓(xùn)練的分類器對新場景下樣本進行提取并對其標簽賦予置信度,再以特征自編碼器對源-目標場景特征相似度度量,給相似度高的特征賦予更高的權(quán)值并重新訓(xùn)練DCNN分類器,從而實現(xiàn)了一種采用深度結(jié)構(gòu)的場景自適應(yīng)分類器模型并設(shè)計了訓(xùn)練方法。

2 新場景道路樣本自動選取

為實現(xiàn)場景自適應(yīng)的道路分割分類器訓(xùn)練,首先需要在新場景下自動獲取帶標記的道路樣本。本節(jié)采用Tobias等提出的基于慢特征分析(Slow Feature Analysis, SFA)和GentleBoost的方法,該方法中輸入新場景下的道路圖像,經(jīng)判斷輸出對應(yīng)的置信圖,從而實現(xiàn)對圖像塊帶置信度的標簽(道路、非道路)的賦予。該方法簡述如下:

(1)基于SFA的特征提取:Wiskott和Sejnowski[13]在2002年提出了慢特征分析(SFA)原理,用以提取出輸入信號中隱含變化緩慢的部分。對于一個輸入維輸入信號,慢特征分析通過一組輸入輸出函數(shù),使得輸出信號中各個分量的變化盡可能緩慢。文獻[13]采用對時間的一階導(dǎo)數(shù)平方均值的方法來衡量變化的速率。于是,對于每個輸出信號的分量,在下述框架下求解變化速率最慢的優(yōu)化問題:

目標函數(shù):

約束條件:

(2)

(4)

在本文應(yīng)用中,待判斷圖像塊首先被向量化,然后進行SFA提取。所選取多個時刻的多個圖像塊Pi的大小均為像素,各圖像塊被向量化成一個空間信號,并集成為一個矩陣。的維數(shù)為,其中為樣本數(shù)目,為原始圖像塊向量的維數(shù)。采用式(1)-式(4)所描述的優(yōu)化問題對進行變換,抽取出對應(yīng)的緩變特征。

(2)基于GentleBoost的分類器訓(xùn)練:在圖像塊的分類中,首先將圖像塊表征為SFA特征、Walsh Hadamard 紋理特征和RGB顏色特征的特征集合,然后選用經(jīng)典的GentleBoost 分類算法對其進行分類,最終輸出帶標簽置信度的道路圖像。

3 采用DCNN及自編碼器的場景自適應(yīng)分類器訓(xùn)練

上一節(jié)采用較為經(jīng)典的基于SFA和Gentle Boost的方法,實現(xiàn)了帶標簽置信度樣本的在線選取。本節(jié)進一步提出面向道路分割的場景自適應(yīng)學(xué)習(xí)的訓(xùn)練模型(如圖1所示)。該模型在訓(xùn)練階段以離線得到的源場景訓(xùn)練樣本和在線得到的新場景(即目標場景)訓(xùn)練樣本共同作為輸入,并可以同時完成分類識別和自動編碼重構(gòu)。

在特征抽取方面,本文采用一組兩層的深度卷積神經(jīng)網(wǎng)絡(luò)DCNN進行實施,如圖2所示。在這里,選擇深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)模型進行特征學(xué)習(xí),是出于其本身結(jié)構(gòu)優(yōu)勢以及如下優(yōu)點考慮[14]:(1)作為深度學(xué)習(xí)常用模型之一,DCNN是一種生物啟發(fā)訓(xùn)練的架構(gòu),它隱式地從訓(xùn)練數(shù)據(jù)中進行學(xué)習(xí),這使得它能通過結(jié)構(gòu)重組和減少權(quán)值將特征提取功能融合進多層感知器;(2)DCNN局部權(quán)值共享的特殊結(jié)構(gòu)在圖像處理方面有著獨特的優(yōu)越性,其布局更接近于實際的生物神經(jīng)網(wǎng)絡(luò),權(quán)值共享降低了網(wǎng)絡(luò)的復(fù)雜性,特別是多維輸入向量的圖像可以直接輸入網(wǎng)絡(luò)這一特點避免了特征提取和分類過程中數(shù)據(jù)重建的高復(fù)雜度計算過程。

圖1 復(fù)合深度模型示意圖

圖2 DCNN的具體結(jié)構(gòu)及參數(shù)

該DCNN包括一個輸入層,兩組卷積-下采樣層及一個特征向量輸出層。其輸入層大小為像素,該尺寸和所有待訓(xùn)練樣本的像素尺寸保持一致。兩組隱層均采用大小為的卷積核,下采樣濾波器大小均為,選用“池最大”操作。因此,兩組隱層的卷積層和下采樣層C1,S1,C2,S2大小分別為,,,。特征層和下采樣層S2及下采樣層S1的二次下采樣層相連,共包含600個神經(jīng)元。在該結(jié)構(gòu)中,特征向量輸出層實質(zhì)是由下采樣層S1和S2共同構(gòu)建,其目的是保留圖像在多尺度下的特征信息。

在DCNN特征抽取的基礎(chǔ)上,所提復(fù)合深度模型的結(jié)構(gòu)如圖1所示。圖1中,DCNN特征輸入層基礎(chǔ)上,增加了兩個隱層和,一個重構(gòu)隱層,一個重構(gòu)特征層以及一個分類標簽。上述結(jié)構(gòu)中,隱層,,和重構(gòu)特征實質(zhì)上是構(gòu)成了一個服務(wù)于特征的自動編碼器,該自動編碼器僅接受從目標場景獲取的樣本并進行特征重構(gòu)誤差計算用以對DCNN所抽取的特征進行源場景-目標場景的分布相似性評估。以上層間的參數(shù)傳遞按照式(5)-式(9)進行。

(6)

(7)

(9)

該網(wǎng)絡(luò)的訓(xùn)練方法如下:不妨設(shè)第個訓(xùn)練樣本在DCNN中所抽取的特征為,其對應(yīng)的標簽為,則該訓(xùn)練樣本所對應(yīng)的參數(shù)集為。其中,如果該樣本屬于目標場景,則令;反之,。是樣本的置信度,如果樣本屬于源場景,則;反之,,由GentleBoost分類器確定。在訓(xùn)練樣本參數(shù)集設(shè)定完成的基礎(chǔ)上,我們以反向傳播(Back-Propagation, BP)算法對,等網(wǎng)絡(luò)權(quán)值進行訓(xùn)練,并設(shè)計了如下的目標函數(shù):

4 實驗與分析

4.1離線訓(xùn)練樣本準備

本文的訓(xùn)練樣本來自于劍橋駕駛標記視頻庫(CamVid)[15]。該庫采用放置于車輛前擋風(fēng)玻璃的攝像頭,在城市環(huán)境下,在不同的時間段采集了大量的道路視頻。更為重要的是,該庫提供了對道路圖片像素屬性的人工標注,其屬性包括道路、行人、車輛等共20余類,本應(yīng)用中僅利用其道路-非道路的二分類。CamVid中的每張圖片都含有大量標記為道路和非道路的像素區(qū)域,若以遍歷的方式對圖像所有子區(qū)域均進行選取并作為訓(xùn)練樣本容易產(chǎn)生大量的高相關(guān)訓(xùn)練樣本,即重復(fù)樣本,造成樣本分布的不合理。針對此問題,這里引入了一種過分割方法,即超像素的概念,即將圖像中具有相同或相似特征屬性的近鄰像素聚合成一個組,并命名為一個超像素。通過超像素分割,實現(xiàn)了同質(zhì)近鄰像素的合并,大大減少了同質(zhì)樣本的數(shù)量。CamVid數(shù)據(jù)庫中的部分數(shù)據(jù)如圖3所示,圖3中第1列為原始圖片、第2列為采用SLIC超像素分割算法分割后的圖片,其中超像素平均大小約束為像素,第3列為帶像素標簽人工標記的圖片。在本文應(yīng)用中,共選取CamVid多個場景下的訓(xùn)練圖片800張,并在其中選取包括道路、非道路在內(nèi)的樣本50000個(圖3所示)。

4.2 測試數(shù)據(jù)庫

本文的測試數(shù)據(jù)庫選用了KITTI視覺標準庫[16],和CamVid視頻庫類似,該視覺庫采用一個旅行車,安裝有兩個高分辨率彩色和灰度攝像機拍攝德國卡爾斯魯厄市的部分真實環(huán)境下的視頻和圖像,并在一臺Velodyne公司的64線激光雷達的幫助下完成了各種人工基準(baseline)標記。KITTI視覺標準庫中劃分了雙目、光流、圖像屬性、3D檢測和3D跟蹤在內(nèi)的子庫,本文采用了其中的2013道路/道線檢測評估庫,其采集了3個場景(UM, UMM, UU)下共579幅道路圖片,并人工將各圖像像素標記為路面區(qū)域和非路面區(qū)域(圖4所示)。其中,UM(Urban Marked)是帶車道標線的城區(qū)道路、UMM(Urban Multiple Marked)是帶多個車道標線的城區(qū)道路、UU(Urban Unmarked)是不帶車道標線的城區(qū)道路。

4.3 實驗結(jié)果與分析

本文所提算法包括在線樣本選取和標記及自適應(yīng)訓(xùn)練兩個步驟。在線樣本生成中,測試數(shù)據(jù)庫的3個場景下各選取了5張圖片用于進行基于SFA和GentleBoost的新樣本生成,其中SFA和GentleBoost的參數(shù)設(shè)置和文獻[9]一致。實驗中,所選取的3個場景共15張圖片仍采用先進行超像素分割,再進行分類的方案,最終共生成了約900個帶標簽置信度新樣本,部分圖片的處理結(jié)果如圖5所示。圖5(a)為道路原始圖片,圖5(b)是超像素分割圖,圖5(c)為道路分類圖,其中亮色區(qū)域表明分類為道路的像素,暗色為分類為非道路的像素,且其檢測為道路的置信度和亮度大小成正比。

在新樣本生成后,將在線所選取新樣本和離線訓(xùn)練樣本一起輸入到所提的采用DCNN及自編碼器的場景自適應(yīng)分類器中進行訓(xùn)練,并在測試數(shù)據(jù)庫中進行測試。測試圖片為3個場景圖中除去15張用于在線樣本生成外的其余所有道路圖片,共564張。為對所提算法進行評估,本算法和現(xiàn)有若干主流圖像道路分割算法進行了比較,包括:(1)基于顏色和紋理融合的路面識別方法[17];(2)僅采用離線數(shù)據(jù)庫的基于SFA和GentleBoost的道路分割方法[6];(3)僅采用離線數(shù)據(jù)庫的基于DCNN訓(xùn)練的道路分割方法;(4)僅采用離線數(shù)據(jù)庫的基于DDN(Deep Deconvolutional Networks)的方法。在對比實驗中,選取的評價指標為(準確率)和(召回率)。其中,表示3種測試場景。

本文方法和已有方法的實驗結(jié)果如表1所示,部分圖像的處理結(jié)果如圖6所示。圖6中,第1行為原圖,第2行為采用顏色和紋理融合的方法,第3行為采用離線數(shù)據(jù)庫的基于SFA和GentleBoost的方法,第4行為離線數(shù)據(jù)庫采用DDN的方法,第5行為本文所提采用DCNN及自編碼器的場景自適應(yīng)方法所進行的道路分割效果。

圖3 離線訓(xùn)練樣本準備

圖4 KITTI2013道路/道線檢測評估庫

圖5 帶標簽置信度新樣本生成

從表1中實驗結(jié)果和圖6中的部分分割對比圖中可以看出,在3個測試場景下,由于具有特征自學(xué)習(xí)及在新場景下自動調(diào)整的能力,所提基于DCNN及自編碼器的場景自適應(yīng)道路分割算法均具有最好的道路分割效果。此外,由于具有特征自學(xué)習(xí)能力,基于DDN及DCNN的方法也優(yōu)于傳統(tǒng)基于人工特征的SFA和GentleBoost的方法以及基于顏色和紋理融合的方法。相較于采用離線數(shù)據(jù)庫訓(xùn)練的各道路分割算法,本文所提出的采用DCNN及自編碼器的場景自適應(yīng)道路分割方法在3個測試場景下平均提升4.5%左右。在算法耗時上,采用傳統(tǒng)非深度學(xué)習(xí)的兩種方法具有較少的計算復(fù)雜度,耗時較少,耗時均在0.2 s左右;而3種采用深度學(xué)習(xí)的方法因為網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,訓(xùn)練參數(shù)多,平均對一幅圖片的檢測時間在2 s左右。

表1 KITTI測試庫中本文算法與現(xiàn)有算法比較

圖6 實驗結(jié)果對比

5 結(jié)束語

本文提出一種基于深度卷積網(wǎng)絡(luò)的場景自適應(yīng)道路分割算法。文中在采用DCNN進行特征自抽取的基礎(chǔ)上,針對源場景-目標場景樣本分布不匹配的問題,以特征自編碼器對各個特征表征下的源-目標場景樣本相似度進行度量,將高相似度特征即“更有價值”的特征賦予相對較高的權(quán)值并重新訓(xùn)練分類器,從而較好地實現(xiàn)了場景自適應(yīng)的分類器訓(xùn)練。

算法分為兩步,首先基于SFA和GentleBoost的方法,實現(xiàn)了帶標簽置信度樣本的在線選取;其次,利用DCNN深度結(jié)構(gòu)的特征自動抽取能力,輔以特征自編碼器對源-目標場景樣本相似度度量,提出了一種采用復(fù)合深度結(jié)構(gòu)的場景自適應(yīng)分類器模型并設(shè)計了訓(xùn)練方法。在KITTI數(shù)據(jù)集上的測試結(jié)果表明,所提算法較現(xiàn)有非場景自適應(yīng)道路分割算法具有較大的優(yōu)越性,分割準確率提升約4.5%。

[1] 余天洪, 王榮本, 顧柏園, 等. 基于機器視覺的智能車輛前方道路邊界及車道標識識別方法綜述[J]. 公路交通科技, 2006, 38(8): 139-142.

YU Tianhong, WANG Rongben, GU Baiyuan,. Survey on the vision-based recognition methods of intelligent vehicle road boundaries and lane markings[J]., 2006, 38(8): 139-142.

[2] ZHOU H, KONG H, WEI L,. Efficient road detection and tracking for unmanned aerial vehicle[J]., 2015, 16(1): 297-309. doi:10.1109/TITS.2014.2331353.

[3] SHIN B S, XU Z, and KLETTE R. Visual lane analysis and higher-order tasks: a concise review[J]., 2014, 25(6): 1519-1547. doi:10.1007/s00138- 014-0611-8.

[4] HILLEL A B, LERNER R, LEVI D,. Recent progress in road and lane detection: a survey[J]., 2014, 25(3): 727-745. doi:10.1007/s00138-011- 0404-2.

[5] PAZ L M, PINIES P, and NEWMAN P. A variational approach to online road and path segmentation with monocular vision[C]. 2015 IEEE International Conference on Robotics and Automation (ICRA), Seattle, USA, 2015: 1633-1639. doi:10.1109/ICRA.2015.7139407.

[6] PASSANI M, YEBES J J, and BERGASA L M. Fast pixelwise road inference based on Uniformly Reweighted Belief Propagation[C]. 2015 IEEE Intelligent Vehicles Symposium (IV), Seoul, Korea, 2015: 519-524. doi:10.1109/ IVS.2015.7225737.

[7] LADICKY L, STURGESS P, RUSSELL C,. Joint optimization for object class segmentation and dense stereo reconstruction[J]., 2012, 100(2): 122-133. doi:10.1007/s11263-011-0489-0.

[8] STURGESS P, ALAHARI K, LADICKY L,. Combining appearance and structure from motion features for road scene understanding[C]. BMVC 2012-23rd British Machine Vision Conference, Guildford, UK, 2012: 1-10.

[9] KUHNL T, KUMMERT F, and FFITACH J. Monocular road segmentation using slow feature analysis[C]. 2011 IEEE Conference on Intelligent Vehicles Symposium (IV), Baden-Baden, Germany, 2011: 800-806. doi:10.1109/IVS.2011. 5940416.

[10] 肖良, 戴斌, 吳濤, 等. 基于字典學(xué)習(xí)與稀疏表示的非結(jié)構(gòu)化道路分割方法[J]. 吉林大學(xué)學(xué)報(工學(xué)版), 2013, 43(S1): 384-388.

XIAO Liang, DAI bin, WU Tao,. Unstructured road segmentation method based on dictionary learning and sparse representation[J].(), 2013, 43(S1): 384-388.

[11] 李駿揚, 金立左, 費樹岷, 等. 基于多尺度特征表示的城市道路檢測[J]. 電子與信息學(xué)報, 2014, 36(11): 2578-2585. doi: 10.3724/SP.J.1146.2014.00271.

LI Junyang, JIN Lizuo, FEI Shumin,. Urban road detection based on multi-scale feature representation[J].&, 2014, 36(11): 2578-2585. doi: 10.3724/SP.J.1146.2014.00271.

[12] ALVAREZ J M, LECUN Y, GEVERS T,. Semantic road segmentation via multi-scale ensembles of learned features[C].2012 Workshops and Demonstrations Computer Vision of ECCV, Firenze, Italy, 2012: 586-595. doi:10.1007/978-3-642- 33868-7_58.

[13] WISKOTT L and SEJNOWAKI T J. Slow feature analysis: unsupervised learning of invariances[J]., 2002, 14(4): 715-770. doi: 10.1162/089976602317318938.

[14] KRIZHEVAKY A, SUTAKEVER I, and HINTON G E.Imagenet classification with deep convolutional neural networks[C]. Advances in Neural Information Processing Systems. South Lake Tahoe, Nevada, USA, 2012: 1097-1105.

[15] BROSTOW G J, FAUQUEUR J, and CIPOLLA R. Semantic object classes in video: A high-definition ground truth database[J]., 2009, 30(2): 88-97. doi: 10.1016/j.patrec.2008.04.005.

[16] GEIGER A, LENZ P, and URTASUN R. Are we ready for autonomous driving? The kitti vision benchmark suite[C]. 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Providence, RI, USA, 2012: 3354-3361. doi: 10.1109/CVPR.2012.6248074.

[17] áLVAREZ J M and LOPEZ A M. Road detection based on illuminant invariance[J]., 2011, 12(1): 184-193. doi: 10.1109/ TITS.2010.2076349.

Scene Adaptive Road Segmentation Algorithm Based on Deep Convolutional Neural Network

WANG Hai①CAI Yingfeng②JIA Yunyi③CHEN Long②JIANG Haobin①

①(,,212013,)②(,,212013,)③(,,29634,)

The existed machine learning based road segmentation algorithms maintain obvious shortage that the detection effect decreases dramatically when the distribution of training samples and the scene target samples does not match. Focusing on this issue, a scene adaptive road segmentation algorithm based on Deep Convolutional Neural Network (DCNN) and auto encoder is proposed. Firstly, classic Slow Feature Analysis (SFA) and Gentle Boost based method is used to generate online samples whose label contain confidence value. After that, using the automatic feature extraction ability of DCNN and performing source-target scene feature similarity calculation with deep auto-encoder, a composite deep structure based scene adaptive classifier and its training method are designed. The experiment on KITTI dataset demonstrates that the proposed method outperforms the existed machine learning based road segmentation algorithms which upgrades the detection rate on average of around 4.5%.

Road segmentation; Scene adaptive; Deep Convolutional Neural Network (DCNN); Composite deep structure; Auto-encoder

TP391.4

A

1009-5896(2017)02-0263-07

10.11999/JEIT160329

2016-04-05;改回日期:2016-08-22;

2016-10-21

蔡英鳳 caicaixiao0304@126.com

國家自然科學(xué)基金(U1564201, 61601203, 61573171, 61403172),中國博士后基金(2014M561592, 2015T80511),江蘇省重點研發(fā)計劃(BE2016149),江蘇省自然科學(xué)基金(BK20140555),江蘇省六大人才高峰項目(2015-JXQC-012, 2014-DZXX-040)

The National Natural Science Foundation of China (U1564201, 61601203, 61573171, 61403172), The China Postdoctoral Science Foundation (2014M561592, 2015T80511), The Key Research and Development Program of Jiangsu Province (BE2016149), The Natural Science Foundation of Jiangsu Province (BK20140555), The Six Talent Peaks Project of Jiangsu Province (2015-JXQC-012, 2014-DZXX-040)

王 海: 男,1983年生,博士,副教授,研究方向為機器視覺、模式識別及其在智能車上的應(yīng)用.

蔡英鳳: 女,1985年生,博士,副教授,研究方向為機器視覺、模式識別及其在智能交通系統(tǒng)中的應(yīng)用.

賈允毅: 男,1983年生,博士,助理教授,研究方向為機器人、智能制造和智能車輛研究.

陳 龍: 男,1958年生,博士,教授,研究方向為智能車動力學(xué)建模及控制方法研究.

江浩斌: 男,1969年生,博士,教授,研究方向為車輛轉(zhuǎn)向、懸架及動力學(xué)建模研究.

猜你喜歡
深度特征方法
深度理解一元一次方程
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
深度觀察
深度觀察
深度觀察
抓住特征巧觀察
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 亚洲AⅤ综合在线欧美一区| 国产午夜一级毛片| 精品国产91爱| 久久综合色播五月男人的天堂| 国产嫖妓91东北老熟女久久一| 国产高潮流白浆视频| 国产成人一区在线播放| 蜜臀av性久久久久蜜臀aⅴ麻豆 | 精品视频免费在线| 视频二区亚洲精品| 日本久久免费| 国产美女自慰在线观看| 国产免费网址| a毛片免费在线观看| 精品福利网| 精品无码一区二区三区电影| 久久免费视频6| 中文字幕永久视频| 午夜影院a级片| 久久99蜜桃精品久久久久小说| yjizz视频最新网站在线| 国产99在线| 国产精品九九视频| 亚洲美女一级毛片| 欧美性爱精品一区二区三区| 狠狠ⅴ日韩v欧美v天堂| 日本国产在线| 国产理论最新国产精品视频| 精品伊人久久久久7777人| 国产偷国产偷在线高清| 欧美日韩一区二区三区在线视频| 色综合中文字幕| 一本色道久久88综合日韩精品| 91香蕉视频下载网站| 国产一区二区在线视频观看| 久草中文网| 欧美日韩国产系列在线观看| 露脸真实国语乱在线观看| 日本少妇又色又爽又高潮| 午夜无码一区二区三区| 黄色污网站在线观看| 丁香亚洲综合五月天婷婷| 国产丝袜啪啪| 在线不卡免费视频| 免费一级全黄少妇性色生活片| 亚洲精品无码专区在线观看| 人妻无码中文字幕一区二区三区| 国内丰满少妇猛烈精品播| 亚洲AV无码一二区三区在线播放| 国产网站在线看| 日韩乱码免费一区二区三区| 国产精品人人做人人爽人人添| 欧美日韩国产成人在线观看| 强乱中文字幕在线播放不卡| 亚洲国产天堂久久综合226114| 久久综合九九亚洲一区| 国产97色在线| 欧美一区福利| 欧美一级大片在线观看| 国产激情第一页| 影音先锋亚洲无码| 久久精品波多野结衣| 日韩黄色在线| 亚洲精品在线91| 婷婷色一区二区三区| 97国内精品久久久久不卡| 日韩在线永久免费播放| 久久狠狠色噜噜狠狠狠狠97视色| 久久窝窝国产精品午夜看片| 香蕉视频国产精品人| 视频一本大道香蕉久在线播放 | A级毛片高清免费视频就| 女人av社区男人的天堂| 国产三级视频网站| www精品久久| 免费A∨中文乱码专区| 黄色福利在线| 国产成人啪视频一区二区三区| 中文字幕乱码二三区免费| 在线观看国产网址你懂的| 2021国产在线视频| 欧美一级视频免费|