張偉偉 宋曉琳 張三林 吳訓成
1.湖南大學汽車車身先進設計制造國家重點實驗室,長沙,4100822.上海工程技術大學,上海,201620
基于軟硬件協同設計的車道線實時識別方法
張偉偉1宋曉琳1張三林1吳訓成2
1.湖南大學汽車車身先進設計制造國家重點實驗室,長沙,4100822.上海工程技術大學,上海,201620
為兼顧車道識別的魯棒性和實時性,綜合考慮硬件設計資源和軟件功能的有效分配,設計了一種基于嵌入式平臺的車道線識別方法。從整個系統的生產消費模型考慮,提出了匹配增強的必要性,并根據車道線不同寬度特征,提出了多尺度匹配濾波方法;根據改進的恒虛警率檢測數學模型來估計局部噪聲水平從而確定最適應的動態提取閾值。以可編程邏輯門陣列(FPGA)采集高幀率、寬動態范圍的道路圖像,并以系數分解法實現匹配濾波的硬件加速優化設計。實驗和評估結果證明,該嵌入式系統可以在多種交通場景下魯棒地識別車道線特征點,處理速率達到每秒60幀。
多尺度匹配濾波器;恒虛警率;嵌入式系統;車道線識別
駕駛員的疏忽大意是導致交通事故的一個主要因素,而駕駛輔助系統能夠有效地減少由此而引發的交通事故。考慮到機器視覺算法在交通目標識別中的廣泛應用[1],很多學者對基于視覺的駕駛輔助系統開展了深入研究,其中包括車道偏離預警[2]、車道保持[3]、路徑規劃[4]等系統,而對車道線的識別是此類駕駛輔助系統的一項重要任務。然而,大部分車道線識別方法都受到陰影、光照、車道線污損、前方車燈反射等不良條件的影響,并由于其計算復雜度而不能工作于嵌入式平臺,表現出一定的局限性[5]。車輛交通場景往往復雜多變,圖像照度也可在0.01~10000lx間瞬間變化,車道線識別系統需要具備高幀率、寬動態范圍、實時檢測處理等特性,而由此引發的高速圖像數據流必然對軟件算法以及嵌入式硬件平臺處理能力提出更高的要求,需要從設計階段將二者協同考慮。
在軟件層次,作為典型的生產者/消費者模型,車道線的識別依次包括三個方面:圖像邊緣增強、車道線特征點的提取、車道線擬合,其中車道線特征點的提取最關鍵也最具挑戰性。因此,為便于車道線特征點提取,有必要在第一步圖像邊緣增強時優先減小光照變化的影響。人類眼睛的視網膜光感受器可根據其鄰域的亮度進行感光度自適應調節,這類似于伽馬校正功能,在車道線識別中可用于亮度補償[6]。
對于車道線特征點的提取,文獻[7]首先采用邊緣分布函數(EDF)來估算車道線的方向,然后利用霍夫變換提取邊緣點。但該方法屬于全局搜索算法,計算量較大,且在識別彎道上的車道虛線時可能會失效。文獻[8]首先根據周圍相鄰像素確定一個動態閾值,然后運用條件隨機場選取“超級像素點”。文獻[5]應用自聚類算法、模糊C均值和模糊控制方法實現自動亮度補償后,采用Canny算子提取車道線特征點。文獻[2]基于均值和標準差提出了一個3×3模板的邊緣檢測算子,對于256像素×256像素的圖像,其處理速率為每秒25幀。另外一些邊緣檢測算子也被用來在PC機平臺檢測車道線邊緣,如Laplace算子[9]、方向可調濾波器[10]等。
本文提出了一種基于嵌入式系統的車道線實時識別方法。該方法在伽馬校正后,應用多尺度高斯卷積核的匹配濾波器對不同道路場景下不同寬度的車道線區域進行有效增強,抑制了局部背景噪聲干擾;在此基礎上,采用自適應動態閾值提取出車道線特征點。文獻[2,7-8]提出了一些動態閾值的獲取方法,但其參數或系數都是依靠經驗設定的,缺乏相應的數學模型分析,在車道線特征點提取時,這些方法往往無法適應真實道路場景的需求。本文采用了基于車道線特征點的恒虛警率(constant false alarm rate,CFAR)檢測和局部灰度變動指數的自適應閾值,計算簡單,能從復雜的動態背景中快速確定檢測閾值。
在硬件層面,為適應劇烈變化的動態道路場景,采用了具有寬動態范圍(>110 dB)、以每秒60幀的速率輸出752像素×480像素的汽車工業級攝像頭。在初始階段,首先通過全局搜索的邊緣分布函數方法估計車道線的大致位置[7]。一旦確定初始車道線的位置,則進一步結合硬件計算特性和車道線識別算法進行加速運算:①在車道線跟蹤檢測階段,本幀的檢測區域集中在前幀車道線橫向鄰域搜索條內,且僅在若干固定像素行內搜索車道線,極大地降低了圖像數據流對存儲空間的需求;②利用可編程邏輯門陣列(FPGA)的并行計算能力執行圖像采集以及迭代性的圖像匹配增強等預處理任務;③為改善FPGA的運算性能,通過系數分解法實現了匹配濾波器在FPGA上的協同設計。最終,在結合查找表法進行伽馬校正的基礎上,單幀處理時間僅需11.64 ms,處理速率達到每秒60幀。
1.1匹配濾波原理
匹配濾波器的設計是基于待識別目標的空間特性來完成的,它能明顯增強有效信號,抑制噪聲干擾,從而實現輸出信號/干擾比最大化。在車道線識別中,匹配濾波器對目標周圍搜索條內的像素點進行采樣,圖1顯示了4種交通場景下車道像素點的灰度輪廓特征,其中,場景一表示雨天道路表面能見度較低,場景二表示晴天車道線較窄,場景三表示夜晚車燈干擾,場景四表示晴天車道線較寬。車道線在不同場景下具有不同的局部對比度、不同的輪廓寬度,圖1b中局部對比度最大,圖1d中車道線輪廓寬度最大,且這些采樣點的灰度截面較好地接近高斯輪廓曲線。

(a)場景一

(b)場景二

(c)場景三

(d)場景四圖1 不同交通場景下車道線的灰度輪廓
為簡化計算,車道線灰度輪廓特征表述為
Pv(x)=Ae-x2/(2w2)
(1)
式中,A為車道線灰度輪廓幅值;w為車道線輪廓分布幅度;x為檢測條內待檢測像素點相對于灰度輪廓內灰度值最大的像素點的距離。
同時,匹配濾波器設計為高斯內核函數[11]:
(2)
式中,σ為匹配濾波器尺度。
當車道線灰度輪廓的峰值中心與匹配濾波器的峰值中心重合時,匹配濾波器相對于車道線的響應達到其峰值:
(3)
其中,當前車道線輪廓幅值A假設為1,并替換(1/w2+1/σ2)為1/k2,則
(k2-σ2)e-x2/(2k2)]dx=
(4)
對式(4)進行求解,有
(5)

1.2多尺度匹配濾波
圖2a是與圖1對應的4個車道線灰度輪廓圖,圖2b是其多尺度濾波歸一化效果圖。圖中,ri(i=1,2,3)分別為尺度σi(i=1,2,3)下匹配濾波器的響應,P12為r1與r2的乘積,P23為r2與r3的乘積。在多尺度濾波器設計中,最大化規則(Lmax=max(r1,r2,r3))常用于融合多尺度響應[12],但它同時包含了大量的背景噪聲干擾,并且造成局部對比度降低,影響圖像分割效果。為了克服上述缺陷,利用不同尺度下匹配濾波器的響應特征,本文提出了一種多尺度匹配濾波方式——尺度乘積,即兩個不同尺度匹配濾波器響應的乘積:
Pi,j(m)=ri(m)rj(m)
(6)
式中,m為圖像像素點在檢測條內的橫向坐標索引值。

(a)濾波前

(b)濾波后圖2 多尺度匹配濾波
P12用來提取較窄的車道線輪廓區域;P23用來提取相對較寬的車道線輪廓區域。由圖2b可知,尺度乘積相比各尺度匹配濾波響應,能夠有效增強車道線特征點,同時抑制背景噪聲干擾,增強信噪比。最終,通過自適應閾值的方法,分別得到P12與P23對應的二值圖像;然后對其進行邏輯或運算,得到最終的二值圖像,從而將車道線特征點從圖像局部區域中準確提取出來。
2.1恒虛警率檢測原理
車道線特征點恒虛警率檢測是典型的二元假設檢驗問題。將車道線區域記為H0,車道線鄰域內的其他道路表面區域記為H1,則P(H0/H0)稱為檢測概率,記為PD;P(H0/H1)稱為虛警概率,記為PF。在整個道路圖像內,非車道線區域灰度值差異較大,但從車道線及其鄰域來看,H1區域各像素點的灰度強度基本符合小方差高斯分布,其像素密度分布函數為
(7)
式中,xi為H1區域內第i個待檢測像素點的灰度值;σH1、μH1分別為H1區域灰度的均值和方差。
不同場景下H1區域灰度強度差異較大,因此設定檢測門限U=k σH1+μH1,即檢測門限隨H1區域灰度強度變化而變化,則虛警概率為
(8)
式中,Φ(k)為標準正態分布的累積分布函數。
可見,PF與H1區域灰度強度無關,系數k由系統設定的虛警概率決定。
H1區域灰度強度通常是未知的,且在幀間隨光照、位置變化較大,因此無法事先確定自適應門限U,需根據待檢測單元兩側鄰域內參考像素的觀測值,動態估計其強度參數μH1和σH1。根據最大似然估計方法,μH1的最大似然估計為
(9)

(10)
式中,N為H1區域像素總數。
則此時自適應檢測門限為

(11)
通過將自適應檢測門限U與待檢測單元像素進行比較,即可判斷像素點是否為車道線特征點。然而,以上檢測器的設計是針對點目標的,車道線往往具有一定的寬度,其特征點往往同時出現在檢測單元兩側的參考單元內,從而造成檢測單元的判決門限升高,造成大量正確特征點目標的漏檢。因此,需依據車道線最大寬度空出若干距離單元(稱為護衛單元),防止其作為參考單元參與H1區域灰度強度的估計。車道線候選特征點的恒虛警率檢測方法原理如圖3所示,其中左側的參考單元命名為引導窗,右側的參考單元命名為拉后窗。

圖3 車道線候選特征點的恒虛警率檢測原理
2.2改進的恒虛警率檢測
在車道線的恒虛警率檢測中,假設H1區域為勻質區域,其內的灰度強度符合小方差高斯分布。然而,為了更好地估計背景噪聲而在H1區域內選取較多參考像素時,該假設很可能不再成立,尤其是在實際交通場景中的一些非勻質的環境中,如陰影、車道線磨損、雨天道路表面反射甚至雙實線區域等。因此,在此類環境中,車道線恒虛警率檢測器的性能必然不能達到理論設計要求。為克服該缺陷,基于灰度變動指數設計了智能的背景選擇邏輯。以檢測右側車道線為例,車道線恒虛警率檢測器的背景選擇邏輯如圖4所示。

圖4 右車道線恒虛警率檢測的背景選擇邏輯
為了定量地估計采樣窗口內的灰度變動情況,圖4中的灰度變動指數(GVI)定義為
(12)
顯然,GVI的概率密度分布在采樣窗口內有背景干擾影響時有較大的變動,因此將其變動指數IGV與閾值KGVI相比較,以判斷待測試像素點是否處于勻質環境:IGV≤KGVI時為勻質環境,IGV>KGVI時為非勻質環境。
在實際交通場景中,相對于車道中間的車輛可行駛區域,道路兩側的圖像灰度強度更易受灰塵、樹木草叢以及陰影等影響。因此設計背景選擇邏輯時,對右車道線要優先選擇其左側的引導窗口作為采樣窗口,如圖4所示;反之,對左車道線要優先選擇其右側的拉后窗口作為采樣窗口。若在一側窗口內勻質環境假設不成立,則有必要將另一個窗口甚至整個參考窗口都進行驗證,以確保恒虛警率檢測器的采樣窗口內的像素灰度分布符合高斯模型假設。
圖5顯示了基于多尺度匹配濾波的改進的恒虛警率檢測器(GV-CFAR)相對于經典的拉普拉斯邊緣算子與OTSU[13]自適應閾值法(Laplace-OTSU)的優勢。在白天正常的天氣條件下,Laplace-OTSU和GV-CFAR能檢測出同樣有效的車道線特征點;然而,在雨天和夜晚,Laplace-OTSU難以從低對比度環境中提取出有效的車道線特征點,尤其是在雨天中,產生了較多的異常干擾特征點。

(a)原始圖像 (b)灰度圖像 (c)Laplace-OTSU車道特征點(d)GV-CFAR車道特征點圖5 不同道路場景的車道線特征點提取結果
3.1硬件加速平臺設計
為使車道線識別算法能在汽車工業領域實時應用,嵌入式平臺采用ARM Cortex A8作為微處理器,并搭載FPGA作為圖像預處理加速引擎,二者之間采用雙通道高速SPI總線進行通信。該平臺的電源系統采用低壓差線性穩壓器,輸入電壓區間可達4~60 V,適合車載系統應用,功耗不高于1.5 W。圖6為硬件系統架構框圖與相應的軟件任務分配示意圖,圖中也顯示了相應的芯片型號。
FPGA內專用乘法器有限(XC3S50A僅3個乘法器),且在同一系列運算中,經過優化的硬件乘法器也很難比通用加法器的性能優越,因此,預先將匹配濾波器的系數用定點數表示,在對系數分解的基礎上,采用通用加法器替代乘法器。此外,如果濾波器的系數是2的冪,則相應的乘法可通過移位邏輯計算,這種移位無須硬件資源即可直接在FPGA上實現。圖7所示為采用加法器實現匹配濾波的過程。

圖6 嵌入式硬件系統架構與軟件任務分配圖

圖7 基于FPGA硬件加法器的匹配濾波
在圖7中,I為經過伽馬校正后輸入的像素值,Q為輸出結果。如圖7的頂部所示,匹配濾波器的高斯系數設計為(1,3,8,18,37,68,112,165,218,258,272,258,218,165,112,68,37,18,8,3,1), 其系數關于第11個中心值對稱,且總和為2048,即可用分辨率為211的定點數表示其移位除數,以使濾波器系數總和為1。每個一維濾波器需要9次乘法(因為對稱且系數1和8是2的冪,可用移位運算代替)和20次加法。因有6個系數可以表示成兩個2的冪數的和或差,故可以將計算減少到3次乘法和25次加法(一次加法可以通過公因子消除去掉:272=4×68)。剩余的3次乘法同樣可以通過公因子來消除,各初始系數拆分為兩個新系數的和的形式(如37=2×18+1,165=37+128,218=8×18+2×37) 將乘法運算只用一次加法來替代。因此,整個1×21的濾波器僅需要28次加法就能實現,如圖7所示。
通過采用上述方法,單幀圖像處理時間可在11.64 ms內完成,圖8所示為單幀圖像處理的示波器時間記錄界面,其中,T1、T2、T3表示與圖6圖像幀處理對應的時間節點,而在圖6的時間軸中也詳細顯示了各階段圖像處理任務在相應硬件單元內的時間進度,處理速度達到每秒60幀。

圖8 單幀圖像處理時間性能
3.2結果分析
高速公路上,由于受攝像頭透射模型、匝道、車道線磨損等因素影響,車道線在道路圖像中成像寬度不一,多層匹配濾波器的尺度參數分別設計為6、11、21像素。試驗場景包含三段白天(含雨天)道路視頻以及兩段夜晚道路視頻,視頻圖像包含了不同車道線寬度以及不同動態范圍場景,其典型場景快照如圖9所示。

圖9 不同天氣光照場景的車道檢測圖像
如圖10所示,在13個固定行中分別設定了不同寬度的搜索條,其寬度約為車道線最大可能寬度的2倍。在局部擴大的方框內,每一個搜索條內均有部分像素點是多尺度匹配濾波器增強后由改進的恒虛警率檢測器檢測得到的有效候選特征點,而對于每一側的車道線,在每一行通過取箱型圖[14]的中值點作為該行的唯一待擬合車道線特征點,如圖10中圓圈的圓心所示。根據待擬合特征點數量,采用直線或拋物線擬合最終車道線,如圖9實線線型的車道線標識和圖10中實線/虛線的車道線標識。
車道線特征點檢測屬于典型的二分類問題,因此,為評估該車道線檢測機制的有效性,采用了信號檢測理論中兩個經典的評估工具:接收者操作特征曲線(ROC曲線)以及F1值曲線。通常以車道線特征點為正類,其他類為負類。車道線恒虛警檢測器在待測試交通視頻集上的預測或正確或不正確,4種情況出現的總數分別記作NTP(將正類預測為正類數)、NFN(將正類預測為負類數)、NFP(將負類預測為正類數)、NTN(將負類預測為負類數)。ROC曲線是在不同的特征點提取閾值TG下,真陽性率和假陽性率的聯合關系曲線,其中真陽性率PTR和假陽性率PFR分別定義為

(a)白天車道線識別

(b)夜晚車道線識別

(c)雨天車道線識別圖10 不同道路場景的車道線識別效果
由于整幅圖像中車道線像素所占的比例一般在1%~5%之間,只有ROC曲線的左半部分才能用于車道線性能評估,所以,F1值曲線用于補充分析。F1值曲線是特征點提取閾值TG的函數,定義為

用于性能評估的車道線特征點的標準參考值通過視頻幀間分片[15]后采用樣條曲線擬合的方法確定。通過以上評估工具將本算法與Laplace-OTSU全局閾值算法以及MLT-SLT局部閾值算法[16]進行了對比,如圖11所示。

(a)ROC曲線

(b)F1值曲線圖11 不同車道線特征點提取算法的ROC曲線和F1值曲線
在圖11的ROC曲線中,MLT-SLT算法性能較接近于GV-CFAR算法性能,而GV-CFAR算法的真陽性率在大部分區間均為0.93以上,覆蓋面積最大,優于其他兩個檢測算法。同時,F1值曲線顯示,在優化的特征點提取閾值45附近,GV-CFAR算法達到最大峰值,且該波峰值及其寬度明顯優于MLT-SLT和Laplace-OTSU算法。以上都說明GV-CFAR算法對不同交通場景下的背景干擾具有較強的魯棒性,能夠有效地提取不同寬度車道線的特征點。
(1)針對交通場景復雜多變、光照強度變化范圍大的特點,采用高幀率、寬動態范圍的攝像頭進行圖像采集,設計了車道線識別的嵌入式平臺,并利用FPGA的并行加速特性對匹配濾波等圖像預處理任務進行了系數分解的硬件優化設計,提高了硬件資源利用效率。
(2)針對不同交通場景下車道線具有不同局部對比度和不同寬度的特點,提出了多尺度匹配增強方法來提高車道線相對于道路表面其他干擾信號的比例,便于后續進行車道線特征點提取。
(3)提出了基于局部灰度變動指數的智能化恒虛警率快速檢測方法,該方法可以生成自適應的車道線特征點提取閾值。
(4)多工況下的實驗驗證和同類算法的評估結果表明,該車道線識別系統能夠穩定地對車道線進行識別,且該系統能夠以每秒60幀的速度采集并處理標準清晰度(752像素×480像素)的圖像。
下一步工作擬將已有算法與攝像機標定程序相結合,在世界坐標系內估計車輛相對于車道線的航向角變動信息,分析駕駛員的駕駛行為特性以及預測車道偏離的可能性。
[1]Jeffrey D, Anthony G. Autonomous Driving-a Practical Roadmap[J]. SAE Technical Paper, 2010-01-2335, 2010.
[2]Hsiao P, Yeh C, Huang S, et al. A Portable Vision-based Real-time Lane Departure Warning System: Day and Night[J]. IEEE Transactions on Vehicular Technology, 2009, 58(4): 2089-2094.
[3]陳無畏,王家恩,汪明磊,等.視覺導航智能車輛橫向運動的自適應預瞄控制[J].中國機械工程, 2014, 25(5): 698-704.
Chen Wuwei, Wang Jia’en, Wang Minglei, et al. Adaptive Preview Control of Vision Guided Intelligent Vehicle LateraI Movement[J]. China Mechanical Engineering, 2014, 25(5): 698-704.
[4]Glaser S, Vanholme B, Mammar S, et al.Maneuver-based Trajectory Planning for Highly Autonomous Vehicle on Real Road with Traffic and Driver Interaction[J]. IEEE Transactions on Intelligent Transport System, 2010, 11(3):589-606.
[5]Wang J, Lin C, Chen S.Applying Fuzzy Method to Vision-based Lane Detection and Departure Warning System[J]. Expert Systems with Applications, 2010, 37: 113-126.
[6]Yoo H, Yang U, Sohn K, et al.Gradient-Enhancing Conversion for Illumination-Robust Lane Detection[J]. IEEE Transactions on Intelligent Transport System, 2013, 14(3): 1083-1094
[7]Jung C, Kelber C. Lane Following and Lane Departure Using a Linear-parabolic Model[J]. Image and Vision Computing, 2005, 23: 1192-1202.
[8]Hur J, Kang S, Seo S.Multi-Lane Detection in Urban Driving Environments Using Conditional Random Fields[C]//2013 IEEE Intelligent Vehicles Symposium(IV). Gold Coast, Australia, 2013:1297-1302.
[9]Xin Wang. Laplacian Operator-based Edge Detectors[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(5): 886-890.
[10]于兵,張為公,龔宗洋.基于機器視覺的車道偏離報警系統[J].東南大學學報(自然科學版),2009,5(39):928-932.
Yu Bing, Zhang Weigong, Gong Zongyang. Lane Departure Warning System Based on Machine Vision[J]. Journal of Southeast University(Natural Science Edition), 2009, 5(39):928-932.
[11]Michal S, Charles V.Retinal Vessel Centerline Extraction Using Multi-scale Matched Filters, Confidence and Edge Measures[J]. IEEE Transactions on Medical Imaging, 2006, 25(12): 1531-1546.
[12]Elena M, Alun D.Segmentation of Blood Vessels from Red-free and Fluorescein Retinal Images[J]. Medical Image Analysis, 2007, 11: 47-61.
[13]Xu Xiangyang, Xu Shengzhou, Jin Lianghai, et al. Characteristic Analysis of Otsu Threshold and Its Applications[J]. Pattern Recognition Letters,2011,32:956-961.
[14]肖先勇, 王希寶, 季廣輝.基于箱形圖和矩估計的敏感元件電壓凹陷敏感度評估[J]. 電網技術, 2008, 32(17): 64-68.
Xiao Xianyong, Wang Xibao, Ji Guanghui. Sensitivity Assessment of Voltage Sag for Sensitive Equipments Based on Boxplot and Moment Estimation[J]. Power System Technology, 2008, 32(17): 64-68.
[15]Amol B, Monson H, Mark T.An Efficient Method to Generate Ground Truth for Evaluating Lane Detection Systems[C]//International IEEE Conference on Acoustic Speech and Signal Processing. Dallas, TX, 2010:1090-1093.
[16]Pollard E, Gruyer D, Tarel J, et al.Lane Marking Extraction with Combination Strategy and Comparative Evaluation on Synthetic and Camera Images[C]//The 14th International IEEE Conference on Intelligent Transportation Systems.Washington D C,USA,2011:1741-1746.
(編輯蘇衛國)
Real-time Lane Recognition Method Based on Hardware-software Co-design
Zhang Weiwei1Song Xiaolin1Zhang Sanlin1Wu Xuncheng2
1.State Key Laboratory of Advanced Design and Manufacturing for Vehicle Body,Hunan University,Changsha,410082 2.Shanghai University of Engineering Science,Shanghai,201620
In order to obtain robustness and real timing for lane recognition, a lane recognition scheme was designed based on embedded system taking the effective allocation of hardware resource and software function into account. From the perspective of producer/consumer model of the whole system, the necessity of matched enhancement was put forward, and multi-scale matched filtering method was proposed according to the different width characteristics of lane markings, then an adaptive dynamic threshold was set based on local noise estimation from the improved mathematics model of CFAF. The road images of high frame rate and wide dynamic range were captured through field programmable gate array(FPGA) and then the matched filtering was speeded up through the coefficient decomposition technology in the hardware optimization design. Experiments and evaluation prove the proposed system can robustly detect lane markings under different traffic scenarios with the processing frame rate of 60fps.
multi-scale matched filter; constant false alarm rate(CFAR); embedded system; lane recognition
2014-05-21
國家自然科學基金資助項目(51175159);湖南省科技計劃資助項目(2013WK3024);湖南省研究生科研創新項目(CX2013B146)
U461< class="emphasis_italic">DOI
:10.3969/j.issn.1004-132X.2015.10.011
張偉偉,男,1987年生。湖南大學機械與運載工程學院博士研究生。主要研究方向為嵌入式機器視覺、車輛駕駛輔助系統等。獲發明專利2項。發表論文4篇。宋曉琳,女,1965年生。湖南大學機械與運載工程學院教授、博士研究生導師。張三林,男,1989年生。湖南大學機械與運載工程學院碩士研究生。吳訓成,男,1964年生。上海工程技術大學汽車工程學院教授。