999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器學習的城市道路交通事故嚴重程度影響因素辨識研究

2020-07-15 09:35:00劉慶芳雷建明LIUQingfangCHENGWeiLEIJianming
物流科技 2020年7期
關鍵詞:分類因素影響

劉慶芳 ,成 衛 ,雷建明 LIU Qingfang, CHENG Wei, LEI Jianming

(1. 昆明理工大學 交通工程學院,云南 昆明 650504;2. 玉溪市公安局交通警察支隊,云南 玉溪 653100)

(1. School of Traffic Engineering, Kunming University of Science and Technology, Kunming 650504, China; 2. Traffic Police Detachment of Yuxi Public Security Bureau, Yuxi 653100, China)

0 引 言

近年來,隨著我國人均汽車保有量以及城市基礎建設工程數量的迅速增長,城市交通事故日益頻發。道路交通安全管理不僅是城市智能化交通管理平臺建設的重點工作內容,同時也與國民的人身財產安全息息相關。為了城市道路交通進一步安全、快速的發展,如何采取科學的方法來減少城市道路交通事故的發生以及最大限度地降低事故嚴重程度,是值得每一位城市交通安全管理人員認真思考的。

通過對國內外學者在交通事故嚴重程度影響因素方面的研究分析后得知,目前主要有以下兩大方面的方法:第一種,基于經典的統計模型方法[1-5]進行研究,其中運用比較多的有各類Logit 模型及其改進模型、主成分分析法等。第二種,便是基于機器學習的智能算法,例如支持向量機模型[6-7]、決策樹模型[8]、神經網絡模型[9]等。2004 年Hang G B[10]提出了一種新的前饋神經網絡訓練方法——極限學習機(Extreme Learning Machine,ELM)。ELM 結構簡單,并具有良好的泛化能力,它只要獲得隱藏層和輸出層之間的權重系數(或連接系數),并據此構建參數模型,就可以實現分類的目的,該方法目前已經成功的應用于食品檢測、故障監測、交通事故預測[11-12]以及圖像處理等領域。

對以上已有研究總結分析后可以看出,國內外學者大都采用經典的統計模型方法來進行辨識,機器學習算法中雖然已經有很多得到了應用,但是基于機器學習算法缺點改進后的模型應用并不是很多。對于本文所選用的極限學習機,在其原始模式下,隱藏層的節點數、隱藏層的隨機輸入參數以及數據噪聲會對預測精度造成影響,通過最小二乘調整的輸出權重往往會夸大離群點和噪聲的影響。針對以上缺點,國內一部分學者[13-14]通過引入各種算法來優化改進極限學習機,例如量子遺傳算法等?;谝陨涎芯砍晒?,本文在2015~2017 年某市城市道路交通事故統計報告的基礎上,提取可用的樣本數據集,然后對預測模型影響因素進行量化,包括時間因素、環境因素、駕駛員因素這幾個方面共14 個影響因素。將交通事故樣本數據集進行三分類,分別基于D-ELM、ELM 以及核極限學習機(K-ELM)[15]建立交通事故嚴重程度影響因素辨識模型進行對比分析。同時,根據模型所得到的影響因素制定相應的安全管理措施。

1 極限學習機(ELM) 學習原理

2004 年,南洋理工大學Huang G B 教授提出了ELM 分類算法,它是在傳統的單隱層前饋神經網絡(SLFN) 基礎上演變來的[10],在它的訓練過程中輸入層的權值和偏差是隨機輸入的,而輸出層的權重是經過廣義逆矩陣理論計算得到的。當所有網絡節點上的權值和偏差都獲得后,ELM 的訓練過程就結束了。然后,把測試集的數據輸入,利用已經訓練好的輸出層的權重便可以把網絡輸出計算出來,從而數據的預測便完成了。極限學習機的學習算法具體如下所示:

對于 N 個隨機樣本 (xi, ti),其中 xi= [xi1,xi2,…,xin]T∈Rn, ti= [ti1,ti2,…,tim]T∈Rm。對于有L 個隱層節點的單隱層神經網絡可以表示為:

式中:β 是隱含層和輸出層之間的權值,ξ 是輸出誤差,C 是訓練誤差的懲罰因子,H 是隱含層的輸出矩陣,T 是類別標簽,x 是樣本。

在ELM 分類過程中,輸出函數被分為兩類:

(1) 當訓練樣本較少,輸出函數可以表示為:

式中:I 是辨識矩陣。

(2) 當訓練樣本數目過多,遠遠大于特征個數時,輸出函數可以表示為:

2 深度極限學習機(D-ELM)

2.1 D-ELM 算法

D-ELM 算法的主要原理如下:

在傳統的 ELM 中,類別標簽可以表示為 ti= [-1,…,+1,…,-1 ]∈Rc,c 是類別數目,+1 的位置代表該樣本所為類別。在此過程中,把辨識因子A 矩陣提出去擴展類別間距離,使其值恒大于0。同時,引入一個協同矩陣Z,假設當Tij=1,Zij=1,或者當 Tij=-1,Zij=-1。

D-ELM 具體的算法過程,以本文的三分類為例,表1 為改進后D-ELM 的擴展形式,辨識因子和協同矩陣的作用關系可以用哈達瑪積形式進行表示,表示形式如公式(5):

在引入協同矩陣和辨識因子之前,前兩個隱含層的輸出形式可以表示為:

在引入之后,距離可以表示為:

表1 D-ELM 的擴展形式

因此,最優化問題可以轉化為:

設W=T+Z⊙A,最優化問題可以表示為:

在給定β 后,最優化問題可以表示為:

設U=Hβ-T,公式(11) 可以表示為:

根據哈達瑪積的計算形式,公式(12) 可以轉換元素相乘形式,可以表示為:

最優化問題進一步轉化為:

由于 Aij>0,因此:

當最優β 和A 被獲得,輸出函數可以表述為:

為了優化A 和β,設目標誤差為10-4,當:

獲得最優參數。式中:k 為迭代次數,最大值為50。因此,W 被轉換為W'=T+Z⊙A,輸出函數可以表示為:

2.2 GA-D-ELM 模型建立

通過將D-ELM 作為道路交通事故嚴重程度三分類的分類器,利用GA 來進行因素辨識從而構建GA-D-ELM 模型,具體過程如下:

(1) 采用二進制編碼方式,其中因素數與染色體數一樣長。fi(i=1,2,…,n )表示第n 個的選擇狀態,用1 表示因素被選,0表示沒有被選。

(2) 根據解空間的大小合理設置初始種群,最大程度上保證包含影響因素集的各種解。

(3) 利用公式(20) 構建適應度函數,利用它計算初始種群中每個個體的適應度,進行排序。即先將初始種群的個體由基因型表達方式轉變為表現型方式;再通過所選擇的模型影響因素集,帶入數據訓練樣本中,利用D-ELM 對數據進行分類,通過測試數據樣本計算分類精確度;最后,通過分類精確度及選擇的影響因素個數來計算各個個體的適應度值。

式中:fitness 表示適應度,ω1表示分類精度權重;ω2表示所選因素數權重;accuracy 表示分類精度。ω1與ω2的值可以根據實際情況進行調整,本文假設ω1=0.8, ω2=0.2。

(4) 根據適應度值排序結果,從高到低地挑選足夠數量的優秀個體,直接到下一代。對最優個體的適應度進行評判,達到設定判斷值就停止進化,沒有則通過其他方式繼續優化,計算下一代種群。

(5) 利用步驟(3) 的方法,計算新的一代中各個個體的適應度,并找出適應度最佳的個體。一直重復以上操作,直到某一代中的最佳個體適應度值在一定的范圍內不再變化,終止種群進化,從而得到最理想的影響因素集。

3 實例分析

3.1 數據來源

根據某市2015~2017 年城市道路交通事故報告,為了獲取完整、可靠的事故數據,本著完整性、隨機性、權威性三個原則,對這份報告中的數據進行篩選,最終獲得了共1 800 條可用樣本數據。

3.2 模型影響因素集構建及量化

本文為了計算和說明的簡便,將城市道路交通事故嚴重程度劃分為三類,即為一般事故、重大事故、特大事故,一般事故包括輕微事故和一般事故。在以前關于城市道路交通事故嚴重程度影響因素的研究基礎上,結合搜集到的事故調查報告中記錄的信息完整程度,構建包括時間因素、環境因素、駕駛員因素共三個方面14 個變量的模型影響因素集,如表2 所示。采取阿拉伯數字編碼制記錄事故變量信息,以“時間因素”中的季節變量為例,1~4 分別表示春季、夏季、秋季、冬季。

表2 模型影響因素及量化說明

當某個自變量有k (k> 2 )個分類時,在模型中引入(k- 1 )個虛擬變量,將變量變為0-1 變量。以環境因素中的照明條件的變量為例,變量分為4 類,需要引入3 個虛擬變量,如表3 所示。

表3 照明條件的虛擬變量

3.3 樣本及參數設置

為了對比改進后的GA-D-ELM 的辨識性能,本文用基于傳統極限學習機以及核極限學習機理論的GA-ELM、GA-K-ELM模型進行對比分析。在這1 800 條數據中,三種不同的交通事故數據各有600 條。按2∶1 的比例將事故數據隨機地劃分成訓練數據集和測試數據集,即在三種不同的道路交通事故類型數據中,每種都隨機選擇其中400 個樣本作為訓練集,剩余的200 個作為預測集。在各類ELM 分類過程中,懲罰項C 和隱含層神經元個數L 是影響分類性能的兩個重要參數,所以本文對C 和L的取值進行參數搜索,其中C 是以0.02 為間隔在區間 [0.0 2 ,100 ]的范圍內進行搜索,L 以2 為間隔在區間 [2,10 0 ]范圍內進行搜索。為了消除隨機性的影響,每個模型運行20 次,取20 次的平均值作為最終的分類準確率,在取得最佳準確度的基礎上,將D-ELM、K-ELM、ELM 中的神經元個數L 分別取值為5、8、10。

在GA-D-ELM、GA-ELM、GA-K-ELM 辨識模型里,令初始種群數量為50,個體適應度判斷閥值為0.8,實驗證明,迭代50 次后最佳適應度基本不發生變化,故最大進化代數為50。

3.4 識別結果及分析

采用Matlab 軟件來實現上述算法過程,最終得到的辨識因素和分類準確率等如表4 所示:

表4 模型辨識因素結果及分類準確率

綜上,在對三種辨識模型進行對比分析后,可以看出改進后的GA-D-ELM 要比GA-ELM、GA-K-ELM 辨識性能好。

4 結 論

首先,通過在ELM 的類別標簽中,把辯識因子矩陣提出去擴展類別間距離,再引入協同矩陣,從而構建出D-ELM;其次,通過GA-D-ELM、GA-ELM、GA-K-ELM 三種模型的對比分析,結果顯示:GA-D-ELM 模型可以識別出數量更為精簡的影響因子個數,極大程度上提高了分類的準確率。最后,由于本文是通過歷史統計數據進行的研究分析,所以很多數據內容記錄不全,許多影響因素并沒有加入模型中進行考慮,例如人車事故中的行人年齡、學歷以及車輛自身問題等。接下來的研究中應當擴大實驗樣本的數量,從而對城市交通事故嚴重程度的影響因素進行更為全面的研究,使結果更加準確。

猜你喜歡
分類因素影響
腹部脹氣的飲食因素
中老年保健(2022年5期)2022-08-24 02:36:04
是什么影響了滑動摩擦力的大小
群眾路線是百年大黨成功之內核性制度因素的外在表達
當代陜西(2021年12期)2021-08-05 07:45:46
分類算一算
哪些顧慮影響擔當?
當代陜西(2021年2期)2021-03-29 07:41:24
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
擴鏈劑聯用對PETG擴鏈反應與流變性能的影響
中國塑料(2016年3期)2016-06-15 20:30:00
短道速滑運動員非智力因素的培養
冰雪運動(2016年4期)2016-04-16 05:54:56
主站蜘蛛池模板: 国产成人精品在线1区| 国产精品成人一区二区不卡| 国产AV无码专区亚洲精品网站| 欧美人在线一区二区三区| 亚洲综合天堂网| 亚洲国产天堂在线观看| 午夜精品一区二区蜜桃| 永久免费av网站可以直接看的| a在线亚洲男人的天堂试看| 亚洲一级毛片免费看| 欧洲精品视频在线观看| 亚洲系列无码专区偷窥无码| 尤物视频一区| 国产无码性爱一区二区三区| 国产在线一区二区视频| 久久久受www免费人成| 国产白浆在线| 青青草原国产免费av观看| 天堂亚洲网| 中文字幕啪啪| 四虎AV麻豆| 国产毛片高清一级国语| 国产免费网址| 国产午夜精品一区二区三| 欧美成人影院亚洲综合图| 亚洲美女视频一区| 欧美a级在线| 亚洲国产清纯| 欧美一区二区三区国产精品| 熟女日韩精品2区| 久久精品免费看一| 亚洲日韩AV无码精品| 九色在线观看视频| 国产乱子伦手机在线| 欧美日韩国产在线观看一区二区三区| 色天天综合久久久久综合片| 国产成人亚洲精品蜜芽影院| 午夜日b视频| 国产精品一区不卡| 亚洲第一成人在线| 老司机午夜精品网站在线观看| 无码啪啪精品天堂浪潮av| 国产性精品| 亚洲AV永久无码精品古装片| 亚洲高清在线天堂精品| 91小视频版在线观看www| 91福利国产成人精品导航| 国产农村妇女精品一二区| 亚洲人成影院在线观看| 91视频日本| 欧美日韩高清在线| 露脸国产精品自产在线播| 伊人久久婷婷| 亚洲色图另类| 免费国产小视频在线观看| 亚洲成aⅴ人在线观看| 欧美激情视频在线观看一区| 亚洲国产91人成在线| 婷婷亚洲视频| 天堂成人在线视频| 亚洲人成电影在线播放| 亚洲二区视频| 一个色综合久久| 国产二级毛片| 亚洲日韩高清在线亚洲专区| 99re精彩视频| 91麻豆国产精品91久久久| 99久久精品久久久久久婷婷| 国产在线视频二区| 美女高潮全身流白浆福利区| 国产玖玖视频| 波多野吉衣一区二区三区av| 免费在线a视频| 久久人人妻人人爽人人卡片av| 亚洲视频无码| 制服丝袜一区| 999精品色在线观看| 国产精品免费久久久久影院无码| 国产系列在线| 在线精品视频成人网| 激情综合五月网| 99久久精品免费观看国产|