
YUZhicheng',ZHAO Junpeng2,LIUYonggang',XIA Pugeng,YE Ming4 (1. State Key Laboratory of Mechanical Transmission for Advanced Equipment, Chongqing University, Chongqing 40044,P.R.China;2.Beijing AerospaceLaunch Technology Research Institute,Beijing 100076, P.R.China;3.Chengdu Yiwei New Energy Vehicle Co.,Ltd.,Chengdu 611730,P.R.China; 4.Vehicle Engineering Institute, Chongqing University of Technology, Chongqing 40oo54, P.R. China)
Abstract:To address the chalenge of autonomous vehicle decision-making and control at unsignalized intersections,this study investigates the merging behaviorof twovehicles atatwo-way single-lane intersection. Reinforcement learning is used to establish a mapping between the vehicle state space and action space for autonomous decision-making.To overcome the limitations of overly simplified speed setings in existing studies, real-world trajectory data of surrounding vehiclesareused to construct an environmental traffic model.The autoregressive moving average (ARMA) model is applied to predict the speeds of surrounding vehicles. By integrating the predicted speed profiles with the autonomous vehicle's motion parameters,a forward decisionmaking model is established to calculate reference speeds.These reference speedsare incorporated into the reinforcement learning reward function to accelerate training convergence.Experimental results show that the proposed model achieves rapid convergence,and the trained agent can safely navigate the intersection while interacting with surrounding vehicles exhibiting diverse driving behaviors.This work provides a reference framework for improving the safety and effciency of autonomous vehicle decision-making at unsignalized intersections.
Keywords: intersections; autonomous vehicles; autoregressive moving average model (ARMA); reinforcement learning
隨著自動駕駛科技的持續進步,大量具備初級自動駕駛輔助系統(advanced driver asistance system,ADAS)的車輛已逐步投入使用。然而,在復雜道路環境下實現可靠自主駕駛,是當前技術由低階向高階演進過程中面臨的核心挑戰。其中,無信號燈控制的交叉路口由于交通事故頻發,已成為眾多學者聚焦的研究重點,特別是在該場景下車輛的智能決策與控制方法方面]。
依據對周邊車輛行為意圖的預測結果制定規劃策略,是一種常見且高效的解決思路2]。Noh通過預估軌跡劃定自動駕駛車輛可能面臨的危險范圍,借助威脅評估、貝葉斯概率網絡與時窗濾波相結合的方式,對風險進行量化分析并進行智能車的決策4]。Ramyar等5提出的Takagi-Sugeno數據驅動技術能夠較準確估計駕駛員在交叉口的行為。這種技術使用少量的策略模型進行訓練,減少計算復雜度。近年來,將隱馬爾可夫(partially observable markov decision process,POMDP)方法運用于交叉口決策的研究逐漸增多[6-7]。Shu等[8]提出了基于關鍵轉向點(comprehensive transaction platform,CTP)的方法解決交叉口左轉決策問題,基于POMDP的方法被運用于求解最優決策序列。Kye等針對無信號燈交叉路口的通行決策問題,提出一種基于意圖感知的自動駕駛決策方案。該方法通過推斷周邊交通參與者的行為意圖,將車輛的決策任務構建為部分可觀測的馬爾科夫決策過程。Hubmann及其團隊[提出一種可在線運行的POMDP架構,該框架能夠適應多種駕駛場景下的自主決策任務。著名的DeepMind公司通過圍棋等博弈游戲證明了深度強化學習在決策領域的可行性[[12],在交叉路口智能車輛的決策與控制研究中,多種機器學習方法得到應用[13-14]。例如,Isele等[15]應用深度強化學習(deep reinforcement learming,DRL)技術,訓練出在任務完成效率與成功率等多個維度上超越傳統啟發式策略的模型,但其系統泛化性能存在不足。針對DRL在復雜環境中訓練迭代量過大的問題,Qiao等[1引人了自動課程生成(automatically generated curriculum,AGC)機制,用于處理交叉路口的自主駕駛決策任務。通過對比AGC與隨機序列生成的訓練結果,發現AGC能夠在大幅縮短訓練周期的前提下,達到相當甚至更優的性能表現。
總的來看,現有基于周邊車輛狀態預測的路徑規劃方法,往往先將碰撞等風險事件進行量化評估,再借助規則型策略完成車輛決策,然而這類策略適應性普遍有限。采用隱馬爾可夫模型的方法雖在表達不確定性上具有優勢,但存在計算復雜度高的問題。盡管可引入蒙特卡洛采樣以緩解計算壓力,該方法仍需要對行為空間做離散化處理,且離散粒度往往較粗。當前,深度強化學習在該領域的應用多聚焦于整個車輛隊列通過交叉口的協調控制,針對單車之間交互博弈行為的研究仍較為欠缺。另外,很多研究為簡化問題常假設周圍車輛保持勻速行駛,這一設定與真實交通場景的動態特性存在顯著差異。為此,本研究聚焦于無信號燈交叉口兩車交互的博弈行為,利用真實道路采集的軌跡數據構建環境模型,旨在為無人駕駛決策機制提供更貼近實際的理論支撐。在通行速度控制方面,引人強化學習方法,通過融合預測的他車速度信息構建禮讓決策模型,推算參考車速提升學習效率,最終訓練出能夠適應不同駕駛風格、安全通過交叉口的智能決策體。
1基于ARMA方法的車速預測
無信號交叉口的沖突情況較多,選取在雙向單車道下智能車直行,環境車輛從位于智能車輛右手側的路口駛入并右轉的情況進行分析(如圖1(a))所示)。這屬于典型的交叉口合流情況,基于該工況驗證所提方法的有效性。
圖1環境模型
Fig.1 Environmental model

1.1 道路幾何學模型
為便于后續對決策控制模型進行數學表述,先構建研究道路的幾何模型。該道路為雙向單車道設定,兩車分別從2個方向入口駛入,合并進入同一車道。東西與南北方向車道中心線分別標識為 Lcl 與 Lc2 ,4處停止線依次標記為 Ls1-Ls4( (參見圖1(b))。以車道中心線交點為幾何模型原點 (x1,y2) ,出口停止線及他車進入路口停止線與中心線 Lcl?Lc2 的交點分別為 (x2,y2) 與 (x1,y1) (如圖 1(c) )。這3個關鍵點共同界定一個中央沖突區(center crash area,CCA),多項研究與實際經驗均指出,該區域為車輛碰撞高發段,具有顯著的行車風險。
1.2真實工況下的車輛軌跡數據
在無信號交叉口自動駕駛決策研究中,多數現有方法將他車運動軌跡假設為勻速行駛[8914],這一設定與真實交通動態存在較大偏差。為提升研究的真實性,基于OpenITS數據平臺提供的實際交通信息進行分析]。研究選取中國云南省昆明市文藝路與新迎路交叉口為觀測點,于路口西南側高層建筑架設攝像設備,進行連續7天全天候視頻采集。最終,借助圖像處理技術從視頻序列中提取參與交互車輛的具體運動軌跡。
交叉口博弈車輛最后駛入同一路口的情況為合流工況。不同于其他典型工況,合流工況下車輛通過交叉口的先后順序非常明顯。兩車安全通過交叉口并達到自身行駛意圖的前提是在交叉口行進過程中決定自身的通行優先級,即先行通過交叉口還是讓行通過交叉口。因此,根據直行車輛通過交叉路口的先后順序將數據集分為2大類:直行車輛先行與直行車輛讓行?,F將合流工況第1~60組數據分類,剔除部分不合適數據如圖2和圖3所示。從圖中曲線可以看出無論是直行車先行組還是讓行組的數據,兩車交互過程中速度波動均較為劇烈。通過對比同一類工況下先行車與讓行車的速度及加速度曲線,不難發現先行通過交叉口的車輛其速度波動較后續通過交叉口的車輛更加劇烈。結合交叉口的工況考慮這是非常合理的現象,先行通過交叉口的車輛需要以相對另一輛車較大的速度通過。為了保證行車安全,駕駛員需要不斷確認自車與對象車輛的狀態。
圖2直行車先行工況

圖3直行車讓行工況
Fig.3Scenariowherethe straight-movingvehicleyields

1.3基于ARMA方法的環境車輛未來車速時序預測
本研究以直行通過交叉口的智能網聯汽車(connected autonomous vehicle,CAV)為控制主體,環境車輛的轉向軌跡則依據真實駕駛數據構建??紤]到制動響應延遲等實際因素,系統難以在極短時間內對突發的碰撞風險做出避讓判斷。為提高行車安全,決策需要具備一定前瞻力,要求對他車未來速度進行有效預估。當前車速預測已有多種技術路徑,主要包括時間序列建模與機器學習方法等。機器學習方法通常依賴大規模樣本訓練,而時間序列模型則通過構建數學表征規避了這一限制。ARMA模型作為自回歸(auto regres-sive,AR)與移動平均(movingaverage,MA)結合的經典方法,已被廣泛應用于經濟學等領域的趨勢預測。本文采用自回歸移動平均模型(autoregressive moving average model,ARMA)對環境車輛的未來速度進行預測。在該類模型中,自回歸(AR)模型為基本形式之一,數學表達式如式(1)所示。式中: Yt 表示當前時刻 t 的序列值, Yt-1,Yt-2,…,Yt-p 分別為序列在之前 p 個時刻的歷史觀測值; εt 為獨立同分布的隨機誤差序列,其期望與方差需滿足式(2)所給出的關系。AR模型依據過去 p 個時間點的數據對當前值進行估計,而移動平均(MA)模型則側重于對誤差項的滑動過程進行建模,具體形式由式(3)表示。由此可將AR與MA組合,得到如式(4)所描述的ARMA模型整體結構。
Yt=β1Yt-1+β2Yt-2+…+βpYt-p+εt,
E(εt)=D(εt)gt;0,
Yt=εt+α1εt-1+α2εt-2+…+αqεt-q,
Yt=β0+β1Yt-1+β2Yt-2+…+βpYt-p+εt+α1εt-1+α2εt-2+…+αqεt-q°Xt-1+β2Yt-2.
以其中1組軌跡數據為例,其速度曲線如圖4(a)所示,采用自相關函數ACF和偏自相關函數PACF法則確定ARMA的模型階數 p,q ,建立基于ARMA方法的車速預測模型為排除偽回歸現象,對序列進行平穩性檢驗。通過平穩性檢驗的數據具有如公式(5)所示的形式,其中,白噪聲 μt 滿足如公式(6)所示的特性。
Yt=μt,
E(μt)=0
若原始數據不滿足平穩性則對其取 N 階差分直至其 N 階差分滿足平穩性。計算結果表明所選用的車速數據其二階差分模型通過平穩性檢驗,隨后對其二階差分模型計算自相關函數和偏自相關函數,結果如圖4(b)和(c)所示。
圖4ARMA模型階數仿真結果
Fig.4 SimulationresultsofARMAmodelorder

依據相關領域的研究經驗總結[18],ARMA模型的模型階數 p,q 均取6。對選取的軌跡速度曲線建立ARMA模型進行擬合,為了檢驗擬合的結果,需要對模型與原始數據進行殘差分析,殘差分析的結果如圖5(a)~(e)所示。
圖5ARMA模型擬合結果殘差分析

最終,基于已構建的ARMA模型對車速時間序列開展預測分析。以前30個時間步(采樣間隔0.04 s)的車速記錄作為歷史輸人,自第31個時間步起執行滾動預測。分別設置了預測步長1和5兩種工況,相應預測結果如圖6所示。
圖6基于ARMA模型的車速預測結果
Fig.6Speedpredictionresultsbased onARMAmodel

預測結果表明,當預測步長為1時,模型在滾動預測過程中的均方誤差為 0.024 3m/s ;而預測步長為5時,對應的均方誤差序列為 [0.0243,0.0325,0.0370.0410.0411]m/s? 。在整個預測時段原始車速平均值為 2.331m/s 。所有預測步長下的誤差均保持在約 1%~2% ,最大誤差未超過 2% ,處于可接受范圍,模型具有較好的預測性能。
2基于強化學習的交叉口智能車速度決策研究
強化學習(reinforcement learning,RL)常用于解決復雜的決策控制問題。強化學習的基本單元可表示為(S,A,R,S′) ,其中: s 表示當前時刻的狀態; s′ 表示狀態 s 經過動作 A 之后所到達的新狀態,而在這個過程中智能體獲得了獎勵 R 。所提出方法整體的決策流程如圖7所示。
圖7基于ARMA車速預測的智能車交叉口強化學習決策流程圖
g.7Flow chart of reinforcement learning autonomous vehicle decision making at intersection ba onARMAspeed forecastingmodel

2.1 狀態空間
強化學習旨在訓練一個能夠依據環境觀測信息做出合理決策的智能體(Agent)。無信號燈交叉口屬于復雜交通環境,其狀態信息涵蓋目標車輛狀態、道路結構、自車信息以及通過處理得到的車間距離等衍生指標。選用的狀態空間序列的具體構成如式(7)所示
observision=(Sego,Senv)T,

Senv=(xenv,yenv,νenv),
式中: Sego 與 Senv 分別代表了智能車與環境車的狀態序列; :x,y,ν 則分別代表了橫坐標,縱坐標以及速度信息。
2.2 動作空間
當前多數采用強化學習的交叉口自動駕駛決策研究中,智能體的輸出常被定義為車輛的加速度指令。此類方式將決策與控制劃分為2個層次:強化學習智能體作為上層決策單元輸出目標加速度,底層控制器則根據該加速度計算出實際所需要的油門開度與制動壓力信號。該方法對底層控制器的精度提出較高要求。為避免這一依賴,研究將強化學習智能體的輸出直接設定為車輛動力學模型可執行的油門開度與制動壓力指令,動作空間的具體定義如式(10)

2.3 獎勵函數
獎勵函數的設計直接影響智能體策略的學習方向與收斂結果。在本研究關注的無信號交叉口場景中,保障車輛安全通過是首要目標。然而,若僅設置終點獎勵與碰撞懲罰,可能導致智能體在訓練過程中收斂至2種極端策略:一是過度保守,持續停車等待直至其他車完全通過;二是過于激進,持續加速并以過高速度強行通過路口。這2種行為均不屬于安全高效的理想駕駛策略,因此,獎勵函數需要加上對超出正常車速范圍的懲罰,正常車速的閾值設定參考圖2與圖3中的實際交叉口通行中直行車輛車速曲線。獎勵函數中抵達終點、碰撞以及超速或者怠速的部分如式(11)~(13)



式中: xd 為圖1中建立的道路幾何模型的終點橫坐標; uupper 為速度上限值,依據中國相關法律法規和數據將速度的最大值設定為 30Km/h;νlower 為避免消極怠速策略所設定的速度下限值,結合數據設置為 7.2Km/h 。除上述的3部分之外,在實際訓練過程中,由于狀態與動作空間的搜索范圍過大,智能體探索效率降低,難以在合理時間內獲取有效策略經驗。針對該問題,所研究方法的一大貢獻是將所建立的ARMA車速預測模型的預測結果引入構建先行讓行決策模型。在兩車通過合流點 (x′,y′) 之前決定是先行通過交叉口或者是讓行通過交叉口,引導Agent采取更明確的加速或者減速策略。

H1=x′-xego,






將參考車速納人強化學習的獎勵函數中,如公式(21)所示。結合前式,得到強化學習訓練過程獎勵函數RrewardO

Rreward=RG+RC+RS+Rν°
2.4 訓練算法
著名的DeepMind公司提出了深度確定性策略梯度算法(Deep-DPG,DDPG),在高維動作空間或連續動作空間中都有很好表現,算法流程偽代碼如表1所示。DDPG算法下的DRL擁有4個網絡:Actor目標網絡、Actor當前網絡、Critic目標網絡以及Critic當前網絡。其中Actor當前網絡負責策略網絡參數 θμ 的迭代更新,負責根據當前狀態 St 選擇當前動作 at. ,用于和環境交互更新成為下一個狀態 S?t+1 并產生獎勵值 R 。Actor目標網絡負責根據經驗回放池中采樣的下一狀態 St+1 選擇最優下一動作 at+1 。網絡參數 θμ′ 定期從 θμ 復制。Critic當前網絡負責價值網絡參數
的迭代更新,負責計算當前
值。Critic目標網絡負責計算目標
值中的
部分,網絡參數
定期從
復制。因此,采用DDPG算法作為強化學習的訓練算法。

表1DDPG算法偽代碼

3 建模與仿真分析
如圖8所示,采用Matlab/Simulink與PreScan軟件聯合仿真,在PreScan中搭建虛擬交叉口駕駛場景模型,使用PreScan的Audi A82D車輛動力學模型。PreScan的車輛動力學模型與Simulink中的強化學習Agent通過虛擬總線傳輸數據。
圖8基于PreScan與Simulink的聯合建模仿真

訓練Agent的計算機CPU配置如下:inteli5-9600k3.7GHz。訓練過程中將環境車輛的軌跡設置分為2大類:激進類與保守類,分別對應于圖2和圖3中的轉向車先行與轉向車讓行。車輛的軌跡數據來源于OpenITS數據平臺中真實場景下采集到的數據[7]。訓練過程中為環境車輛設置了10組不同軌跡,激進類與保守類的軌跡各5組,每次訓練時環境車輛隨機以其中一組軌跡作為預設軌跡行駛。智能車的初始速度在3~6m/s 范圍內變化。將訓練過程的最大歷元數設置為 1 000 ,約花費 3h 完成訓練過程。訓練過程中的獎勵函數收斂曲線如圖9所示。
圖9強化學習獎勵函數收斂曲線
Fig.9 Theconvergencecurveofreinforcement learningreward function

仿真結果顯示在訓練迭代次數到達約200次時,獎勵函數趨向于收斂,整體的學習效率較高。為了驗證最終的Agent效果,選取訓練數據外的2組環境車速軌跡進行測試,環境車速曲線分別如圖10和圖11中橙色曲線所示。圖12中黃色方框內是強化學習Agent控制的智能車,環境車輛以預先設置好的軌跡從右側駛入交叉口。
圖10環境車輛速度較激進場景下的仿真驗證效果

圖11環境車輛速度較保守場景下的仿真驗證效果

圖122種驗證場景下的PreScan仿真動畫
Fig.12PreScansimulationanimationintwoverification scenarios

圖10展示了環境車輛較為激進場景下Agent的決策控制效果。該場景下智能車以較低初始速度駛入交叉路口,而環境車在初始速度高于智能車的前提下在駛入交叉路口不久后激進加速到一個較高車速。在判斷無法先于環境車輛通過交叉口時,上層的先行/讓行決策模塊計算出的參考車速略低于環境車的預測車速。Agent在選擇讓行通過交叉口的同時車速維持在不低于所設置的下限范圍,較為平穩安全通過交叉口。由于預測車速的效果較好,參考車速的變化趨勢與環境車的實際車速波動趨勢較為一致?;贏RMA的車速預測模型需要一定歷史時序信息作為依據來推斷后續的車速信息。同時前段路程距離交叉口中心區域較遠,進行速度預測的必要性不大。因此,圖10與圖11中仿真的開始階段參考車速為 0m/s 。為了獲取較好的預測效果,在聯合仿真時選擇從第11步(仿真步長 0.04s 開始對后續的時序信息做預測。
圖11是環境車輛較為保守場景下Agent的決策控制效果,該場景下智能車初始速度較大且環境車輛的駕駛風格偏向保守。在仿真初期參考車速為 0m/s 的情況下,Agent無法估計環境車的未來信息,無法得出先行還是讓行的決策,進而選擇保守的減速策略。在ARMA的車速預測模型給出未來車速的預測信息之后,上層的先行/讓行決策模塊計算出智能車能夠先于對方通過交叉口。因此,Agent在經歷一段時間的減速后立刻加速,先于環境車輛通過交叉口。在行駛過程中智能車的加速趨勢逐漸趨于平緩,最終以未超過所設置上限范圍的車速安全通過交叉口。
4結論
針對無信號交叉口的智能車決策控制問題,以雙向單車道交叉口下兩車合流工況為研究對象,提出基于ARMA車速預測的交叉口強化學習決策方法。相較于其他的交叉口決策研究,控制車輛的博弈對象軌跡信息來源于真實場景下所采集的數據,因此,所提出的方法在強化學習方法運用于實際交叉口自動駕駛決策方面更具參考價值。基于自回歸滑動平均模型對環境車輛的車速進行預測,結合智能車以及所預測的環境車輛車速時序信息建立先行讓行決策模型計算本車參考車速,引入參考車速構建強化學習的獎勵函數加速訓練收斂速度,仿真結果表明所提出的強化學習模型能夠快速收斂。選取與訓練過程不同的數據作為軌跡信息驗證所訓練智能體的決策控制效果。結果表明訓練得到的智能體在與不同駕駛風格的環境車輛博弈時能夠安全通過交叉口,證明所提方法在無信號交叉口的智能車決策控制問題方面的有效性。
參考文獻
[1]ShiraziMS,Morris BT.Lookingatintersections:asurveyofintersectionmonitoring,behaviorandsafetyanalysisofecent studies[J]. IEEE Transactions on Intelligent Transportation Systems,2017,18(1): 4-24.
[2]HultR,ZanonM,GrosS,etal.Optimalcoordinatioofutomatedvehiclesatintersections:theoryandexperiments[J].EEE Transactions on Control Systems Technology,2018,27(6):2510-2525.
[3]MaL,XueJ,KawabataK,etal.Eficientsampling-basedmotionplanning foron-roadautonomous driving[J].IEEE Transactions on Inteligent Transportation Systems,2015,16(4):1961-1976.
[4]Noh S.Decision-making framework forautonomous drivingatroadintersections:safeguardingagainstcolision,overly conservative behavior,andviolationvehicles[J].IEEETransactionsonIndustrialElectronics,2018,66(4):327-3286.
[5]Ramyar S,Homaifar A,Anzagira A,etal.Fuzy modeling of drivers'actions at intersections[C]//016 World Automation Congress(WAC). Stockholm,Sweden: IEEE,2016:1-6.
[6]BoutonM,CosgunA,KochenderferMJ.Beliefstateplaningforautonomouslynavigatingurbanintersections[C/7IE Intelligent Vehicles Symposium.Hangzhou,China: IEEE,2017: 825-830.
[7]Hubmann C,QuetschlichN,ShulzJ,etal.APOMDPmaneuverplannerforocusions inurbanscenarios[C]/19thIEE Intelligent Vehicles Symposium.Paris,France:IEEE,2019:2172-2179.
[8]ShuK,uH,nX,tal.Autoosdngatitersectis:iticalung-otapproacholefttusCE 23rd International Conference on Inteligent Transportation Systems (ITSC).Rhodes, Greece: IEEE,2020:1-6.
[9]KyeDK,Kim SW,SeoSW.Decision making forautomateddrivingatunsignalizedintersection[C]/201515thInternational Conference on Control,Automation and Systems (ICCAS).Busan,South Korea: IEEE,2015: 522-525.
[10]Hubmann C,SchulzJ,BeckerM,etal.Automateddriving inuncertainenvironments:planning with interactionanducertain maneuver prediction[J].IEEE Transactions on Intelligent Vehicles,2018,3(1):5-17.
[11]MnihV,KavukcugluK,SilerD,etal.Playingatariwithdeepeinforementlearing.[J/OL].(214-12-19)-9].tp: //arxiv.org/pdf/1312.05602.
[12]SilverD,HuangA,MaddisonCJ,etal.Masteringthegameofgowithdepneuralnetworksandtreesearch[J].Nature,2016, 529(7587):484-489.
[13]Zhou M,YuY,Qu X.Developmentofaneficient driving strategyforconnectedandautomatedvehiclesatsignalized intersections:areinforcement learningapproach[J].IEEETransactionson Intellgent Transportation Systems,2019,21(1): 433-443.
[14]Chen WL,LeeKH,HsiungPA.Intersectioncrosing forautonomous vehiclesbasedondeepreinforcement learnig[C]/ 2019 IEEE International Conference on Consumer Electronics.Piscataway: IEEE,2019:1-2.
[15]Isele D,RahimiR,CosgunA,etal.Navigatingocluded intersections withutonomous vehiclesusingdeepreinforcement learning[C]//018 IEEE InternationalConferenceonRoboticsandAutomation.Brishane,Australia:IEEE,2018:2034-2039.
[16]Qiao Z,MuellingK,DolanJ,etal.Automaticallygeneratedcurrcuumbsedreinforcement learingforautonomous ehicles in urban environment[Cl/2018 IEEE Intelligent Vehicles Symposium.Changshu,China: IEEE,2018:1233-1238.
[17]劉淼淼.基于危險感知的無信號交叉口直行駕駛決策模型研究[EB/OL].(2014-12-19)[2020-08-24].htp://www.openits.cn/ openPaper/614.jhtml. LiuM M.Research on straight-through driving decision model atno-signalintersections basedon hazard perception[EB/OL]. (2014-12-19)[2020-08-24]. http://www.openits.cn/openPaper/614.jhtml. (in Chinese)
[18]TsayRS,Tiao G C.Consistent estimates of autoregressive parametersand extended sample autocorelation function for stationaryandnonstationaryARMAmodels[J].Journalof theAmerican StatisticalAssociation984,79(385):84-96.
(編輯侯湘)