999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

車載通信中基于Q學習的信道接入技術研究

2017-03-29 04:52:52杜艾芊趙海濤劉南杰
計算機技術與發展 2017年3期
關鍵詞:動作環境

杜艾芊,趙海濤,劉南杰

(1.南京郵電大學 通信與信息工程學院,江蘇 南京 210003;2.南京郵電大學 網絡基因工程研究所,江蘇 南京 210003)

車載通信中基于Q學習的信道接入技術研究

杜艾芊1,2,趙海濤1,2,劉南杰1,2

(1.南京郵電大學 通信與信息工程學院,江蘇 南京 210003;2.南京郵電大學 網絡基因工程研究所,江蘇 南京 210003)

針對基于IEEE 802.11p協議的車載網絡MAC層DCF(分布式協調功能)信道接入方法存在數據包接收率低、時延高、可擴展性差等問題,提出一種基于Q學習的CW動態調整算法-QL-CWmin算法。區別于現有的BEB算法,通過利用Q學習,網絡節點(Agent)能夠不斷地與周圍環境進行交互學習,根據學習結果動態地調整競爭窗口(CW),使節點總能以最佳的CW(從周圍環境中獲得獎賞值最大時所選的CW大小)接入信道,以減少數據幀碰撞、降低端到端傳輸時延。仿真結果表明,采用QL-CWmin算法的通信節點能快速適應車聯網的未知環境,數據包接收率和數據包傳輸時延得到了有效改善,同時該算法能為節點接入信道提供更高的公平性,適用于各種不同負載程度的網絡環境。

車載網絡;BEB算法;競爭窗口;Q學習算法;分布式協調功能

0 引 言

近年來,隨著交通運輸行業的迅速發展,汽車數量急劇增加。汽車為人們日常出行帶來了便利,但也出現了安全和交通擁堵等各種問題。20世紀80年代,美國加利福尼亞大學首次提出了智能交通系統(ITS)的概念,用以提高交通運輸效率、緩解交通擁塞、減少交通事故。在智能交通系統和無線通信技術高速發展的今天,車聯網應運而生,它是繼互聯網、物聯網之后的另一個未來智慧城市的標志。車聯網中,道路車輛和路邊基礎設施都安裝有短程無線收發器,具有無線通信功能,所以可形成一個無線網絡,即車載自組織網(VANET)。VANET是移動自組織網的子類,沒有固定的拓撲結構,車輛可通過V2V(車與車)通信或V2I(車與路邊基礎設施)通信獲取信息和服務。VANET通過車-車通信和車-路通信實現人-車-路的協同,有效改善了交通安全,提高了交通效率,為用戶提供娛樂和Internet接入服務等。

IEEE802.11p又稱WAVE(WirelessAccessintheVehicularEnvironment),主要用于車載通信,是由IEEE802.11標準擴充的通信協議。IEEE802.11p針對車載環境對IEEE802.11的物理層和MAC層的相關參數做了些許調整,因而能更適用于車載環境中的無線通信。IEEE802.11p是WAVE協議棧的底層協議,已廣泛應用于V2V通信。在任一網絡環境中,通信協議棧的重要因素之一就是MAC層,而IEEE802.11pMAC層主要解決的是車輛對信道接入的競爭問題,它決定了某一時刻允許哪一節點接入無線信道。由于節點的高速移動性、通信環境的快速變化性及節點密度和節點分布的多變性等,對VANETs共享無線信道的接入控制提出了挑戰。因此,設計高可靠性的MAC協議對VANETs尤為重要。為VANET環境設計MAC協議所面臨的挑戰主要有:在車輛位置和信道特征不斷變化的VANET中,實現既高效又公平的信道接入;對不同密度的交通流具有可擴展性;能滿足各種不同的應用需求。

1 相關文獻

文獻[1]提出一種基于鄰居節點數估計的最小競爭窗口調整算法-AdaptiveCWmin。算法改變了CW的調整規則,并根據網絡信道的使用情況動態地調整CWmin。通過估計車載網中的競爭節點數來動態地選擇合適的CWmin,若數據傳輸成功,則根據競爭節點數確定CWmin;若失敗,則通過估計車輛密度來控制競爭窗口的增加。同時還推導出最大退避階數、信道由于碰撞被檢測為繁忙的平均時間和競爭節點數這三個參數與最優CWmin的函數關系,節點成功發送數據后,根據函數計算出適應車載網絡狀況的最優CWmin值。利用文中提出的算法在數據包重傳之后選擇合理的CW,縮短了競爭節點等待重傳的時間,增加了網絡吞吐量。

文獻[2]提出了基于統計次數的退避算法-newBEB和基于相對距離的退避算法-RBA。newBEB算法中設定了一個門限值,即發送節點傳輸成功和傳輸失敗的最大次數。當節點連續發送成功的次數超過傳輸成功的最大次數時,就增加競爭窗口值,降低其競爭信道的能力;而當節點連續發送失敗的次數超過傳輸失敗的最大次數時,就減少競爭窗口值,增強其競爭信道的能力。通過仿真對比分析,newBEB算法有效提高了節點接入信道的公平性。RBA算法中,每個節點根據自己與鄰居節點距離的平均值動態地調整競爭窗口的大小,仿真結果表明RBA算法提高了節點接入信道的公平性,降低了丟包率,在一定程度上提高了網絡吞吐量。

文獻[3]提出一種CW的控制方法-DBM-ACW方法(基于密度調整CW的方法)。根據信道擁塞的嚴重程度,選擇不同的CW值倍乘系數,或重設為CWmin。信道十分擁塞時,CW值的倍乘系數選擇上限值,可減少節點選擇相同退避數的概率;當信道密度降低時,CW值的倍乘系數選擇下限值或重設為CWmin,避免節點在信道占用率較低時等待較長的時間接入信道。經仿真對比分析,文中提出方法在網絡密度較大時,性能優勢尤為突出。

文獻[4]提出一種基于距離動態調整CW值的方法,適用于在網絡負載較重的車載自組織網中廣播實時性緊急消息。文中推導出某節點和前一節點之間的距離d和動態競爭窗口CWd之間的關系,利用這一關系為不斷移動的車輛節點動態地分配不同的CW值,可減少由于碰撞需要重傳數據包的次數。此外,還能降低數據包碰撞概率、端到端時延及網絡負載等,最終使帶寬得到有效利用。仿真結果表明,此方法在高速公路交通流中就吞吐量、端到端時延和網絡負載而言,網絡性能得到有效改善。

傳統的退避算法雖然解決了信道競爭的問題,但同時也存在一定的缺陷。節點每成功發送一次數據,就把當前的CW降到最小值,使節點誤以為一次發送成功就表示當前信道競爭情況不激烈,同樣,一次發送失敗就認為當前信道競爭激烈,碰撞增加,相應的競爭窗口成倍增加[5]。這種方式并沒有真正反映信道上的競爭情況。尤其是節點個數較多網絡負載變嚴重時,成功發送完數據的節點把CW調為最小值,多個節點又有相同的CW值(CWmin),會引起更多的碰撞。且碰撞和退避會浪費時間,嚴重影響網絡的整體吞吐量。另外,數據發送成功的節點立刻將CW值置為最小,而數據發送失敗的節點的CW值成倍增加。之后的一段時間內,CW值小的節點再次成功接入信道的概率增加,而CW值大的節點CW值會繼續增加,若CW值小的節點連續發送數據的話,就會一直占用信道,而其他節點的數據就無法發送出去,最終造成嚴重的信道接入不公平現象。除了接入信道不公平的問題,在時延方面也存在一定的缺陷。IEEE802.11p在MAC層中規定,初始競爭窗口值為15(aCWmin)[6]。但是,數據流量負載過高(網絡密度較高)時,成功發送數據幀后恢復為初始競爭窗口會使碰撞率增加,若節點在預定義時間段內無法成功發送數據幀對應的ACK消息,發送節點就會增加競爭窗口,重傳數據幀,這樣會使時延增加。即使在初次嘗試發送數據時設定最佳的競爭窗口可避免增加時延,但節點成功發送數據后,競爭窗口又恢復為15,尤其是在網絡負載過高時,極其不宜采用這種方法。

2 基于Q學習的CW動態調整算法

針對上述問題,文中在傳統信道接入機制的基礎上,引入強化學習,基于強化學習中的Q-Learning算法提出了新的信道接入方法-QL-CWmin方法。

2.1Q學習的基本原理

強化學習是機器學習中尤為重要的一種,它是智能系統從環境狀態到行為映射的學習過程,是解決智能系統尋優問題的有效工具。能夠感知環境的Agent不斷在環境中學習,根據環境給予的反饋信號,總選擇執行能達到目標的最優動作。在強化學習中,Agent在環境中的學習過程是一種試探評價過程,它的基本原理是[7]:Agent在環境中學習時,選擇一個動作作用于環境,環境狀態受該動作影響而發生變化,同時會產生一個強化信號(獎或懲),并將此信號反饋給Agent,Agent會根據強化信號和環境的當前狀態再選擇執行下一個動作,如果Agent的某一動作策略會使Agent從環境中獲得正的獎賞(強化信號),那么Agent此后選擇執行這個動作策略的趨勢就會加強,它的最終目的是Agent總選擇執行能從環境中得到最大累積獎賞值的動作。

Q-Learning算法是強化學習算法中最典型的一種,也是目前應用最為廣泛的一種。Q-Learning算法在環境條件未知的情況下最為有效,對環境的先驗知識要求不高,它使Agent在馬爾可夫決策過程中具備利用經歷過的動作序列總選擇最優動作的能力。它不需要環境模型,Agent在動態環境中通過交互試錯不斷調整行為。Agent不斷探索環境,在每一環境狀態和可能的動作之間建立一個Q值列表(Q表),它學習的是每個狀態-動作對的評價值-Q值(Q(st,at)),Q(st,at)是Agent在狀態st下根據策略選擇執行動作at,并循環執行所得到的累積獎賞值。Q-Learning算法的最優策略是使Q(st,at)的累積獎賞值最大化,所以Q學習的最優策略表達式為[8]:

(1)

即Agent只需考慮當前狀態和當前可選的動作,按照策略選擇執行使Q(st,at)最大化的動作。

文中所提出的信道接入方法-QL-CWmin,通過動態調整競爭窗口來解決碰撞率和時延的問題,利用Q-Learning算法學習最佳的競爭窗口。由于鄰近節點之間互換信標消息可獲得鄰居節點的位置信息,所以假設每個節點已知其一跳鄰居節點的位置信息,在節點成功發送數據幀后,環境給予節點一個正的獎賞,若發送失敗,則給予負的獎賞。在網絡負載較低時,使節點利用學習所得的最佳CW選擇以較小的CW接入信道避免增加時延;網絡負載較高時,則利用較大的CW接入信道防止碰撞。QL-CWmin算法可動態地調整競爭窗口,能以較低的時延發送數據,提高了數據包接收率和競爭效率,減少了信道接入時延。

2.2 QL-CWmin算法的狀態-動作對映射

整個車載自組織網絡即Agent學習的環境,網絡中的每個車輛節點即Agent,車輛節點在網絡中接入信道時所采用的競爭窗口即Agent學習環境的環境狀態,由此車輛節點可能采用的所有競爭窗口集即Agent學習環境的狀態空間。由于節點在網絡中接入信道的競爭窗口通常為2的指數冪減1,因此競爭窗口集為{15,31,63,127,255,511,1 023},競爭窗口初始值CWmin為15,最大值CWmax為1 023[9]。每一Agent可執行的動作有:增加(I)、保持(K)、減少(R)。“增加”即增大競爭窗口,“保持”和“減少”則分別是保持競爭窗口大小不變和減小競爭窗口。節點每執行一個動作后,環境狀態就發生狀態轉移。在網絡環境中不斷探索學習的過程中,每一節點在狀態-動作對之間都維護一個Q表,Q表中包含Q值Q(st,at),Q值的變化范圍為-1到1。其中,st為當前競爭窗口的大小,at為節點可能執行的動作。每發送完一個MAC幀后,節點根據發送狀態從網絡環境中獲得一個獎賞值。若發送成功,節點得到一個正的獎賞,若發送失敗(本協議中定義MAC層重傳次數不超過4,即數據重傳4次后,發送節點還是接收不到數據幀對應的ACK消息,則定義此次發送失敗),節點則得到一個負的獎賞。丟包主要是由于其他數據包發生碰撞造成的,通過對獎賞值進行評估,節點自適應地調整其競爭窗口大小,總選擇執行能使累積獎賞值Q值最大化的最優動作。

2.3 QL-CWmin算法Q值函數更新

在Agent與環境不斷交互學習的過程中,節點接入信道可能執行的動作有:增加(I)、保持(K)、減少(R)。狀態空間為{15,31,63,127,255,511,1 023}。當競爭窗口為最小值時,競爭窗口無法繼續減少;同樣地,當競爭窗口為最大值時,競爭窗口無法繼續增加[10]。圖1為節點在網絡環境中學習的狀態轉移圖。

VANETs中,節點采用QL-CWmin算法發送MAC數據幀的過程中,利用狀態-動作對的值函數Q(st,at)進行迭代,并利用獎賞作為估計函數來選擇下一動作,對Q函數進行優化,通過多步迭代學習逼近最優值函數。節點每發送一次數據幀,就更新一次Q表,更新Q值的表達式即Q學習的迭代公式為:

圖1 狀態轉移圖

α)×Q(st,at)

(2)

其中,α為學習率,是Agent在環境中的學習步長,用于控制學習速度。α值越大,Q值收斂越快。由于MAC數據幀發送較為頻繁,0.6足以反映網絡拓撲的變化程度,所以文中取α為0.6。γ為折扣因子,γ∈[0,1],體現了Agent對以后環境所給予獎勵的重視程度,取值越大表示越重視以后的獎勵,反之,則只在乎眼前的獎勵。文中取γ為0.9。

車輛節點在VANETs中初次接入信道發送數據時,會首先初始化Q(st,at)的值,然后根據探索策略在狀態st時選擇執行動作at,得到下一狀態st+1及其獎賞值R,之后根據獎賞值通過式(2)更新Q值,一直循環執行直到實現目標狀態或達到限制的迭代次數。其中獎賞值R計算如下:

(3)

其中,RCW表示選擇當前的CW值接入信道成功發送數據所獲得的正獎賞。發送失敗,獎賞值為-1,若當前狀態正在發送數據,獎賞值為0。

表1中定義了選擇各不同大小的CW值成功發送數據所獲得的不同獎賞值。成功發送數據所選的CW值越小,得到的獎賞值就越大,而網絡負載過高時,節點從環境中獲得負的獎賞從而增加競爭窗口,這樣能使節點充分利用信道資源。

表1 不同CW對應的獎賞值

圖2 基本流程圖

2.4 QL-CWmin算法的收斂性

強化學習中,“探索”是指Agent要盡可能地經歷所有的狀態-動作對,從而獲得全面充分的經驗知識,保證學習過程能收斂到最優的Q值函數,但是過度“探索”會引入冗余信息,浪費存儲資源和計算資源,最終影響學習速度?!袄谩眲t是Agent為了從環境中獲得較高的獎賞值,總是根據當前的Q表選擇執行可以獲得高獎賞值的動作,而不愿冒險去嘗試可能會產生更高獎賞值但也可能產生低獎賞值的動作[12]。所以尋求“探索”和“利用”間的平衡對保證學習過程能快速收斂到最優Q值函數非常重要,Agent需要不斷“探索”次優動作從而使“利用”趨向全局最優。

QL-CWmin算法中,節點在網絡環境中學習所用的探索策略為強化學習算法中應用較為廣泛ε-greedy動作選取機制,每個Agent節點要執行的第一個動作是將其CW值初始化為15,當Agent對自己所處的網絡環境一無所知時,采用最小的CW值是最佳選擇。此后節點以概率ε進行探索,尋求新的可能會產生更高獎賞值但也可能產生低獎賞值的動作,以概率1-ε選擇當前Q值最高的動作(利用)。由于節點接入信道并成功發送數據所選用的CW越小,Agent得到的獎賞就越多,只要當前所選的CW能成功發送數據,節點就絕不會再增加CW。當CW大于15,而網絡負載降低時,QL-CWmin算法也會通過探索將CW重設為15,即QL-CWmin算法總能使節點在網絡環境中通過“探索”和“利用”將CW調整為最佳值。

收斂問題也是強化學習算法所研究的一個重要問題[13],Watkins與Dayan利用隨機過程和不動點理論給出:

(1)學習過程具有Markov性;

(2)所有的狀態-動作對能被無限次訪問;

(3)Q表中能存儲所有狀態-動作對的Q值函數,每個元素分別對應于一個狀態-動作對;

以上四個條件都滿足時,Q學習過程可收斂到最優狀態-動作對值函數Q*。由此可見,QL-CWmin滿足收斂的所有條件。

3 仿真結果

文中對高速公路場景進行仿真,仿真環境如表2所示。

表2 仿真參數

文中通過仿真從VANET的廣播幀接收率、端到端傳輸時延和數據幀碰撞率等方面對CWmin-15算法、CWmin-31算法、AdaptiveCWmin算法和提出的QL-CWmin算法進行了對比分析。

圖3分別為VANET中采用四種退避算法的廣播幀接收率隨車輛密度的變化趨勢。

從圖中可以看出,車輛密度較小時,由于車輛節點總會以最小的競爭窗口接入信道,且數據幀發生碰撞的概率很小,所以廣播幀接收率都較接近1。但隨著車輛密度的增加,廣播幀接收率都呈下降趨勢,而采用文中所提出的QL-CWmin算法的廣播幀接收率不僅優于其他算法,且下降趨勢較為平穩。因為車輛節點在VANET環境中不斷交互試錯,總選擇Q值最高的競爭窗口即最佳窗口接入信道,所以其廣播幀接收率不會隨著車輛密度的增加而呈急劇下降的趨勢。

圖3 廣播幀接收率與車輛密度的關系曲線

圖4和圖5分別是采用四種退避算法后VANET中的端到端傳輸時延和數據幀碰撞率隨車輛密度的變化趨勢。

圖4 端到端時延與車輛密度的關系曲線

圖5 數據幀碰撞率與車輛密度的關系曲線

從圖中可見,文中提出的QL-CWmin算法與其他三種退避算法相比,端到端傳輸時延和數據幀碰撞率都較小,因此采用QL-CWmin算法能為節點接入信道提供更高的公平性,從而能適用于各種不同負載程度的車載網絡。

總的來說,在節點接入信道發送數據發生碰撞需要進行退避的過程中,車輛節點利用Q學習算法與周圍環境不斷交互,根據網絡環境反饋的獎賞信號,動態地調整競爭窗口,使節點下次發送數據時總能以最佳的CW值接入信道,提高了數據成功發送的概率,減少了退避次數。就數據包接收率及端到端傳輸時延,QL-CWmin算法性能與其他傳統的退避算法相比都得到有效改善,尤其是QL-CWmin算法完全不同于以往傳統的退避算法[14]在節點成功發送完數據后就將CW值恢復為15,從不考慮網絡負載情況,而是使節點能經歷所有的狀態-動作對,根據獎賞值總以較大的概率選擇能成功發送數據且能獲得較高獎賞值的CW。因此,QL-CWmin算法顯著提高了節點接入信道的公平性,且還能適用于不同負載程度的網絡環境。

4 結束語

文中將強化學習中的Q學習算法引入到VANETsMAC層中,詳細設計了車輛節點與車載網絡環境交互學習時所處的狀態和可執行的動作,以及狀態-動作對的映射關系和動作策略,提出了QL-CWmin退避算法,并通過仿真對該算法和現有的其他退避算法進行了對比分析。QL-CWmin算法就廣播幀接收率、端到端時延、數據幀碰撞率、節點公平性及可擴展性而言,性能得到顯著改善。在ε-greedy動作選取機制中ε值固定的情況下,節點在環境中探索新動作時,選擇執行各個動作的概率一樣,這樣選擇最壞動作的概率也很大。后續研究中,為了有效地平衡“探索”和“利用”,將會嘗試動態調整ε值,當前Q值最高的動作賦予最高的概率,而探索的新動作要根據其獎賞值大小賦予不同的概率,從而使研究結果更精確,考慮因素更全面。另外,已提出的基于Q學習的信道接入退避方法是針對單智能體的學習過程的,單智能體的學習方法存在一些問題。例如,智能體對環境僅部分感知、學習搜索空間太大、學習效率低等。因此,針對這些問題,將進一步研究基于多智能體Q學習的接入信道退避方法,有效改善節點接入信道的各方面性能。

[1]ReindersR,EenennaamM,KaragiannisG,etal.ContentionwindowanalysisforbeaconinginVANETs[C]//2011 7thinternationalwirelesscommunicationsandmobilecomputingconference.[s.l.]:[s.n.],2011:1481-1487.

[2]AlasmaryW,ZhuangW.MobilityimpactinIEEE802.11pinfrastructurelessvehicularnetworks[J].AdHocNetworks,2012,10(2):222-230.

[3]BaladorA,CalafateCT,CanoJC,etal.Reducingchannelcontentioninvehicularenvironmentsthroughanadaptivecontentionwindowsolution[J].WirelessDays,2013,30(12):1-4.

[4]LeeGil-Won,AhnSeung-Pyo,KimDong-Seong.ContentionwindowallocationschemeforV2V[C]//2013internationalconferenceonadvancedtechnologiesforcommunications.[s.l.]:[s.n.],2013:501-505.

[5]BooysenMJ,ZeadallyS,vanRooyenGJ.Surveyofmediaaccesscontrolprotocolsforvehicularadhocnetworks[J].IETCommunications,2011,5(11):1619-1631.

[6]ShiC,DaiX,LiangP,etal.Adaptiveaccessmechanismwithoptimalcontentionwindowbasedonnodenumberestimationusingmultiplethresholds[J].IEEETransactionsonWirelessCommunications,2012,11(11):2046-2055.

[7]LamptonA,ValasekJ.Multiresolutionstate-spacediscretizationmethodforQ-Learning[C]//Americancontrolconference.[s.l.]:[s.n.],2009:10-12.

[8] 趙 昀,陳慶偉,胡維禮.一種基于信息熵的強化學習算法[J].系統工程與電子技術,2010,32(5):1043-1046.

[9]WangQ,LengS,FuH,etal.AnIEEE802.11p-basedmultichannelMACschemewithchannelcoordinationforvehicularadhocnetworks[J].IEEETransactionsonIntelligentTransportationSystem,2012,13(2):449-458.

[10] 魏李琦,肖曉強,陳穎文,等.基于相對速度的802.11p車載網絡自適應退避算法[J].計算機應用研究,2011,28(10):3878-3880.

[11] 杜春俠,高 云,張 文.多智能體系統中具有先驗知識的Q學習算法[J].清華大學學報:自然科學版,2005,45(7):981-984.

[12] 陳學松,楊宜民.強化學習研究綜述[J].計算機應用研究,2010,27(8):2834-2838.

[13] 黃玉清,王英倫.支持服務區分的多智能體Q學習MAC算法[J].計算機工程,2013,39(8):112-116.

[14]vanEenennaamM,RemkeA,HeijenkG.AnanalyticalmodelforbeaconinginVANETs[C]//Vehicularnetworkingconference.[s.l.]:IEEE,2012:9-16.

Research on Technology of Channel Access Based onQ-Learning Algorithm for Vehicular Communication

DU Ai-qian1,2,ZHAO Hai-tao1,2,LIU Nan-jie1,2

(1.College of Communication and Information Engineering,Nanjing University of Posts and Telecommunications,Nanjing 210003,China;2.Institute of Network DNA Engineering,Nanjing University of Posts and Telecommunications,Nanjing 210003,China)

AQ-Learningbasedback-offalgorithmisproposedbecausethetraditionalDCFapproachusedforIEEE802.11pMACprotocoltoaccessthechannelhassomeproblemsofthelowpacketdeliveryrate,highdelayandthepoorscalabilityinVANETs.Theproposedalgorithm,whichisquitedifferentfromthetraditionalBEBalgorithm,isadoptedbythenodes(Agents)tointeractwithsurroundingscontinuouslyandlearnfromeachother.ThevehiclenodesadjustthesizeofCW(ContentionWindow)dynamicallyaccordingtotheresultslearnedfromthesurroundingssothatthenodescanaccessthechannelwiththeoptimalCWeventuallyminimizingthepacketcollisionsandend-to-enddelay.Thesimulationresultsshowthatthecommunicationnodesusingtheproposedalgorithmcanadapttotheunknownvehicularenvironmentrapidly,andsimultaneouslythehighpacketdeliveryratio,lowend-to-enddelayandhighfairnesscanbeachievedforvehicularnetworkwithvariouslevelload.

vehicular network;BEB algorithm;contention window;Q-Learningalgorithm;DCF

2016-03-29

2016-08-02

時間:2017-01-10

國家“973”重點基礎研究發展計劃項目(2013CB329005);國家自然科學基金資助項目(61302100,61101105,61201162);江蘇省基礎研究計劃-重點研究專項基金(BK2011027,BK2012434);江蘇省高校自然科學研究基金(12KJB510022,12KJB510020)

杜艾芊(1991-),女,碩士研究生,研究方向為移動通信與無線技術、車聯網車載通信;趙海濤,博士,副教授,研究方向為無線多媒體通信;劉南杰,博士,教授,研究方向為泛在通信、車聯網、智能交通。

http://www.cnki.net/kcms/detail/61.1450.TP.20170110.1019.044.html

TP

A

1673-629X(2017)03-0085-06

10.3969/j.issn.1673-629X.2017.03.018

猜你喜歡
動作環境
長期鍛煉創造體內抑癌環境
一種用于自主學習的虛擬仿真環境
下一個動作
孕期遠離容易致畸的環境
不能改變環境,那就改變心境
環境
孕期遠離容易致畸的環境
動作描寫要具體
畫動作
讓動作“活”起來
主站蜘蛛池模板: 亚洲综合激情另类专区| 国产又黄又硬又粗| 无码专区在线观看| 91一级片| 欧美成人区| 亚洲成人精品久久| 国产无码高清视频不卡| 亚洲最黄视频| 欧美成人精品在线| 特级精品毛片免费观看| 国产又粗又猛又爽视频| 男女男免费视频网站国产| 色妞www精品视频一级下载| 伊人天堂网| 在线国产资源| 免费看美女自慰的网站| 91精品国产自产在线老师啪l| 久久综合伊人77777| 国产亚洲精品资源在线26u| 久久久久人妻精品一区三寸蜜桃| 无码中文字幕加勒比高清| 高清乱码精品福利在线视频| 精品国产亚洲人成在线| 亚洲美女操| 国产黄在线观看| 精品国产成人a在线观看| 久久亚洲欧美综合| 国产午夜福利片在线观看 | 亚洲av无码片一区二区三区| 亚洲an第二区国产精品| 亚洲一级毛片免费看| 亚洲视频四区| 青青热久免费精品视频6| 国产成人综合日韩精品无码首页 | 免费三A级毛片视频| 国产免费久久精品44| 青青久久91| 成人国产免费| 免费观看三级毛片| 在线观看亚洲精品福利片| 国产色婷婷| 亚洲国产日韩在线成人蜜芽| 亚洲人成影院在线观看| 国产91精品调教在线播放| 嫩草影院在线观看精品视频| 国产免费a级片| 91免费国产在线观看尤物| 国产精品欧美在线观看| 亚洲精品va| 超碰精品无码一区二区| 青青国产在线| 欧美日韩在线国产| 亚洲成aⅴ人片在线影院八| 一级毛片在线播放免费观看| 日韩精品久久久久久久电影蜜臀| 日本免费a视频| 久热99这里只有精品视频6| 亚洲天堂区| 国产精品成人久久| 婷婷色丁香综合激情| 国产成人精品一区二区三区| 亚洲色图在线观看| 色亚洲成人| 欧美亚洲欧美区| 成人午夜视频免费看欧美| 中文无码影院| 亚洲天堂精品视频| 国产视频资源在线观看| 在线不卡免费视频| 中文字幕av一区二区三区欲色| 婷婷六月综合| 亚洲香蕉在线| 无码内射在线| 国产精品亚洲一区二区在线观看| 99尹人香蕉国产免费天天拍| 少妇精品久久久一区二区三区| 国产综合另类小说色区色噜噜| 亚洲天堂在线免费| 欧美有码在线观看| 有专无码视频| 国产毛片不卡| 日韩精品亚洲一区中文字幕|