999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

物聯網邊緣計算網絡中基于深度強化學習的動態SFC部署策略

2025-02-28 00:00:00王麗艷鄭先鋒杜婭榮
計算機應用研究 2025年2期
關鍵詞:物聯網

摘 要:針對物聯網(Internet of Things,IoT)終端的移動性和服務請求的隨機性所導致的IoT網絡的動態變化,在物聯網邊緣計算網絡(IoT-mobile edge computing,IoT-MEC)中對物聯網服務功能鏈請求流(IoT-service function chain request,IoT-SFCR)進行動態SFC部署是一個具有挑戰性的問題。首先將IoT-MEC網絡中的動態SFC部署問題分解為兩個子問題,即虛擬網絡功能(virtual network function,VNF)部署子問題和路由路徑確定子問題。然后利用馬爾可夫決策過程(Markov decision process,MDP)對其進行建模。為了使IoT-SFCRs的資源消耗成本和端到端時延的加權和最小,并考慮網絡的負載均衡,接著提出了一種采用目標網絡和經驗重放方法的深度強化學習(deep reinforcement learning,DRL)算法,對每個到達的IoT-SFCR實現動態SFC部署。仿真結果表明,在三種典型網絡類型下,與現有算法相比,該算法的SFC部署成功率提高了17%,平均獎勵提高了23.8%,高效地解決了IoT-MEC網絡中SFC的動態部署問題。

關鍵詞: 物聯網; 移動邊緣計算; 服務功能鏈; 深度強化學習

中圖分類號: TN915 文獻標志碼: A 文章編號: 1001-3695(2025)02-035-0575-07

doi:10.19734/j.issn.1001-3695.2024.06.0222

Deep reinforcement learning-based dynamic SFC deployment in IoT-MEC network

Wang Liyan1,2’ , Zheng Xianfeng1,2 , Du Yarong3

(1.School of Big Data amp; Computer Science, Chongqing College of Mobile Communication, Chongqing 401520, China; 2.Chongqing Key Laboratory of Public Big Data Security Technology, Chongqing 401420, China; 3.China United Network Communications Co.,Ltd., Hunan Branch, Changsha 410013, China)

Abstract:Dynamic service function chain(SFC)deployment for IoT-SFCRs in IoT-edge computing networks is a challenging problem for the dynamic changes in IoT networks due to the mobility of IoT terminals and the stochastic nature of service requests.This paper decomposed the dynamic SFC deployment problem in IoT-MEC networks into two subproblems,namely the VNF deployment subproblem and the routing path determination subproblem.Then it modeled the two subproblems as MDP.In order to minimize the weighted sum of resource consumption cost and end-to-end delay of IoT-SFCRs and to consider the load balancing of the network,it proposed a deep reinforcement learning(DRL)-based algorithm,which employed a target network and empirical replay approach to achieve a dynamic IoT-SFCRs for each arriving SFC deployment.Simulation results show that the algorithm improves the success rate by 17% and the average reward by 23.8% compared to existing algorithms under three typical network types.

Key words:Internet of Things; mobile edge computing; service function chain; deep reinforcement learning

0 引言

隨著物聯網(Internet of Things,IoT)設備的普及,越來越多的異構計算密集型和對延遲敏感的服務請求由物聯網終端產生(例如穿戴設備、虛擬現實終端、智能攝像頭)[1。這些業務請求通常需要使用多種網絡功能(network function,NF),如防火墻(firewall,FW)、深度包檢測(deep package inspection,DPI)、入侵防御系統(intrusion prevention system,IPS)和負載均衡。基于網絡功能虛擬化(network function virtualization,NFV)技術,NF可以從特定的硬件設備中分離出來,在這些硬件設備上,NF由部署在虛擬機(virtual machine,VM)上的軟件應用程序替代,這被稱為虛擬網絡功能(virtual network function,VNF)。VNF能夠靈活適應動態的網絡環境,滿足各種網絡業務的需求[2。此外,軟件定義網絡(software defined network,SDN)將網絡的數據平面與控制平面分離,可以在控制平面中集中處理所有物聯網業務。

然而,一些物聯網服務通常需要更低的延遲和更多的計算資源。得益于移動邊緣計算(mobile edge computing,MEC)技術,邊緣云中的VNF不僅可以縮短物聯網服務的端到端延遲,還可以為邊緣物聯網設備提供計算能力[3,4。此外,從物聯網終端生成的實時服務請求流通常需要按照預定義的順序遍歷由不同的VNF實例組成的服務功能鏈(service function chain,SFC)[5,因此將此類請求定義為物聯網SFC請求(IoT SFC request,IoT-SFCR)[6。由于邊緣云資源有限,SDN控制器需要為IoT-SFCR動態放置VNF和制定最優路由策略。這個問題通常稱為SFC的動態部署問題。針對該問題,在一些特定的網絡場景下,已經有許多較好的解決方案[5~8。但是,針對物聯網邊緣計算網絡這種場景且同時考慮以下因素,解決SFC在IoT-MEC網絡中動態部署的工作較少:a)網絡狀態不斷變化,流量隨機到達;b)對于每種類型的VNF,通常會有多個VNF實例放置在不同的邊緣云上,并且VNF實例可以根據需要動態部署在不同的邊緣云上;c)物聯網服務的服務質量(quality of service,QoS)要求(如延遲、帶寬),確保網絡負載均衡;d)成本和端到端延遲之間的權衡。

傳統的優化方法(如啟發式[9等)難以及時、高效地解決IoT-MEC中的SFC動態部署問題。具體地說,在大規模的物聯網絡中,啟發式方法通常需要花費大量的計算資源,且在環境不斷變化的網絡中,啟發式算法容易陷入局部最優解。近年來,一些文獻采用機器學習方法解決流量路由、VNF放置、SFC編排等問題[10~13。例如,文獻[10,11]提出了基于深度強化學習(deep reinforcement learning,DRL)的方法來解決SFC編排問題,但是沒有考慮網絡中的資源消耗成本、網絡服務質量QoS。文獻[12,13]均研究了虛擬網絡功能轉發圖(VNF-forwarding graph,VNF-FG)的嵌入問題,并提出了不同的DRL算法,但它們都只考慮VNF的放置,而不考慮流量路由問題,并在每一個時間步完成SFC中的單個VNF的放置,未能考慮全局最優的VNF部署,并且所提方法不能適應具有高動態性的物聯網場景。

因此,在本文中,使用馬爾可夫決策過程(Markov decision process,MDP)來捕獲網絡狀態轉換,并提出了一種基于深度強化學習的方法來解決IoT-MEC網絡中的動態SFC部署問題,目標是最小化IoT-SFCRs的資源消耗成本和端到端延遲的加權總和。為了簡化SFC動態部署問題,將其分解為兩個子問題:a)VNF放置問題;b)路由問題。采用典型的基于值的深度強化學習方法—雙深度Q-網絡(double deep Q-network,DDQN)來求解這兩個子問題。基于DDQN的方法可以快速為每一個到達的IoT-SFCR提供高回報的SFC部署方案,然后利用啟發式方法,根據第二個訓練神經網絡輸出的前k個動作確定可行的路由路徑。本文的主要貢獻如下:

a)詳細分析了IoT-MEC網絡中的動態SFC部署問題,并將其表示為一個整數線性規劃(integer linear programming,ILP)問題,其目標是最小化IoT-SFCR的資源消耗成本和端到端延遲的加權和。

b)為了捕捉實時的網絡變化,使用MDP模型構建了兩個子問題,并設計了兩種類型的DDQN網絡,即VNF選擇網絡和SFC路徑搜索網絡(SFC path searching network,SPSN)。此外,構建了一個新的獎勵函數來提高VNF放置的成功率。

c)提出了一種基于深度強化學習的SFC部署算法(deep reinforcement learning-based SFC deployment,DRL-SFCD),該算法將DRL算法與啟發式算法相結合,解決了SFC的動態部署問題,同時考慮了網絡的負載均衡。

d)仿真結果表明,與基準算法相比,本文方法在流的成功接受率和平均獎勵方面具有較高的性能。

1 系統模型和問題刻畫

1.1 物理網絡

1.3 問題描述

解決動態復雜的IoT-MEC網絡中的SFC部署問題,目標是最小化IoT-SFCRs的資源消耗成本和端到端延遲的加權和。由于物聯網網絡的動態變化和請求流的隨機到達,增加了處理SFC動態部署問題的難度。此外,在微云中,由于虛擬機可以靈活高效地實現VNF,同一類型的VNF可能有多個VNF實例,從而導致了多個候選VNF實例的組合。由于物聯網終端和應用的多樣性造成了IoT-SFCR需求的多樣性和異構性,為了滿足時延敏感型網絡服務的端到端延遲需求,有效利用網絡中的各種資源,簡化問題的處理,將SFC動態部署問題分解為兩部分:a)VNF放置子問題;b)流量路由子問題,即為SFC中相鄰節點對選擇最優路徑。

1.4 問題刻畫

使用ILP解算器或啟發式算法解決上述優化問題并不簡單,因為需要大量的迭代和計算。因此,本文使用了深度強化學習,專門解決組合優化問題[14,以實時獲得網絡狀態變化,并優化動態SFC放置。

2 利用深度強化學習動態放置SFC

在本章中,提出了一種結合深度強化學習和啟發式算法的智能方法,以解決IoT-MEC網絡中的動態SFC放置問題。首先,對提出的解決方案進行概述。然后,將問題描述為一個MDP模型,該模型被定義為一個三元組〈S,A,Euclid Math OneRAp〉。

a)綜述:為了實現最優的SFC部署,首先使用DDQN按照以下思路獲取網絡中的最優VNF實例組合。SDN控制器獲取網絡狀態和到達物聯網SFCR的信息,并將其發送到VNF選擇網絡的VNF輸入層。然后,VNF選擇網絡輸出層中每個動作的Q值。代理以最大的Q值執行操作。所有的結果,包括狀態、動作、獎勵和下一個狀態,都作為經驗樣本數據存儲在用于訓練DDQN模型的經驗記憶中。最后,需要檢查所選云上是否部署了所需的VNF實例。如果沒有部署,則需要在云上動態地放置VNF實例。

為了連接源節點、目標節點和選定的云,將DDQN和啟發式算法結合起來進行路徑搜索。例如,在圖1中,有四條路徑需要按預定順序生成,即(物聯網終端,cloudlet3)、(cloudlet3,cloudlet4)、(cloudlet4,cloudlet5)、(cloudlet5,src)。迭代地使用每條路徑的起始和結束節點以及剩余帶寬資源比作為SFC路徑搜索網絡(SFC path searching network,SPSN)的輸入。SPSN輸出所有候選路徑的Q值,對每條路徑進行初步分析。由于鏈路資源的限制,一些離散的操作是不可行的,使用啟發式算法來有效地解決這個問題。具體來說,通過選擇前k個動作來優化動作空間大小。然后,將前k個動作發送到啟發式算法中,以判斷這些鏈路是否有足夠的資源來路由IoT-SFCR,即需要判斷所選鏈路是否被識別為瓶頸鏈路。如果它們沒有被識別為瓶頸,計算獎勵并選擇獎勵最高的鏈接。最后,如果能夠獲得最佳路徑集,則說明IoT-SFCR成功服務。

圖2是基于DRL和啟發式算法的動態SFC部署框架。步驟①~⑦是兩個DDQN網絡的訓練過程。步驟①通過SDN控制器獲取當前網絡狀態,并將其發送給代理。步驟②輸出與最佳Q值對應的動作。代理通過網絡監控組件從網絡環境中獲得獎勵并觀察下一個狀態后,生成的樣本(ss,as,rs,s′s)存儲在經驗回放中,用于步驟③中的網絡訓練。步驟④~⑥與步驟①~③類似。代理與網絡交互以獲得狀態,執行操作,然后在下次環境達到新狀態時,環境又會產生新的反饋獎勵。所有這些數據都記錄在Ep中。在步驟⑦中,代理隨機取出一小批數據用于在線網絡的訓練。對于每個固定的時間步長,將目標網絡的參數更新為在線網絡的參數。

圖2中的虛線是算法的運行過程。步驟(1)將SDN控制器聯合代理獲取的網絡信息輸入到VNF選擇網絡。步驟(2)輸出每個VNF實例組合的Q值,然后,代理選擇最佳操作并將結果發送到SPSN。在步驟(3)中,代理在執行云選擇和動態VNF部署后觀察網絡狀態。步驟(4)對路由路徑集進行初步分析。步驟(5)使用啟發式算法,根據代理輸出的前k個動作確定最佳可行的路由路徑集。

b)MDP模型:事實上,在實際網絡場景中,由于網絡的變化和IoT-SFCR的隨機到達,在動態網絡中很難找到最優路由路徑。下一個SFC部署只與網絡當前的狀態有關。因此,可以使用MDP模型對動態網絡進行建模。首先,描述了VNF選擇網絡的輸入,即網絡狀態包括:云{ωcpu1,ωcpu2,…,ωcpu|C|}的剩余CPU資源比率,其中|C|是集合C的基數、IoT-SFCR i的VNF類型p∈Fi的CPU資源消耗為Rcpui,p;端到端延遲要求大小為Rdelayi。那么,網絡狀態掃描可以用一個向量來表示:

ss={{ωcpu1,ωcpu2,…,ωcpu|C|},Rcpui,p,Rdelayi}(14)

因此,狀態空間的維數為|C|+|Fi|+1。

在本文中,假設IoT-SFCR需要遍歷的VNF被放置在不同的云上。例如,如果IoT-SFCR需要遍歷三種VNF,必須選擇三種不同的云。定義動作集以及所有可能的云組合。假設IoT-MEC網絡中有N=|C|個云,IoT-SFCR需要遍歷K種類型的VNF實例,有CKN×AKK種可能的組合,即動作空間的維數也是CKN×AKK。一旦選擇了某個操作,必須檢查云上是否有相應的VNF實例,如果沒有,則立即動態部署VNF實例。

接下來,將操作ap表示為用于連接開始和結束對節點的路徑。由于源節點、目的節點和VNF選擇網絡選擇的節點之間需要生成|Fi|+1路徑,所以代理必須迭代確定路徑。此外,還需要通過限制路徑長度來過濾動作空間,即設置最大傳輸跳數h,以避免過多的延遲。列出了SFC中兩個相鄰節點的所有可選路徑,并根據它們的長度對它們排序。然后,根據經驗選取排序后的前600條路徑,將動作空間ap的維數限制在600,有利于神經網絡的訓練和收斂。

最后,將VNF選擇網絡的獎勵函數定義如下:

rs=-∑c∈C^dc-∑p∈Pi ∑c∈Cxpc(ηa1-ωcpuc-Costi(d)(15)

其中:是所選的云集。

在計算狀態和選擇的動作下的獎勵之前,必須判斷所選的云上是否有足夠的資源來放置VNF。如果資源充足,根據式(16)計算獎勵,否則,經驗設置獎勵為-200。因此,代理會嘗試選擇資源剩余率高的云,以提高IoT-SFCR的成功率。

最后,為了共同優化資源消耗成本和端到端延遲,將SPSN的獎勵函數定義為物聯網的資源消耗成本和端到端延遲的負加權和。同樣,當IoT-SFCR沒有可行路徑時,SPSN的獎勵經驗設置為-500。獎勵方式如下:

rp=-λ1∑l∈L^dl2∑m,n∈Fi ∑uv∈Euclid Math OneLApxmnuv(ηb1-ωbwuv(16)

其中:L^是連接源節點、目標節點和那些被選中的云的路徑集。為了保證算法的穩定性,利用加權因子λ1和λ2保證兩個獎勵的數量級相同。由于∑l∈L^dl相對于鏈路上的資源消耗成本來說是一個較小的值,為了使訓練穩定,必須保證λ1gt;λ2

3 算法

3.1 神經網絡訓練算法

在本文中,使用一個神經網絡來逼近值函數。通過對DDQN的不斷訓練,可以更精確地逼近Q函數的分布,實現有效的SFC部署策略。DDQN網絡使用經驗重放池來存儲每次迭代的經驗樣本,并隨機從經驗重放池中提取一些數據來更新網絡參數,從而打破數據之間的相關性。由于都使用DDQN模型來解決VNF選擇網絡和SFC路徑搜索網絡(SPSN)這兩個子問題,所以都使用算法1來訓練網絡。分別用θs和θp對VNF選擇網絡和SPSN進行參數化,它們都包含在線網絡和目標網絡。這兩種在線網絡和目標網絡分別用θs和θp、θ-s和θ-p參數表示。這兩種網絡的訓練過程詳見算法1。

算法1 神經網絡訓練程序

4 仿真和結果分析

4.1 仿真設置

1)網絡拓撲

由于物聯網設備的多樣性和隨機部署特性,IoT-MEC網絡的實際網絡拓撲結構是不規則的。因此,使用Python NetworkX2.4[15庫生成了三種典型的網絡拓撲作為仿真拓撲,這有助于說明DRL-SFCD算法的適用性和通用性。這三種網絡拓撲分別是隨機網絡、小世界網絡[16和自由擴展網絡17。對于每種類型的網絡拓撲,都有24個節點,其中8個節點被選為云,用于通過放置的VNF處理IoT-SFCR。隨機網絡的連通概率為0.4,小世界網絡有10個鄰居節點,重新連接概率為0.2,自由擴展網絡的初始節點數為7。VNF有六種類型:FW、Proxy、NAT、IPS、IDS和Gateway。CPU要求分別為1 600 MIPS、1 200 MIPS、2 000 MIPS、3 000 MIPS、2 400 MIPS、1 800 MIPS[18。每個云放置1~2種類型的VNF實例,IoT-SFCR在AP節點中隨機生成。將每個云的CPU容量設置在3 000~8 000 MIPS。每條鏈路的帶寬和時延分別設置在[1 000,10 000]Mbit/s和[2,5]ms。云上的延遲隨機設置為4~8 ms。將式(16)中的權重因子λ1、λ2分別設為3和1。

2)SFC請求

在本文中,假設每個IoT-SFCR在到達目的節點之前需要遍歷三種類型的VNF[18。對于每個IoT-SFCR,隨機設置帶寬要求Rbwi為[10,120]Mbit/s。最大允許延遲Rdelayi設置在[50,100]ms。隨機生成20個IoT-SFCR來評估DRL-SFCD算法的性能。

3)對比算法

a)隨機方法(random method):隨機方法隨機選擇云放置/遍歷VNF實例,并為每個到達的IoT-SFCR連接兩個相鄰的VNF實例路由路徑。

b)時延最小貪心算法(delay-least-greedy method)[19:延遲最小方法通常為每個到達的IoT-SFCR選擇延遲最小的云和路由路徑。同時,對該方法進行了改進,以避免選擇高負載的云和鏈接,并賦予它們較高的代價。

c)DQL聯合最短路徑算法(DQL-SP):在這種方法中,利用Dijkstra算法為每個IoT-SFCR搜索路由路徑。對于云的選擇,本文采用了DDQN算法。

仿真平臺:仿真環境設置在一臺使用Intel Core i5和8 GB RAM的機器上。使用一個基于Python的框架和TensorFlow來構建和訓練深度神經網絡。

4.2 結果分析

首先比較隨機網絡下IoT-SFCR數量變化時的成功率,如圖3所示。IoT-SFCR所需的資源只有在它們進入網絡時才能獲得。結果表明,在大多數情況下,DRL-SFCD的性能優于其他算法,這意味著經過訓練的代理能夠很好地指導SDN控制器動態放置VNF實例并找到合適的路由路徑。也可以注意到,DQL-SP算法在IoT-SFCR的成功率方面與本文算法是一致的。原因是它們使用相同的方法來查找云來遍歷VNF實例。由于將跳數設置為6,貪婪算法和隨機算法可能找不到路徑,導致IoT-SFCR無法服務,而最短路徑法可以保證找到路徑。另外,隨機算法和時延最小貪心算法由于不能動態部署SFC,性能較差,無法獲得最優解。

為了更清楚地展示實驗結果,本文在圖4中給出了IoT-SFCR在隨機網絡下的平均獎勵。本文定義的獎勵是符合優化目標的資源使用成本和延遲成本的加權和。可以看到,DQL-SP算法只有在SFCR數量在60個以下時才能優于比較算法。當IoT-SFCR數量超過60個時,平均獎勵明顯且快速下降。然而,DRL-SFCD沒有顯著的變化,卻獲得了最大的回報。可以得出結論,本文DRL-SFCD算法在隨機網絡拓撲中比其他方法有更好的性能。

圖5展示了IoT-SFCR數量在20~200時,這些算法在小世界網絡下的IoT-SFCR的接受成功率。可以看到,DQL-SP算法和提出的DRL-SFCD算法有相同的結果,因為它們使用相同的方法放置VNF實例,當路由流量沒有路徑或所選路徑沒有足夠的資源時,IoT-SFCR將被拒絕。還可以發現,本文提出的DRL-SFCD算法的IoT-SFCR的成功率始終高于其他比較算法。

圖6為小世界網絡下IoT-SFCR的平均獎勵。當IoT-SFCR的數量在20~200個時,可以發現,DRL-SFCD在80個IoT-SFCR之后可以獲得最大的獎勵。這是因為DQLSP總是找到適合少量IoT-SFCR的最短路徑。當IoT-SFCR數量增加時,無法保證網絡資源的均衡使用。在80次IoT-SFCR后,三種比較方法的平均獎勵都迅速下降。可以得出結論,在小世界網絡中,DRL-SFCD算法比其他算法具有更好的性能。

圖7為自由擴展網絡條件下IoT-SFCR數量為20~200時IoT-SFCR結果的成功率。結果表明,與其他兩種方法相比,DRL-SFCD和DQL-SP算法具有最高的IoT-SFCR成功接受率。隨著IoT-SFCR數量的增加,所有方法的IoT-SFCR的成功率都會下降,原因是資源消耗成本增加,部分鏈接和云成為瓶頸。可以發現,所有方法的IoT-SFCR的成功率與上述網絡具有相同的變化趨勢。

圖8為自由擴展網絡條件下,IoT-SFCR數量為20~200時的平均獎勵。可以發現,所有方法的平均報酬與上述網絡具有相同的變化趨勢。在這些圖中可以看到,本文提出的DRL-SFCD算法在IoT-SFCR數量較多的情況下比其他方法獲得的獎勵最好,在大多數情況下IoT-SFCR的成功率最好。在本文中,IoT-SFCR的資源需求是不斷變化的,從而形成了一個動態的場景。因此,有必要考慮動態SFC部署方案,使資源消耗成本和端到端延遲的加權總和最小。這些結果表明,所提出的DRL-SFCD算法能夠動態地適應網絡的變化,證明了該方法的有效性。綜上所述,在三種典型的網絡類型下,本文算法平均提高了23.8%的平均獎勵率和17%的成功率。

5 結束語

本文提出了一種高效的基于DRL的SFC動態部署算法DRL-SFCD,用于處理動態IoT-MEC網絡中的IoT-SFCR。為了簡化SFC的動態部署問題,將其分解為VNF布局子問題和流量路由子問題。VNF選擇網絡和SPSN是為了實現最優VNF實例選擇和路由路徑確定而設計的。可以使用訓練有素的代理快速響應IoT-SFCR。仿真結果表明,在三種典型的網絡拓撲下,所提方法在IoT-SFCR的成功率和平均回報方面均優于DDQN聯合最短路徑法、隨機方法和貪婪方法。

參考文獻:

[1]梁俊斌,黃少東,吳旭,等.綠色移動邊緣網絡中可靠的虛擬網絡功能部署技術研究[J].計算機應用研究,2023,40(12):3521-3528,3538.(Liang Junbin,Huang Shaodong,Wu Xu,et al.Research on reliable virtual network function deployment technology in green mobile edge networks[J].Application Research of Computers,2023,40(12):3521-3528,3538.)

[2]Li Junhuai,Wang Ruijie,Wang Kan.Service function chaining in industrial Internet of Things with edge intelligence:a natural actor-critic approach[J].IEEE Trans on Industrial Informatics,2022,19(1):491-502.

[3]He Nan,Yang Song,Li Fan,et al.Leveraging deep reinforcement learning with attention mechanism for virtual network function placement and routing[J].IEEE Trans on Parallel and Distributed Systems,2023,34(4):1186-1201.

[4]陳嘉亮,王豐,張瀟.移動邊緣計算網絡下的服務功能鏈部署優化設計[J].計算機應用研究,2022,39(10):3108-3113.(Chen Jialiang,Wang Feng,Zhang Xiao.Optimization design of service function chain deployment under mobile edge computing network[J].Application Research of Computers,2022,39(10):3108-3113.)

[5]Liu Yicen,Lu Hao,Li Xi,et al.Dynamic service function chain orchestration for NFV/MEC-enabled IoT networks:a deep reinforcement learning approach[J].IEEE Internet of Things Journal,2020,8(9):7450-7465.

[6]Xu Jiuyun,Cao Xuemei,Duan Qiang,et al.Service function chain deployment using deep Q learning and tidal mechanism[J].IEEE Internet of Things Journal,2024,11(3):5401-5416.

[7]Yang Song,Li Fan,Trajanovski S,et al.Delay-aware virtual network function placement and routing in edge clouds[J].IEEE Trans on Mobile Computing,2019,20(2):445-459.

[8]Liu Yicen,Lu Hao,Li Xi,et al.A novel approach for service function chain dynamic orchestration in edge clouds[J].IEEE Communications Letters,2020,24(10):2231-2235.

[9]Jin Panpan,Fei Xincai,Zhang Qixia,et al.Latency-aware VNF chain deployment with efficient resource reuse at network edge[C]//Proc of IEEE Conference on Computer Communications.Piscataway,NJ:IEEE Press,2020:267-276.

[10]Wang Shaoyang,Lyu Tiejun.Deep reinforcement learning for demand-aware joint VNF placement-and-routing[C]//Proc of IEEE GlobeCom Workshops.Piscataway,NJ:IEEE Press,2019:1-6.

[11]Jia Junzhong,Yang Lei,Cao Jiannong.Reliability-aware dynamic ser-vice chain scheduling in 5G networks based on reinforcement learning[C]//Proc of IEEE Conference on Computer Communications.Pisca-taway,NJ:IEEE Press,2021:1-10.

[12]Lin Rongping,Yu Song,Luo Shan,et al.Column generation based service function chaining embedding in multi-domain networks[J].IEEE Trans on Cloud Computing,2021,11(1):185-199.

[13]Liu Liang,Guo Songtao,Liu Guiyan,et al.Joint dynamical VNF placement and SFC routing in NFV-enabled SDNs[J].IEEE Trans on Network and Service Management,2021,18(4):4263-4276.

[14]Singh S,Okun A,Jackson A.Learning to play Go from scratch[J].Nature,2017,550(7676):336-337.

[15]NetworkX 2.4[EB/OL].(2019-10-16).https://pypi.org/project/networkx/.

[16]Newman M E J.The structure and function of networks[J].Compu-ter Physics Communications,2002,147(1-2):40-45.

[17]Barabási A L,Bonabeau E.Scale-free networks[J].Scientific American,2003,288(5):60-69.

[18]Pei Jianing,Hong Peilin,Pan Miao,et al.Optimal VNF placement via deep reinforcement learning in SDN/NFV-enabled networks[J].IEEE Journal on Selected Areas in Communications,2019,38(2):263-278.

[19]Sun Chen,Bi Jun,Zheng Zhilong,et al.SLA-NFV:an SLA-aware high performance framework for network function virtualization[C]//Proc of ACM SIGCOMM Conference.New York:ACM Press,2016:581-582.

猜你喜歡
物聯網
基于物聯網的無線測溫模塊設計
軟件導刊(2016年9期)2016-11-07 21:56:29
基于物聯網ZigBee技術的智能家居監控系統 
軟件導刊(2016年9期)2016-11-07 21:32:45
物聯網監測技術在G15W112邊坡的應用
基于物聯網的健康管理服務模式
基于物聯網的煤礦智能倉儲與物流運輸管理系統設計與應用
基于高職院校物聯網技術應用人才培養的思考分析
如何在高校架設學生洗衣服務系統
科技視界(2016年22期)2016-10-18 17:23:30
基于無線組網的智慧公交站點信息系統研究與實踐
基于LABVIEW的溫室管理系統的研究與設計
論智能油田的發展趨勢及必要性
主站蜘蛛池模板: 亚洲黄网在线| 国产办公室秘书无码精品| 免费va国产在线观看| 国产九九精品视频| 亚洲精品男人天堂| 三级毛片在线播放| 全部毛片免费看| 亚洲av无码久久无遮挡| 69视频国产| 四虎在线高清无码| 国产精品亚洲一区二区三区z| 国产精品视频公开费视频| 一区二区自拍| 亚洲区欧美区| 欧美三级不卡在线观看视频| 国国产a国产片免费麻豆| 1769国产精品视频免费观看| 精品91在线| 日本午夜精品一本在线观看 | a网站在线观看| 国产精品福利在线观看无码卡| 国产剧情无码视频在线观看| 日本一区二区三区精品视频| 伊人久久久大香线蕉综合直播| www.99在线观看| 亚洲精品国偷自产在线91正片| 992Tv视频国产精品| 1769国产精品免费视频| 三级毛片在线播放| 国产人成在线观看| 国产午夜无码专区喷水| 久久婷婷综合色一区二区| 91精品在线视频观看| 国产成人午夜福利免费无码r| 国产好痛疼轻点好爽的视频| 中文字幕伦视频| 欧美亚洲另类在线观看| 高清码无在线看| 日韩视频福利| 亚洲浓毛av| 色婷婷狠狠干| 大乳丰满人妻中文字幕日本| 国产精品亚洲欧美日韩久久| 精品国产香蕉伊思人在线| 99久久精品国产自免费| 黄色国产在线| 国产人妖视频一区在线观看| 国产成人精品2021欧美日韩| 久久国产精品无码hdav| 青青青视频免费一区二区| 亚洲一区二区三区中文字幕5566| av在线人妻熟妇| 丁香婷婷在线视频| 亚洲欧美自拍视频| 亚洲国产精品一区二区第一页免| 欧美一区二区自偷自拍视频| 伊人久久大香线蕉aⅴ色| 亚洲男人天堂久久| 国产99在线观看| 欧洲极品无码一区二区三区| 午夜爽爽视频| 国产日本视频91| 亚洲婷婷在线视频| 国产国语一级毛片| 一级毛片免费观看久| 成人午夜视频免费看欧美| 国产精品女主播| 波多野结衣一二三| 在线五月婷婷| 亚洲日本一本dvd高清| 亚洲精品第五页| 97视频在线精品国自产拍| 国产原创第一页在线观看| 日韩欧美视频第一区在线观看| 亚洲国内精品自在自线官| 视频二区亚洲精品| 色综合久久综合网| 91在线精品免费免费播放| 亚洲中文无码av永久伊人| 亚洲美女高潮久久久久久久| JIZZ亚洲国产| 亚洲综合狠狠|