







摘 要: "智能設備存在著存儲能力以及計算能力不足的問題,導致無法滿足計算密集型和延遲敏感型應用的服務質量要求。邊緣計算和云計算被認為是解決智能設備局限性的有效方法。為了有效利用邊云資源,并在延遲和服務失敗概率方面提供良好的服務質量,首先提出了一種三層計算系統框架,然后考慮到邊緣服務器的異構性和任務的延遲敏感性,在邊緣層提出了一種高效的資源調度策略。三層計算系統框架可以根據應用程序的延遲敏感性提供計算資源和傳輸時延,保證了邊緣資源的有效利用以及任務的實時性。仿真結果驗證了所提資源調度策略的有效性,并表明該調度算法優于現有傳統方法。
關鍵詞: "邊緣計算; 邊云協同; 調度算法; 延遲敏感
中圖分類號: "TP393.04 """文獻標志碼: A
文章編號: "1001-3695(2022)02-037-0543-05
doi:10.19734/j.issn.1001-3695.2021.07.0281
Edge cloud collaboration scheme based on delay sensitive application
Zhang Fan, Wang Yagang, Liu Zijie
(University of Shanghai for Science amp; Technology, Shanghai 200093, China)
Abstract: "The storage and computing capabilities of smart devices are insufficient.As a result,they cannot meet the service quality requirements of computation-intensive and delay-sensitive applications.The effective methods to solve the limitations of smart devices are mainly edge computing and cloud computing.In order to effectively use edge cloud resources,and in terms of delay and service failure probability to provide good service quality,this paper proposed a three-layer computing system framework,and then considering the heterogeneity and edge server task delay sensitivity,proposed an efficient resource scheduling strategy at the edge layer.The three-layer computing system framework could provide computing resources and transmission delay according to the delay sensitivity of applications,which ensured the effective utilization of edge resources and real-time performance of tasks.Simulation results verify the effectiveness of the proposed resource scheduling strategy,and show that the scheduling algorithm is better than the existing traditional methods.
Key words: "edge computing; edge cloud collaboration; scheduling algorithm; delay sensitive
隨著工業、電子信息技術的快速發展,工業4.0[1]萬物互聯時代正在來臨。云計算具有強大的計算和資源存儲能力,能夠進行集中決策和發布控制命令。云計算已經適應了不同的應用領域,具有快速部署、可伸縮性和降低成本的特點。然而,云服務器通常遠離終端設備,終端設備通過廣域網(wide area network,WAN)與云服務器交互,這會導致不可預測的延遲以及延遲敏感應用服務質量的下降。并且WAN延遲不太可能得到改善,云服務器很難為延遲敏感應用提供清晰的交互式響應[2]。為了解決云服務器的網絡時延問題并為客戶提供良好的服務質量,提出了邊緣計算的概念。邊緣計算得到了工業界和學術界的廣泛關注[3~6]。
邊緣計算可以看做是將云服務擴展到網絡邊緣,提供了在網絡邊緣[7]進行計算的能力。邊緣計算使用有限計算資源的小型邊緣服務器及時為網絡邊緣的終端用戶提供服務。因此,邊緣計算可以為應用程序提供低且可預測的網絡延遲,運行在邊緣服務器上的應用可以利用超低延遲對服務進行快速處理。邊緣服務器與云服務器相比規模小,距離終端設備更近,物理上的接近性和高帶寬無線接入保證了端到端業務的快速響應時間。與云相比,邊緣服務器的資源有限,將延遲敏感度高的服務請求分配到邊緣服務器執行,延遲敏感度不高的服務請求分配到云端執行,能夠在很大程度上節約邊緣服務器的資源和成本。文獻[8~11]提出了邊緣計算的框架和策略。同時,文獻[12,13]指出,計算資源調度是實現實時性能以及實現邊緣計算和智能制造之間融合的重要因素。因此,資源調度策略對于保證實時性是一個重要的方面。
本文在邊云協同的體系結構下,探討了邊緣計算中的資源調度問題,以提供實時計算服務。本文提出了基于邊云協同的三層計算系統框架,該框架可以根據不同應用的服務質量需求分配資源;在邊緣層提出了一種資源調度算法,該調度算法充分考慮到邊緣服務器的異構性,能夠給延遲敏感應用合理地分配邊緣服務器的計算資源。
1 相關工作
文獻[14]提出了一種基于物聯網制造的邊緣計算體系架構,并分析了邊緣計算在制造系統中的作用。文獻[15]提出了一種基于云和MEC的工業控制系統架構以及最優的服務布局方法,并通過虛擬電廠進行模擬仿真,在保證實時性的同時使成本降到最低。文獻[16]提出了霧到云的三層系統框架,該框架改進了傳統的F2C架構,并在改進的框架下實現了延遲敏感服務的資源調度方法。文獻[17]提出了一種邊云協同智能制造的微服務布局機制,并提出了一種精確的基于數據驅動的時延估計方法,其目的是最小化系統的整體延遲。以上工作都設計了整體計算系統框架,并在該框架下考慮了服務的實時性要求,但是,這些文獻并沒有考慮到多邊緣計算服務器的異構性。
文獻[18]設計了一個用于復雜動態校園環境下的自適應資源分配和計算卸載的邊緣計算平臺,實現了終端用戶計算任務的合理卸載,并優化了整個卸載過程的總延遲成本。文獻[19]提出了一個支持區塊鏈的邊云計算系統框架,并開發了一種高效能的動態任務卸載算法,以最小化能源消耗和任務響應時間。文獻[20]在考慮信道干擾和排隊的情況下,設計了一種分布式兩階段卸載策略,對密集服務器進行卸載決策,該策略能夠有效降低延遲和能耗。但是這些卸載策略沒有考慮到資源調度過程中服務的預期響應時間,因此對于邊緣計算層的資源不能進行有效的利用。
文獻[21]提出了一種可動態調整計算和網絡資源的智能敏捷資源控制方案。文獻[22]主要研究了邊緣計算中基于容器的服務遷移問題,提出了一種基于移動感知的服務遷移機制,能有效減少服務過程中的等待延遲和遷移延遲。文獻[23]提出了一種新的邊緣計算數據分析框架,基于一種新的分散算法,使所有節點在不共享原始數據的情況下獲得全局最優模型。文獻[24]充分考慮了邊緣服務器有限的存儲和計算能力,為了降低智能設備的整體延遲,提出了一種聯合服務緩存和任務卸載的延遲控制策略。上述研究都是為了降低系統的整體延遲,并沒有考慮單個延遲敏感應用的實時約束。
2 系統整體框架
2.1 三層計算系統框架
傳統體系框架主要是通過云服務器來完成終端設備的服務請求操作。該結構的主要缺點是不能滿足實時性要求,特別是對于一些延遲敏感服務,因為互聯網的網絡延遲是不可預測的。隨著邊緣計算概念的提出,越來越多的人將邊緣計算作為處理延遲敏感服務的有效途徑,它能夠在靠近終端設備處提供高效且低延遲的服務。因此,本文在邊緣計算的基礎上提出了三層混合計算系統框架,如圖1所示。三層計算系統框架主要分為云計算層、邊緣計算層和SDN、NFV層三層。
顯然,云計算層具有數據存儲和計算能力的優勢,可以用來處理計算量大的任務。邊緣計算層接近終端設備,具有實時性的優點(邊緣計算層比智能設備擁有更多的計算資源和存儲資源)。SDN、NFV層可以簡單地提供不同網絡設備間的合作。軟件定義網絡(software defined networks,SDN)主要是優化網絡基礎設施架構,比如交換機路由器和無線網絡;網絡功能虛擬化(virtualized network function,NFV)主要優化網絡功能,比如負載均衡、防火墻等。從網絡的視角來看,所有計算資源都被集成到三層計算系統框架中。
終端設備通過低延遲和高帶寬的無線網絡連接到無線接入點AP(acess point)。智能設備、邊緣服務器在同一個局域網(local area network,LAN)內。邊緣服務器與云服務器通過廣域網連接。如果智能設備上應用程序的任務被分配給云,則廣域網中的非對稱數字用戶線路(asymmetrical digital subscriber line,ADSL)連接將被分配給智能設備以執行應用程序的任務。為了解決智能設備資源匱乏的問題,本文將所有對延遲敏感的任務都卸載到附近的邊緣服務器中,對于延遲敏感度不高的任務,就將它卸載到云上。
2.2 整體工作過程
本文假設所有的終端智能設備都能夠使用虛擬機技術[2]在邊緣服務器上快速實例化定制服務軟件。如果智能設備上的應用程序生成了任務,該應用程序會向三層計算系統框架發送服務請求,服務請求中包含了對CPU資源的請求和延遲敏感度相關的服務質量(quality of service,QoS)要求等信息。延遲敏感度是0~1的任意常數,延遲敏感度的值越大,對應用程序的延遲就越敏感。本文假設同一個應用程序的所有服務請求都具有相同的CPU和QoS請求。延遲敏感度隨著應用程序而變化,將整個服務請求的時間劃分為多個時間段,每個時間段都由活動時間和空閑時間組成,應用程序在活動時生成任務,在空閑時等待。在每個周期的開始,智能設備選擇一個概率為 τ i 的應用程序并運行它。本文假設在活動時間生成的任務數量服從泊松分布,并且同一個應用程序中的所有任務都具有相同的大小。在本文框架中,邊緣計算層主要包含接入點AP、邊緣服務器、層調度器和層控制器四種類型的實體。
a)AP。智能設備通過無線局域網連接到AP,并將產生的任務請求發送到AP。
b)邊緣服務器。對于邊緣計算層而言,包含了不同計算資源和存儲能力的服務器,它們提供資源,用 N vm和V vm 分別表示服務器上的虛擬機(virtual machine,VM)數量和VM的處理器速度。本文假設應用程序的一個任務需要固定的CPU資源,并且同一臺服務器上的所有虛擬機都含有相同的資源。用 CPU i 和 CPU vm 分別表示應用程序 i 生成的任務在虛擬機上的CPU使用率和當前虛擬機CPU的使用率。任務的CPU使用率隨應用程序的變化而變化。例如,智能醫療、自動駕駛應用程序產生任務的CPU使用率要高于信息娛樂應用產生的任務的CPU使用率。
c)駐留在邊緣計算層中的層調度器。它的主要任務是提供層調度服務,根據服務的延遲敏感性,將任務分配到邊緣服務器或者云服務器。如果一個任務對延遲非常敏感,那么層調度器將其分配到邊緣服務器中。如果一個任務對延遲敏感度要求不高,例如信息娛樂應用的任務或者資源下載的任務,層調度器將其分配到云上執行。
d)層控制器。它的主要功能是負責服務的準入控制以及資源的分配。當服務請求進來之后,層控制器會去檢查邊緣服務器中是否有足夠的計算資源,當資源不夠時會拒絕該服務請求;當有足夠的資源去執行任務時,會根據不同的邊緣服務器資源以及任務的預期響應時間去分配資源。
具體的執行過程如圖2所示。首先,智能設備連接到接入點AP并向層調度器發送服務請求,層調度器從任務請求中獲取任務的延遲敏感度并將該任務分配給邊緣層或云層。然后服務請求將被發送到分配的層控制器,由于服務器資源有限,當許多服務同時到達同一層時,一些請求可能會被拒絕。在一個服務被接收之后,層控制器將會調用空閑資源來執行該任務。本文假設所有的任務都在虛擬機上執行。
3 邊緣計算層調度算法
3.1 邊緣層框架
邊緣計算層靠近終端設備,在處理一些對實時性要求高的任務時起著非常重要的作用。邊緣層主要由多個邊緣服務器簇組成,每個邊緣服務器在計算、存儲以及任務負載方面都有所不同,在邊緣層中,邊緣服務器之間可以通過有線鏈路、光纖等進行連接。為了實現高效的任務處理過程,邊緣服務器放置在靠近終端設備的位置,隨機產生的任務被傳輸到合適的邊緣服務器進行處理,以確保任務的實時性。如圖3所示,邊緣服務器主要用來處理請求的任務,其中包含了VM、虛擬化環境、硬件平臺和框架的中間件等。因此,對于本文而言,如何在邊緣服務器集合中選擇一個合適的邊緣服務器來處理應用的任務請求是一個值得思考的問題。
3.2 邊緣層調度算法
邊緣計算層的調度算法分為兩步:a)對于層調度器而言,決定用戶任務是在邊緣還是在云上執行;b)對于在邊緣計算層上執行的任務而言,層控制器具體選擇哪個服務器去執行該任務。
采用本文資源調度算法處理任務 k 的服務請求時,先將任務 k 的服務請求初始化為失敗,再根據 α(0lt;αlt;1) 選擇為任務 k 提供資源的層,其中 α 是任務 k 的延遲敏感度。本文假設一個應用程序生成的所有任務都具有相同的時間敏感度。 α 值越大,表示該任務對延遲就越敏感, 設置 β 為延遲敏感閾值,它是個常數且 0lt;βlt;1 ,若任務的 α 值大于 β 則被分配到邊緣計算層去執行,否則,被分配到云上執行。當選擇某一層后,通過該層的層控制器去選擇該層中資源充足的虛擬機去執行任務。如果當前可用的CPU資源大于等于該任務所需的CPU資源,則任務 k 會被標記為成功,否則,任務 k 的服務請求將會失敗。
任務的整體延遲主要取決于傳輸時間和任務處理時間,具體的說,對于單個邊緣服務器中任務 k 的整體延遲可以表示為
T res k=T trans k+T process k+T re k ""(1)
其中: T trans k、T process k、T re k 分別表示任務傳輸到服務器的時間(上行時間)、任務的處理時間以及接收到任務處理結果的時間(下行時間)。假設 g k 是移動用戶到網關的信道增益, B w 表示信道帶寬, P s 表示移動用戶在時隙s的發送功率,可以得到傳輸速率(bps)為
Rk=B w log "2(1+ p sg k σ2 ) ""(2)
其中: σ2 為高斯白噪聲的功率。假設任務 k 上傳時的數據可能大小為 Mk pre ,則 T trans k 可以進一步表示為
T trans k= Mk pre Rk """(3)
同樣地,假設任務處理完成之后發送給移動用戶的數據大小為 Mk cur,則T re k 可以表示為
T re k= Mk cur Rk """(4)
假設任務 k 所需的CPU資源為 rk ,VM的處理器速度為 V vm ,則任務 k 的處理時間 T process k 可以表示為
T process k= rk V vm """(5)
通過式(2)~(5)可以得到任務 k 的整體延遲為
T res k= Mk pre+Mk cur Rk + rk V vm """(6)
設 N 為所有任務的數量,則所有服務的平均整體延遲為
T "· "res k=∑ N k=1 "T res k N """(7)
為了確保處理任務 k 的實時性,邊緣計算層的服務器必須服從
T res k≤T req k ""(8)
因此,本文提出用資源調度算法來實現該策略,如算法1所示。對于邊緣計算層而言,用 E 來表示邊緣服務器的集合, E={e 1,e 2,…,e n }。該調度算法分為以下步驟:首先,系統初始化所有的任務為失敗,接著根據任務的 α k 值決定任務在哪一層執行;如果大于等于 β 說明該任務時間敏感度高,放在邊緣計算層執行(第2行);然后針對邊緣層的每一個服務器,如果當前服務器上的虛擬機剩余的資源高于該任務所需要占用的CPU資源,則表明該服務能夠在該虛擬機上執行(第3~6行);假設 CPU vm j代表虛擬機j 上的CPU占用率, CPU k 代表任務 k 所需的CPU占用率,最后,就是判斷該服務器是否能夠滿足任務的延遲需求,通過算法1中的第7~10行計算任務的整體延遲時間;若滿足自身的截止時間 T req k ,則將任務 k 標記為成功,并讓其在該服務器上的該虛擬機上執行(第11~13行),如果 α k 值小于 β 則在云層執行(第20~28行)。
算法1 資源調度算法
輸入:任務 k ;任務 k 的延遲敏感度 "α k ;延遲敏感閾值 β ;邊緣服務器集合 E;任務k 的截止時間 T req k 。
輸出:任務分配結果。
1 mark the service request of task "k "as failed;
//任務初始化為失敗
2 if "α k≥β "then
//時間敏感度大于等于閾值 β ,在邊緣層執行
3 "for each "e i "in "E "do
4 ""for each virtual machine "vm j "in "e i "do
5 """calculate "CPU vm j ; //計算虛擬機所占用的CPU資源
6 """if (1- CPU vm j gt; CPU k )
//虛擬機所剩資源滿足任務 k 所需資源
7 """"T trans k(e i)= Mk pre Rk "; "http://計算上行時間
8 """"T re k(e i)= Mk cur Rk "; ""http://計算下行時間
9 """"T process k(e i)= rk V vm "; "http://計算處理時間
10 """""T res k(e i)=T trans k(e i)+T process k(e i)+T re k(e i) ; //計算總時間
11 ""if "T res k(e i)≤T req k ""http://根據截止時間要求選擇服務器
12 ""mark the service request of task "k "as successful;
//標記任務 k 成功
13 ""execute the task "k "on virtual machine "vm j "in "e i ;
14 ""else
15 """break;
/*當前服務器無法滿足截止時間要求,回到第3行繼續執行*/
16 "else
17 ""continue; "http://當前虛擬機資源不夠,回到第4行繼續執行
18 "end for
19 end for
20 else """"http://時間敏感度小于閾值 β ,在云端執行
21 for each virtual machine "vm j "in cloud servers do
22 "calculate "CPU vm j ; "http://計算虛擬機所占用的CPU資源
23 "if(1- CPU vm j ) ≥CPU k "then
//虛擬機所剩資源滿足任務 k 所需資源
24 "mark the service request of task "k "as successful;
//標記任務 k 成功
25 "execute the task "k "on virtual machine "vm j ;
26 else
27 "continue;
28 end for
4 實驗和分析
4.1 實驗設置
本文所有的實驗都是在CloudSim[25]平臺上進行的,CloudSim是一個模擬框架,主要用于對云計算進行建模和仿真。將本文的資源調度算法與傳統方法進行了對比,其中傳統方法包括隨機調度算法(RSA)[26]、云服務器算法(CSA)[26]以及首次擬合調度算法(FFA)[26]。如果一個應用程序生成了一個任務,那么它將向三層計算系統架構發送一個服務請求。 對于首次擬合算法而言,如果邊緣服務器中的虛擬機有足夠空閑的CPU資源,那么任務請求首先將在邊緣層執行,否則任務 k 將被分配到云中執行,并在云中選擇CPU資源充足的VM來執行任務 k 。對于隨機調度算法而言,將會從邊緣計算層、云層隨機選擇一層來執行任務,并選擇一個有足夠CPU資源的VM來執行任務 k ,如果沒有足夠的資源則任務請求失敗。對于云服務器算法則是任務請求由云服務器來執行。
在本文的模擬仿真中,邊緣計算層共有三臺服務器且每臺服務器都是異構的,得到邊緣服務器集合 E={e 1,e 2,e 3 },并且每臺服務器運行兩個虛擬機,即 N vm= 2。假設服務器 e 1 中的虛擬機的處理器速度為1 000 MIPS,服務器 e 2 中的虛擬機的處理器速度為1 500 MIPS,服務器 e 3 中的虛擬機的處理器速度為2 000 MIPS,云層中有一臺服務器,該服務器上運行著無數的虛擬機,相當于云服務器中 N vm=∞ ,云服務器中的虛擬機處理速度為20 000 MIPS,即 V vm=20 000 "MIPS。延遲敏感閾值 β 設為0.5,模擬時間為2 h。本文的三層計算系統框架覆蓋了一個含有智能設備數量為200~700的區域。一個時間段的活動時間和空閑時間分別為50 s和10 s,每個時間段為1 min。在本文的模擬中,智能設備運行VR游戲應用程序與網購應用程序。在每個時間段開始時,智能設備隨機選擇一個概率為0.5的應用程序并運行,即 τ i=0.5 ,被選擇的應用程序生成的任務服從泊松分布。游戲VR應用程序和網購應用程序生成的任務泊松到達間隔時間分別為5 s和7 s。應用程序在活動時間生成任務、空閑時間等待,每個任務都向層調度器發送一個服務請求,層調度器接收到服務請求之后,就將該任務分配給待執行的層。在邊緣計算層的三臺服務器上,假設游戲VR應用程序的CPU使用率分別為20%、15%和10%。在云服務器的虛擬機上時,假設游戲VR應用程序的CPU使用率為0%。
智能設備通過WLAN與邊緣層服務器通信,WLAN的帶寬為300 Mbps,邊緣計算層被Wi-Fi接入點(AP)覆蓋并且智能設備通過AP加入到WLAN中。如果任務被選擇在邊緣計算層執行,那么會根據邊緣層的資源調度算法選擇合適的VM來執行;如果任務被選擇在云端執行,那么任務將通過ADSL連接從AP發送到云,假設ADSL的帶寬為20 Mbps。對于VR游戲應用,設置其任務上傳的數據大小為1 800 kb,任務的下載數據大小為500 kb,由于VR游戲十分敏感,所以將它的延遲敏感度設為0.8[26]。對于網購應用程序,將其任務的上傳數據大小設置為50 kb,任務的下載數據大小設置為2 000 kb,延遲敏感度設為0.3[7]。
4.2 平均服務響應時間
圖4顯示了VR游戲應用的平均服務響應時間,從圖4可以看出,隨著設備的增加,本文資源調度算法的平均服務時間要遠小于其他三種算法。這是由于VR游戲應用延遲敏感度高,它的服務請求都將被分配到邊緣計算層去執行,低延遲、高帶寬的無線接入保證了VR游戲應用程序的任務以最短的延遲執行。雖然首次擬合算法也會將任務分配到邊緣服務器執行,但是它會將延遲敏感度不高的任務請求分配到邊緣服務器執行,導致占用帶寬和CPU的計算能力,并且隨著設備量而增加。首次擬合算法的平均服務響應時間要高于本文資源調度算法。本文網購應用程序生成的任務請求在云服務器上執行它的相關任務就可以滿足該應用的服務質量要求,因此,對于首次擬合算法以及隨機調度算法而言,將網購程序的任務分配給邊緣層去執行并不能有效地利用邊緣層資源。從圖4中也可以看出,隨著智能設備數量的增加,所有方法的平均響應時間都在增加,這是因為智能設備的增加會增加任務的數量、導致網絡擁塞,所以會增加服務的響應時間。與其他三種算法相比,本文資源調度算法比其他方法增長緩慢,這是因為不同的任務請求會通過層調度器和層控制器確定其執行的位置,節省了邊緣計算層的資源,這也表明了本文資源調度算法具有最好的網絡擴展性。
圖5顯示了網購應用程序的平均服務響應時間。從圖中可以看出,本文資源調度算法和云服務器算法具有相似的響應時間,這是因為網購應用程序沒有很高的時間敏感度,本文調度算法會將該程序產生的任務放在云層執行,這樣可以節省邊緣層有限的資源,讓邊緣層服務器去執行延遲敏感度高的任務。從圖5中還可以看出,本文資源調度算法和云服務器調度算法的平均服務響應時間最長,這是因為云服務器距離智能設備較遠,從而導致傳輸時間較長。這四種算法的平均服務響應時間都隨著設備數量的增加而增加,而首次擬合算法比其他三種算法具有更短的響應時間。首次擬合算法在邊緣服務器有足夠的資源時,會將程序產生的任務放在邊緣層執行,而不管該任務的延遲敏感度如何,因此對于網購應用程序產生的任務具有更短的響應時間。
為了保證延遲敏感服務的服務質量,本文調度算法有效地利用了邊緣服務器的資源,將延遲敏感服務放置在邊緣服務器的虛擬機上執行,對于延遲不敏感的服務放置在云端執行。從圖4中可以看出,本文調度算法對于VR游戲應用程序延遲敏感服務具有最低的響應時間,本文沒有將網購服務放置在邊緣層執行,這是因為云端執行延遲不敏感服務也能夠滿足該類服務的服務質量要求、云端的計算能力以及存儲資源遠高于邊緣層,所以本文調度算法對邊云的資源進行了有效利用,是延遲敏感應用的最佳調度算法。
4.3 服務失敗概率
任務失敗有兩個原因:a)虛擬機沒有足夠的計算資源,本文假設一個任務在單個VM上執行,如果沒有虛擬機可以為某個任務提供足夠的資源,則該任務的服務請求將被拒絕;b)網絡擁塞,如果網絡中任務過多,導致網絡擁塞,則會導致任務無法成功傳輸,視為網絡擁塞導致任務失敗。那么,對于一個應用程序 i 而言,它的服務失敗概率可以表示為
p i= N cpu+N bw N """(9)
其中: N cpu 是指由于CPU資源不足而導致的失敗任務數; N bw 是由于網絡阻塞而導致的失敗任務數; N是應用程序i 生成的所有任務和。圖6顯示了隨著智能設備數量的增加,應用程序服務失敗概率的變化。從圖中可以看出,本文的資源調度算法效果最好,失敗率最低,這表明本文調度算法可以為延遲敏感應用程序提供最佳的服務質量,其次是首次擬合算法。對于首次擬合算法而言,它會將延遲敏感度不高的服務放在邊緣層執行,因此會造成網絡阻塞而導致任務失敗。并且這四種算法的服務失敗概率都會隨著智能設備數量的增加而增加,而本文調度算法隨著設備數量的增加而緩慢增加,這表明本文調度算法不僅在服務質量方面提供了很好的效果,而且在服務失敗概率方面比其他傳統算法有更大的優勢。
5 結束語
本文對終端智能設備中延遲敏感服務的實時性問題進行了研究和討論。首先設計了一種邊云協同的三層計算系統架構,每層都有各自的功能和目的;然后設計了一種資源調度算法來分配任務資源,在該調度算法中考慮了不同任務的延遲敏感性以及邊緣服務器的異構性,對于在邊緣層執行的延遲敏感任務都會給其分配合適的邊緣服務器資源;最后,通過與現有的傳統調度算法相比,本文設計的調度算法具有更低的平均延遲時間以及更低的服務失敗概率。在未來的工作中,將針對工業場景上一些實時性要求非常高的服務進行研究和討論,并研究其與人工智能方向相結合的例子。
參考文獻:
[1] "Gundall M,Strufe M,Schotten H D, et al .Introduction of a 5G-enabled architecture for the realization of industry 4.0 use cases[J]. IEEE Access ,2021, 9 :25508-25521.
[2] Satyanarayanan M,Bahl P,Caceres R, et al .The case for VM-based cloudlets in mobile computing[J]. IEEE Pervasive Computing ,2009, 8 (4):14-23.
[3] Li Xianwei,Zhao Liang,Yu Keping, et al. "A cooperative resource allocation model for IoT applications in mobile edge computing[J]. Computer Communications ,2021, 173 :183-191.
[4] Sarma A D N.Edge computing:next-generation computing[M].Suresh A,Paiva S.Deep Learning and Edge Computing Solutions for High Performance Computing.Cham:Springer,2021:47-61.
[5] Zarandi S,Tabassum H.Delay minimization in sliced multi-cell mobile edge computing(MEC) systems[J]. IEEE Communications Letters ,2021, 25 (6):1964-1968.
[6] Zhang Lejun,Zou Yanfei,Wang Weizheng, et al. Resource allocation and trust computing for blockchain-enabled edge computing system[J]. Computers amp; Security ,2021, 105 :102249.
[7] Ren Ju,Zhang Deyu,He Shiwen, et al. A survey on end-edge-cloud orchestrated network computing paradigms[J]. ACM Computing Surveys ,2020, 52 (6):article No.125.
[8] Spatharakis D,Dimolitsas I,Dechouniotis D, et al. A scalable edge computing architecture enabling smart offloading for location based services[J]. Pervasive and Mobile Computing ,2020, 67 :101217.
[9] Kristiani E,Yang C T,Huang C Y, et al. The implementation of a cloud-edge computing architecture using openstack and Kubernetes for air quality monitoring application[J]. Mobile Networks and Applications ,2020, 26 (3):1070-1092.
[10] Ngo M V,Luo Tie,Chaouchi H, et al. Contextual-bandit anomaly detection for IoT data in distributed hierarchical edge computing[C]//Proc of the 40th International Conference on Distributed Computing Systems.Piscataway,NJ:IEEE Press,2020:1227-1230.
[11] Zhang Shupeng,Liu Yuquan,Cai Ying, et al. A multilevel edge computing architecture and edge generation method of distribution networks[C]//Proc of Power amp; Energy Society General Meeting.Pisca-taway,NJ:IEEE Press,2020:1-5.
[12] Xia Yu.Resource scheduling for piano teaching system of Internet of Things based on mobile edge computing[J]. Computer Communications, 2020, 158 :73-84.
[13] Wang Ge,Xu Fangmin,Zhao Chenglin.Multi-access edge computing based vehicular network:joint task scheduling and resource allocation strategy[C]//Proc of IEEE International Conference on Communications Workshops.Piscataway,NJ:IEEE Press,2020:1-6.
[14] Chen Baotong,Wan Jiafu,Celesti A, et al .Edge computing in IoT-based manufacturing[J]. IEEE Communications Magazine ,2018, 56 (9):103-109.
[15] "Kaneko Y,Yokoyama Y,Monma N, et al. A microservice-based industrial control system architecture using cloud and MEC[C]//Proc of International Conference on Edge Computing.Berlin:Springer,2020:18-32.
[16] "Ren Zibin,Lu Ting,Wang Xin, et al. Resource scheduling for delay-sensitive application in three-layer fog-to-cloud architecture[J]. Peer-to-Peer Networking and Applications ,2020, 13 (5):1474-1485.
[17] Wang Yimeng,Zhao Cong,Yang Shusen, et al. MPCSM:microservice placement for edge-cloud collaborative smart manufacturing[J]. IEEE Trans on Industrial Informatics ,2021, 17 (9):5898-5908.
[18] Wang Zhong,Xue Guangtao,Qian Shiyou, et al. CampEdge:distributed computation offloading strategy under large-scale AP-based edge computing system for IoT applications[J]. IEEE Internet of Things Journal ,2020, 8 (8):6733-6745.
[19] Wu Huaming,Wolter K,Jiao Pengfei, et al. EEDTO:an energy-efficient dynamic task offloading algorithm for blockchain-enabled IoT-edge-cloud orchestrated computing[J]. IEEE Internet of Things Journal ,2021, 8 (4):2163-2176.
[20] "Liao Zhuofan,Peng Jingsheng,Huang Jiawei, et al. Distributed probabilistic offloading in edge computing for 6G-enabled massive Internet of Things[J]. IEEE Internet of Things Journal ,2020, 8 (7):5298-5308.
[21] Kafle V P,Muktadir A H A.Intelligent and agile control of edge resources for latency-sensitive IoT services[J]. IEEE Access ,2020, 8 :207991-208002.
[22] Yin Luxin,Li Pengfei,Luo Juan.Smart contract service migration mechanism based on container in edge computing[J]. Journal of Parallel and Distributed Computing ,2021, 152 (3):157-166.
[23] Zhao Liang,Li Fangyu,Valero M.Hybrid decentralized data analytics in edge-computing-empowered IoT network[J]. IEEE Internet of Things Journal ,2020, 8 (9):7706-7716.
[24] Li Limiao,Zhang Heng.Delay optimization strategy for service cache and task offloading in three-tier architecture mobile edge computing system[J]. IEEE Access ,2020, 8 :170211-170224.
[25] Calheiros R N,Ranjan R,De Rose C A F, et al. CloudSim:a novel framework for modeling and simulation of cloud computing infrastructures and services[EB/OL].(2009-03-14).https://arxiv.org/ abs/0903.2525.
[26] "Deng Ruilong,Lu Rongxing,Lai Chengzhe, et al .Optimal workload allocation in fog-cloud computing toward balanced delay and power consumption[J]. IEEE Internet of Things Journal ,2017, 3 (6):1171-1181.
[27] "He Ying,Wang Yuhang,Qiu Chao, et al. Blockchain-based edge computing resource allocation in IoT:a deep reinforcement learning approach[J]. IEEE Internet of Things Journal ,2020, 8 (4):2226-2237.
[28] "鄭忠斌,熊增薪.基于邊緣計算的5G云網絡架構計算卸載策略研究[J].粘接,2021, 47 (8):97-101. (Zheng Zhongbin,Xiong Zeng-xin.Research on computing offload strategy of 5G cloud network architecture based on edge computing[J]. Bonding ,2021, 47 (8):97-101.)
[29] 徐揚,張萌萌.基于邊云協同的流數據處理任務卸載優化研究[J].數字技術與應用,2021, 39 (7):80-82. (Xu Yang,Zhang Mengmeng.Research on optimization of stream data processing task unloading based on edge cloud collaboration[J]. Digital Technology and Application ,2021, 39 (7):80-82.)