




























摘 要:智慧樓宇的邊緣計算環(huán)境中,為了在資源受限且環(huán)境復雜的情況下最小化系統(tǒng)的整體時延和能耗,提出了一種結合數(shù)據(jù)壓縮和改進灰狼算法(CLGWO)的邊緣計算卸載方法。該方法首先采用差分字典編碼壓縮技術對數(shù)據(jù)進行壓縮,預估數(shù)據(jù)壓縮率及其產(chǎn)生的開銷;隨后引入萊維飛行算法和螺旋漸近狩獵方式對灰狼算法進行改進,以增強其全局搜索能力;最后結合預估壓縮效果和改進灰狼算法求得最佳卸載方案。實驗結果表明,CLGWO方法能夠顯著降低計算任務卸載的整體延遲和能耗,證實了該方法的有效性和可行性,為樓宇中邊緣計算卸載問題提供了一種新的解決方案。
關鍵詞:移動邊緣計算;計算卸載;數(shù)據(jù)壓縮;任務調度;灰狼算法優(yōu)化
中圖分類號:TP393 文獻標志碼:A 文章編號:1001-3695(2024)11-015-3311-06
doi:10.19734/j.issn.1001-3695.2024.03.0095
Edge computing offloading method based on data compression and improved grey wolf optimizer on smart building
Shen Zheng, Lu Xianling?
(School of Internet of Things Engineering, Jiangnan University, Wuxi Jiangsu 214122, China)
Abstract:In the edge computing environment of smart buildings, to minimize the overall system latency and energy consumption in resource-constrained and complex conditions, this paper proposed an edge computing offloading method based on data compression and improved gray wolf algorithm (CLGWO). Firstly, it used the differential dictionary encoding compression method to estimate the data compression rate and the overhead incurred by compression. It combined the Lévy flight algorithm and spiral asymptotic hunting method to enhance the global search capability of the grey wolf optimizer. Finally, it determined the optimal offloading scheme by combining the estimated compression effects with the improved grey wolf optimizer. Experimental results indicate that the CLGWO method reduces the overall latency and energy consumption of computing task offloa-ding, thereby verifying its effectiveness and feasibility. This approach provides a new solution to the edge computing offloading problem in buildings.
Key words:mobile edge computing; calculate offloading; data compression; task scheduling; gray wolf algorithm optimization
0 引言
在物聯(lián)網(wǎng)技術的推動下,智能樓宇的發(fā)展催生了大量網(wǎng)絡終端設備,這些設備支撐著對實時響應速度有嚴格要求的計算密集型應用。例如安防監(jiān)控、火災預警系統(tǒng)、門禁控制等。特別是在醫(yī)院這樣的特殊樓宇環(huán)境中,還需要設備實時監(jiān)測病人的關鍵生命體征,包括體溫、心率、血氧飽和度,以及進行防跌倒的姿態(tài)檢測。這些應用不僅需要快速處理大量數(shù)據(jù),還要求極低的延遲[1,2]。由于移動終端的計算能力和能源有限,它們在處理這些大規(guī)模數(shù)據(jù)時往往需要依賴云計算資源[3]。但云計算在處理高并發(fā)和低延遲需求時存在局限性。為了克服這些挑戰(zhàn),邊緣計算作為一種新興的計算架構應運而生。
通過將計算任務從云端遷移到用戶附近的邊緣服務器,邊緣計算不僅優(yōu)化了數(shù)據(jù)傳輸路徑,減少了數(shù)據(jù)在網(wǎng)絡中的傳輸時間,還提高了處理效率和響應速度。這種計算卸載策略使得邊緣服務器能夠承擔更多的數(shù)據(jù)處理任務,減輕了云端的負擔,同時也為用戶提供了更快速、更可靠的服務[4~6]。因此,研究如何根據(jù)具體的應用場景和需求,制定合理的任務卸載策略,成為了邊緣計算領域的關鍵研究課題。
文獻[7]中提出聯(lián)合卸載決策和任務調度算法(JODTS),通過將范圍遺傳算法(PGA)與啟發(fā)式規(guī)則相結合,實現(xiàn)邊緣計算中任務卸載問題的優(yōu)化。文獻[8]中提出的IMTS-D3QN算法采用競爭網(wǎng)絡結構對神經(jīng)網(wǎng)絡進行優(yōu)化,通過不同線性加權組合得出帕累托最優(yōu)解,達到響應時間和能耗最小化。文獻[9]中基于深度強化學習的分布式任務卸載算法,允許每個移動設備在不了解其他移動設備任務模型和卸載決策的情況下作出卸載決策,減少延遲和丟包的比例,提升服務效率。上述文獻致力于開發(fā)算法提升解決方案性能,但這些算法普遍基于深度學習或群智能算法求解問題,全局尋優(yōu)能力有限,算法本身仍然存在局限性。
文獻[10]提出的HCOGA基于5G實時環(huán)境,通過深度神經(jīng)網(wǎng)絡擬合改進非支配遺傳算法輸入、輸出間的非線性關系,構成完備的卸載預測模型,快速、準確地作出卸載決策。文獻[11]中提出的IVA-GWO算法通過平衡全局和局部搜索的能力,引入自適應變異因子防止算法陷入局部極值,提高了算法的效率和準確性。文獻[12]中提出的IGHA,結合系統(tǒng)對其內部的平均開銷、時延與能耗的要求,在任務卸載過程中實現(xiàn)最優(yōu)資源分配。上述文獻側重于結合實際應用場景構建有針對性的數(shù)學模型,如基于車聯(lián)網(wǎng)、移動多用戶等相關環(huán)境進行研究,尚未對卸載數(shù)據(jù)壓縮性質方面進行研究,且現(xiàn)有算法提升效果不顯著。
相比于車聯(lián)網(wǎng)邊緣計算環(huán)境[13],智慧樓宇環(huán)境中產(chǎn)生的數(shù)據(jù)具備強周期性和時間重復性,本文針對這類與時間序列緊密關聯(lián)的數(shù)據(jù),提出采用差分字典編碼壓縮技術[14],以期通過壓縮算法減少數(shù)據(jù)量來降低數(shù)據(jù)傳輸時延。同時鑒于樓宇邊緣計算環(huán)境的復雜性、能耗限制和實時性要求,進一步構建了一個優(yōu)化模型,該模型綜合考慮了本地執(zhí)行、云端傳輸、數(shù)據(jù)壓縮等多個因素,以最小化整體時延和能耗為目標,從而尋找最優(yōu)的任務卸載策略。
為了實現(xiàn)這一目標,本文又引入了改進灰狼算法來求解該優(yōu)化模型,進而得到最優(yōu)策略?;依撬惴ㄒ云浣Y構簡潔、參數(shù)調整少、易于實現(xiàn)的特點,在求解精度和收斂速度上均表現(xiàn)出色[15]。然而,傳統(tǒng)灰狼算法在迭代后期可能因種群初始化方式的隨機性導致大量重復,進而陷入局部最優(yōu)解[16~19]。因此,本文提出了結合萊維飛行算法的策略,通過引入隨機步長來擴展搜索范圍,增強灰狼種群的多樣性,從而有效提升算法的性能。
本文主要貢獻如下:
a)系統(tǒng)模型構建:構建了一個適用于樓宇邊緣計算環(huán)境的計算時延與能耗模型。該模型綜合考慮了任務的計算時延、能耗以及移動邊緣計算(MEC)服務器的計算資源限制。同時設計了系統(tǒng)整體開銷函數(shù)用于對計算卸載策略的評價,將計算任務卸載問題轉換為在約束條件下的單目標優(yōu)化問題。
b)基于數(shù)據(jù)壓縮和改進灰狼算法的卸載方法:提出了一種新穎的計算方法用于求解卸載問題,該方法將待卸載數(shù)據(jù)分為字典和差分數(shù)據(jù)兩部分來減小傳輸數(shù)據(jù)量。同時在灰狼算法的基礎上引入了螺旋漸近狩獵策略和萊維飛行算法,對灰狼算法的種群初始化、最優(yōu)解選擇等環(huán)節(jié)進行改進,以提高求解的效率。
c)仿真實驗驗證和應用測試分析:設計仿真實驗對邊緣計算卸載策略進行驗證,從計算時延、計算能耗、收斂性等方面對邊緣計算卸載策略的性能進行評估分析。
1 系統(tǒng)模型和問題描述
1.1 系統(tǒng)模型
本文構建了智慧樓宇物聯(lián)網(wǎng)邊緣計算環(huán)境的系統(tǒng)模型,適用于住宅、醫(yī)院、園區(qū)等環(huán)境,雖然應用場景有所差異,但其核心架構統(tǒng)一由終端、邊緣端和云端三層構成。系統(tǒng)模型如圖1所示。
終端設備層:包含多類傳感器(溫濕度、亮度、煙霧等)和控制器(水泵、暖閥等),負責數(shù)據(jù)收集和控制任務。大多數(shù)設備采用低功耗技術延長電池壽命。
邊緣端服務器層:由邊緣服務器構成,接收終端設備數(shù)據(jù),進行初步處理,減輕云端負擔。同時邊緣端距離應用場景較近,任務處理時效性好。
云端服務器層:其擁有近乎無限的計算能力,當邊緣端服務器面臨算力瓶頸時,它們可以將復雜任務和數(shù)據(jù)上傳至云端進行進一步處理,但云端會存在一定的通信延時。
與車聯(lián)網(wǎng)等邊緣計算應用場景相比,智慧樓宇環(huán)境下的邊緣計算面臨著一系列挑戰(zhàn)。如圖2所示,首先是環(huán)境復雜性,如多樓層、房間分隔導致多樣化的設備布局,以及設備的失效或者受到干擾可能導致通信質量的不穩(wěn)定,IoT設備基于自動組網(wǎng)的能力動態(tài)調整網(wǎng)絡拓撲架構。這些因素導致其難以預先設計好邊緣端算力,只能在部署完成后再生成適用于當前布局的卸載策略。其次是實時性,樓宇數(shù)據(jù)具有更強的周期性和時間重復性,要求邊緣計算卸載策略能夠適應這種數(shù)據(jù)特性,以實現(xiàn)有效的數(shù)據(jù)壓縮和傳輸,保證低延遲的數(shù)據(jù)處理。最后是能耗限制,樓宇設備依賴電池需節(jié)能運行,生成邊緣計算卸載策略需兼顧計算效率、實時性與能耗,以實現(xiàn)能源高效利用。
基于上述架構,終端設備的集合表示為N={N1,N2,…,Ni},邊緣端設備的集合表示為S={S1,S2,…,Si}。通過調整可控參數(shù),制定最合適的卸載策略,達到最佳平衡點以實現(xiàn)整體時延最小和能耗最低。
1)本地執(zhí)行計算開銷
在評估執(zhí)行任務的成本時主要考慮時延和能耗兩個關鍵的性能指標。時延直接反映了系統(tǒng)對任務的響應速度,而能耗則關聯(lián)到設備的運行成本和環(huán)境影響。將時延和能耗放在一起加權求和作為衡量系統(tǒng)總成本的指標,可使系統(tǒng)在滿足實時性要求的同時,盡可能地降低能耗。
本地計算的時延直接取決于本身的計算能力。終端設備Ni產(chǎn)生任務i的數(shù)據(jù)量表示為Datai,Li表示該任務的復雜度指標,Li值越大,任務所需的CPU資源越多,相應的計算時間復雜度也就越高。定義di作為卸載策略參數(shù),取值在[0,1],0代表任務在本地執(zhí)行,1則表示任務被上傳至云端。
本地執(zhí)行任務i時,其計算時延ti由式(1)給出[10]:
tlocal,i=(1-di)LiDataifi(1)
其中: fi表示本地設備Si執(zhí)行任務i時的CPU頻率。CPU頻率越高,執(zhí)行速度越快,任務的計算時延就越小。同時,任務的能耗elocal,i與任務的CPU需求、數(shù)據(jù)量等因素緊密相關,表示為
elocal,i=Zi(1-di)LiDatai(2)
此處,Zi代表執(zhí)行任務i時每單位CPU周期的能耗,其計算公式為Zi=10-27f2i。隨著CPU頻率的升高,雖然時延減小,但能耗也隨之增加;相反,低頻率下的能耗雖低,卻會導致時延增大。將時延與能耗結合,可以定義任務i在本地執(zhí)行的整體成本Flocal,i:
Flocal,i=witlocal,i+(1-wi)elocal,i(3)
這里的加權系數(shù)0lt;ωilt;1用來平衡任務i對于時延和能耗的敏感度,wi接近1表示任務對時延非常敏感,而1-wi接近1則表示任務對能耗較為敏感。默認情況下,設定時延和能耗的加權因子相等,均為0.5。
當所有任務都在本地執(zhí)行時,整個系統(tǒng)的總時延和能耗成本為
Costlocal=∑ni=1Flocal,i(4)
2)上傳到云端計算開銷
除本地執(zhí)行外,設備還可以選擇將任務卸載到云端進行處理。卸載過程主要包括三步:首先,通過設備差分字典編碼法對即將上傳的數(shù)據(jù)進行壓縮,壓縮方法將在2.1節(jié)中詳細闡述;然后通過無線網(wǎng)絡將壓縮后的數(shù)據(jù)上傳至云服務器,服務器接收到任務請求后,對數(shù)據(jù)進行解碼解壓并執(zhí)行計算;最后,計算結果通過下行鏈路返回給設備。
任務i在云端和邊緣端傳輸?shù)臅r延計算公式為
ttransmit,i=diciDataiVi(5)
其中:Vi是用戶上傳任務i的數(shù)據(jù)傳輸速率。假設邊緣端網(wǎng)絡設備覆蓋范圍內,用戶端k的信道增益為hkj,網(wǎng)關j的發(fā)射功率為Pj,終端設備k的上行發(fā)射功率為Pk,高斯白噪聲為δ2 。用戶k的信噪比可以通過香農(nóng)公式計算得到
rk=h2kjPk∑jh2kjPj+δ2(6)
實際應用中,無線信道帶寬設為W,基于信噪比rk,終端設備k上傳任務i時的最大上傳速率可近似為Vmax=W lg(1+rk)。為了簡化計算,通常可以利用設備通信模塊中的RSSI值來估算傳輸速率。例如在Wi-Fi環(huán)境下,RSSI值遵循公式RSSI=-10n log10(d)+A,其中d為設備間距離,n為環(huán)境衰減系數(shù),A為校準因子。
任務i上傳過程中的能耗etransmit,i可由以下公式表示:
etransmit,i=PidiciDataiVi+Ecompress(7)
其中:Ecompress為使用差分字典編碼過程帶來的額外能耗,與壓縮率ci有關。傳輸過程的綜合成本為
Ftransmit,i=wittransmit,i+(1-wi)etransmit,i(8)
上傳至云端的任務i的計算時延可視為
tedge,i=diXifcloud(9)
其中: fcloud是云端運算的CPU主頻,一般選取主流服務器的1~4 GHz。這里忽略了云端解壓縮的時間,假設云端在已有字典的情況下能夠快速解壓縮數(shù)據(jù)。
云端計算任務i的能耗簡化為與其運行時間直接相關,即
eedge,i=Wcloud*tedge,i(10)
其中:Wcloud是服務器平均功率,取主流服務器功率大約是400 W。
當所有任務都卸載至云端執(zhí)行時,整個系統(tǒng)的時延和能耗成本為
Costcloud=∑ni=1Ftransmit,i+Fedge,i(11)
1.2 問題描述
依據(jù)卸載策略合理分配計算任務在本地和云端執(zhí)行,任務i的整體成本可表示為
Ftotal,i=wi(tlocal,i+ttransmit,i+tedge,i)+
(1-wi)(elocal,i+etransmit,i+eedge,i)(12)
假設所有任務必須在限定時間內完成,即任務完成時限為τ,優(yōu)化目標是在滿足最大系統(tǒng)時延和最大系統(tǒng)容量限制條件下,最小化系統(tǒng)整體成本。
因此,問題可以描述為
Costtotal=∑ni=1Ftotal,i
C1:di∈[0,1],wi∈[0,1]C2:tlocal,ilt;τ
C3:ttransmit,i+tedge,ilt;τ
C4:fi∈[100 MHz,1000 MHz]C5:Pi∈[1 W,10 W](13)
約束條件C1描述了變量范圍。約束條件C2和C3表示任務的最大完成時間不能超過預設的最終交付時間,否則不能保證結果的實時性。C4、C5分別是本地設備主頻和發(fā)射功率的限制范圍。該問題是混合整數(shù)非線性規(guī)劃,具有非確定多項式難度(NP-hard)。
2 問題求解
2.1 任務數(shù)據(jù)的壓縮方法
在智能樓宇環(huán)境下的邊緣計算場景中,數(shù)據(jù)通常呈現(xiàn)出強烈的時間相關性和周期性特征,這為數(shù)據(jù)壓縮提供了優(yōu)化空間。本文創(chuàng)新性地提出了差分字典編碼壓縮技術,專門針對此類具有重復模式的時間序列數(shù)據(jù)。該方法的核心機制在于構建一個動態(tài)字典,將相似的時間序列片段視為字典中的條目來進行處理[13]。
首先,在邊緣計算環(huán)境初始化階段,將全天時間分割為多個連續(xù)時段,并按時段收集終端上傳的數(shù)據(jù)。以智能樓宇光環(huán)境下的光電傳感器數(shù)據(jù)為例,將峰譜去除底噪后分解成單個有效峰譜,對每個峰譜進行高斯擬合后產(chǎn)生特征碼Ymax和δ,保存成字典編碼lighti=[Ymax,δ]。上述傳感器數(shù)據(jù)預處理過程如圖3所示。
初始狀態(tài)下,字典D為空集。當接收到首個時段的數(shù)據(jù)集M0(包括但不限于亮度light0、溫度tmp0、風速wind0等多種參數(shù)的變化曲線)時,將其添加至字典D中,即D={M0}。
接下來,在收到第二個時段的數(shù)據(jù)集Mtemp={lighttemp,tmptemp,windtemp,…}時,逐一與字典中已有的數(shù)據(jù)項進行比較,若各參數(shù)值的平方差之和小于預設閾值ε,即滿足M2temp-M20lt;ε,則記錄當前數(shù)據(jù)的微小變化量形成差分數(shù)據(jù)包Ni,由于N的數(shù)據(jù)量明顯小于原始數(shù)據(jù)M,從而得到高效的壓縮效果。若平方差之和超過閾值,則生成新的編碼M1并更新字典D為D={M0,M1}。
按照這一規(guī)律迭代進行,直至處理第n個時段的數(shù)據(jù)。每當新的時段數(shù)據(jù)到來時,與字典D={M0,M1,…,Mi}中的所有編碼逐一比對,若無相近數(shù)據(jù),則更新字典。隨著字典不斷積累與更新,后續(xù)數(shù)據(jù)匹配到已有編碼的概率逐步提升,進而持續(xù)提高壓縮效率。
依據(jù)數(shù)據(jù)和字典中的匹配程度,預估數(shù)據(jù)壓縮率和壓縮開銷(額外時間和額外能耗)導入給改進灰狼算法,判斷當前任務是本地執(zhí)行還是上傳執(zhí)行(卸載執(zhí)行),如果是上傳執(zhí)行則進行數(shù)據(jù)壓縮操作,改進灰狼算法將在2.2節(jié)詳細敘述。
差分字典編碼壓縮流程如圖4所示。
2.2 改進灰狼算法
灰狼優(yōu)化算法(GWO)是一種受自然界灰狼狩獵行為及其社會層級結構啟發(fā)的群體智能優(yōu)化算法。算法設計的核心在于借鑒灰狼的狩獵過程,包括包圍、追蹤、精確攻擊獵物以及不斷探索新目標的行為。然而,傳統(tǒng)的灰狼優(yōu)化算法在處理復雜多模態(tài)優(yōu)化問題時,往往容易陷入局部最優(yōu),導致計算時間長、收斂性能差以及優(yōu)化效果不理想。
2.2.1 算法初始解的改進
為克服傳統(tǒng)灰狼優(yōu)化算法易陷入局部最優(yōu)的局限,本研究改進了種群初始化策略,采用混沌映射生成初始種群位置,以增強全局搜索能力。針對智能樓宇中常見的周期性離散數(shù)據(jù),采用Circle映射進行初始化,其數(shù)學表達式如下:
xk+1=mod(xk+b-(a2π)sin(2πxk),1)(14)
其中:a和b是常數(shù)。在Circle映射中,通常取a=0.5, b=0.2。
Circle映射在迭代過程中生成的混沌序列展現(xiàn)出獨特的隨機性、遍歷性和規(guī)律性,這些特性與樓宇環(huán)境中的數(shù)據(jù)存在相似之處,有助于提升算法的收斂速度。
2.2.2 算法搜索范圍的改進
為避免灰狼算法陷入局部最優(yōu)解,可以融入鯨魚算法中的螺旋漸近狩獵方式和隨機概率因子進行對比選擇,同時引入萊維飛行算法利用隨機步長來擴展算法搜索范圍,可以增強算法的搜索范圍和豐富灰狼種群的多樣性。具體改進方法如下。
首先,按照Mantegna提出的隨機步長公式生成Levy(d),公式如下:
Levy(d)=u|v|1d(15)
其中:參數(shù)d一般取值于[0,2]的常數(shù),這里取值1.5;u和v分別服從u~N(0,σ2)和v~N(0,1)。
σ=Γ(1+d)×sind×π2d×Γ1+d2×2d-121d(16)
然后,引入隨機概率因子p∈[0,1],當p≥0.5時,灰狼群體根據(jù)最優(yōu)解的位置結合著Lévy飛行算法和螺旋泡網(wǎng)狩獵行為進行位置更新,如下所示。
X′(t)=Xbest(t)+evlcos(2πl(wèi))|Xbest-X(t)|·Levy(d)(17)
其中:Xbest表示全局的最優(yōu)解; X表示灰狼個體的位置;Xα、Xβ、Xδ分別代表領導狼群的三只頭狼;v為螺旋方程中的常量系數(shù),其值通常被設定為1;l是-1~1的隨機數(shù)。當p≤0.5時,算法按照式(18)~(21)進行包圍計算,在這個計算過程中,n1和n2是在[0,1]中隨機取值的向量,m=2-2t/T,t表示當前迭代次數(shù),T表示最大迭代次數(shù),隨著迭代次數(shù)的增加,m的值會從2線性遞減到0。
A=2×m×n1-mC=2×n2(18)
Dα=|C1·Xα-X(t)|Dβ=|C2·Xβ-X(t)|Dδ=|C3·Xδ-X(t)|(19)
X1(t+1)=Xα(t)-A1·DαX2(t+1)=Xβ(t)-A2·DβX3(t+1)=Xδ(t)-A3·Dδ(20)
X(t+1)=13(X1(t+1)+X2(t+1)+X3(t+1))(21)
灰狼算法在尋找最優(yōu)解時,α狼對應的位置不一定是全局最優(yōu)解,其他等級的灰狼個體也很難跳出各自的局部最優(yōu)解,從而導致算法處理時間大幅度增加,收斂性下降。為了改進GWO的求解精度和收斂速度,受自定義權重的啟發(fā),設置了一種新的比例權重,設定不同灰狼個體影響最優(yōu)解的比例不同,動態(tài)權重表達式如下:
W1=|X1||X1|+|X2|+|X3|W2=|X2||X1|+|X2|+|X3|W3=|X3||X1|+|X2|+|X3|(22)
X′(t)=W1·(X1-Xα)+W2·(X1-Xβ)+W3·(X1-Xδ)(23)
為了選擇更好的結果,需比較X(t+1)和X(t)的適應度值,保留其對應的最小適應度函數(shù)值,作為本次迭代結果X(t+1),并記錄其位置,即
X(t+1)=X′(t)
fitness(X′(t))lt;fitness(X(t))
X(t+1)=X(t) otherwise(24)
2.3 算法流程及描述
算法1 CLGWO算法
輸入:種群數(shù)量population_size,最大迭代數(shù)量max_iter,時延和能耗權重配比wi,任務完成時限τ,每個設備待處理的數(shù)據(jù)量Datai,傳輸速率Vi,設備數(shù)量n,以及參數(shù)的上下界。
輸出:全局最優(yōu)值Xbest。
a)根據(jù)Datai與字典的匹配程度預估壓縮率ci和壓縮開銷cpi,其中(i=1,2,…,n)。
b)使用式(14)來初始化卸載分配參數(shù)di,邊緣設備主頻fi及發(fā)射功率Pi,其中(i=1,2,…,n)。
c)將上述參數(shù)合并成一個向量作為初始化的灰狼種群位置Xi(0)=[di, fi,Pi] (i=1,2,…,n)。
d)for t=1,2,…,max_iter do
e)for i=1,2,…,1∶population_size do
f) 代入Datai,wi, Vi,τ,ci,cpi計算Xi(t)適應度值fitness,選擇fitness最好的三頭狼作為頭狼Xα(t),Xβ(t),Xδ(t)
g)end for
h)if (pgt;=0.5) 使用式(17)來計算X′(t)
i)else if (plt;0.5) 使用式(18)~(22)來計算X′(t)
j) 使用式(24)來比較X′(t)與X(t)的fitness,較好結果保存為頭狼位置X(t+1)
k) 根據(jù)限制條件修正灰狼個體參數(shù),保證在有效范圍內
l) 循環(huán)迭代次數(shù)max_iter加一
m) end for
n) 將α狼的fitness賦給Xmin,將α狼的位置賦給Xpos
o) return Xbest=[Xmin,Xpos]3 仿真結果分析和應用測試分析
3.1 仿真設定
基于MATLAB 2022b仿真平臺進行實驗驗證,構建智能樓宇環(huán)境下的邊緣計算卸載模型,對CLGWO算法進行性能仿真,并選擇以下六種卸載方式進行對比:Local、Cloud、Random、PSO、GWO和 LGWO。其中 Local 方式代表任務只在本地執(zhí)行,Cloud方式代表任務全部上傳(卸載)到云端執(zhí)行,Random 方式代表任務在本地或者云端隨機進行計算卸載,PSO方式為基于傳統(tǒng)群智能優(yōu)化方式粒子群算法求解輸出的最優(yōu)卸載策略[20,21],GWO方式為基于灰狼算法進行求解輸出的最優(yōu)卸載策略,LGWO 方式為基于動態(tài)權重策略的改進灰狼算法進行求解輸出最優(yōu)卸載策略。具體仿真參數(shù)設置如表1所示。
3.2 仿真結果分析
3.2.1 邊緣設備數(shù)量對總成本的影響
圖5為邊緣設備數(shù)量與系統(tǒng)總成本(全部設備時延與能耗總和)的關系,在終端數(shù)為30時,CLGWO策略相比Local方式降低了85.8%,比Cloud方式降低31.7%,比Random方式降低30.08%,比GWO方式降低10.6%,比LGWO方式降低10.03%,比PSO方式降低10.7%。
可以看出,隨著邊緣設備接入數(shù)量的增加,總任務量也在增加,相應的系統(tǒng)總成本也在增加。本地執(zhí)行總成本增加得最快,基本和邊緣設備數(shù)量呈線性關系。而其他幾種卸載方式因為有云端的參與,一定程度上緩解了總成本的增加速度。CLGWO方式因為使用了差分字典編碼對數(shù)據(jù)進行預壓縮,減小了數(shù)據(jù)體積也減小了能耗。
3.2.2 通信環(huán)境對總成本的影響
圖6為邊緣設備上通信模塊的RSSI(received signal strength indication)值與系統(tǒng)總成本的關系,RSSI值獲取比較直觀,而且能真實反映當前的通信環(huán)境。對比來看,CLGWO 策略的系統(tǒng)總成本最小。RSSI值為 80 dBm 時,CLGWO方式系統(tǒng)總成本相比Local方式降低了16.9%,比Cloud方式降低了8.4%,比Random 方式降低 9.7%,比 GWO方式降低4.4%,比LGWO方法降低4.2%,比PSO方式降低4.7%。
可以看到CLGWO因為使用了差分字典編碼對數(shù)據(jù)進行預壓縮,減小了數(shù)據(jù)體積,受通信環(huán)境的影響較小,而全部卸載到云端的Cloud方法受RSSI影響最大。
3.2.3 每個邊緣設備的任務量對總成本的影響
圖7為每個邊緣設備的任務量與系統(tǒng)總成本的關系,對于不同卸載策略,隨著每個邊緣設備的計算任務量加大,系統(tǒng)總成本總體呈上升趨勢。但本地執(zhí)行任務會隨著本地資源的耗盡,系統(tǒng)時延快速增加,導致相較于其他有云端輔助的方法,系統(tǒng)總成本上升較快。而其他幾種算法中,CLGWO上升趨勢最小,卸載效果最佳。另外,總體來看,在任務量為50 MB時,CLGWO方式相比Local方式降低了66.72%,比Cloud方式降低41.84%,比Random方式降低36.03%,比GWO方式降低1.87%,比LGWO方式降低2.12%,比PSO方式降低2.20%,這證明CLGWO方法在六種卸載策略中應對數(shù)據(jù)量的增加效果最好。
3.2.4 算法收斂性對比
為了對比GWO、LGWO、CLGWO三種算法的收斂性能,設置邊緣設備數(shù)量為20,邊緣設備主頻為200 MHz,云端主頻為4 GHz,任務量為500 MB。實驗結果如圖8所示,整體來看GWO和LGWO算法的收斂速度最快,但收斂時系統(tǒng)總成本不如CLGWO低;PSO算法的收斂速度較慢,收斂時系統(tǒng)總成本也不如CLGWO低;CLGWO算法收斂速度比前兩個算法略慢,但是收斂時系統(tǒng)總成本最優(yōu)。三種算法都能在50次迭代之前達到穩(wěn)定狀態(tài)并達到最佳的收斂值。因此,CLGWO算法在收斂速度和收斂時系統(tǒng)總成本上都具有優(yōu)異表現(xiàn)。
3.3 應用測試和分析
基于上述理論,邊緣端自行設計了邊緣計算網(wǎng)關。終端設備使用現(xiàn)成的傳感器和控制器。云端使用新思聯(lián)云服務器,搭配手機端的微信小程序查看終端的數(shù)據(jù)和狀態(tài)。
整個系統(tǒng)的工作流程如圖9所示。終端采集數(shù)據(jù),使用433 MHz通信模塊的設備上傳到Sub-1GHz網(wǎng)關,使用藍牙或者Wifi設備上傳到Wifi/藍牙網(wǎng)關。邊緣端通過寬帶網(wǎng)絡連接云端,云端上的數(shù)據(jù)可以被多端訪問。邊緣端和云端集成了相同功能的任務處理單元,如PID控制單元、數(shù)據(jù)壓縮和解壓單元、編解碼單元等,邊緣端基于卸載策略將任務部分卸載至云端處理。整個系統(tǒng)協(xié)同調配控制物理量如風量、亮度、溫度、開關等。
3.3.1 軟硬件設計
硬件層面:Wifi/藍牙網(wǎng)關使用Raspberry Pi 4B,具備64-bit四核處理器,內置2.4/5.0 GHz 雙頻WLAN和藍牙BLE 5.0。Sub-1GHz網(wǎng)關使用AT32F403A作為微控制器,包含以太網(wǎng)PHY和RJ45接口,通過SPI接口連接CMT2300A射頻芯片模塊與其他433 MHz設備通信。
軟件層面:使用MQTT協(xié)議作為網(wǎng)關的上行傳輸協(xié)議。MQTT以其輕量級的二進制結構、簡潔的消息頭、穩(wěn)定的持久連接和低功耗特性,特別適用于帶寬有限和網(wǎng)絡不穩(wěn)定的環(huán)境,確保數(shù)據(jù)傳輸?shù)母咝c穩(wěn)定。同時為了實現(xiàn)云與邊緣設備的無縫協(xié)作,引入KubeEdge邊緣計算框架。該框架不僅將容器化應用的編排功能拓展至邊緣端設備,還確保了云與邊之間的部署同步與數(shù)據(jù)一致性,極大提升了任務處理的靈活性和效率。
3.3.2 邊緣網(wǎng)關測試和分析
基于上述的整體設計和部署,選取環(huán)境為建筑物內部,相鄰設備空間間隔超過20 m且存在墻體遮擋的復雜環(huán)境進行測試。結果如下:相較于完全本地執(zhí)行,采用卸載策略算法后,任務處理時延降低42%,能耗減少61%。與將所有任務全部卸載至云端執(zhí)行相比,時延降低10%,能耗減少6%。
測試結果與仿真模擬所得趨勢相吻合,從而驗證了基于數(shù)據(jù)壓縮和改進灰狼算法的邊緣計算卸載方法能夠有效降低系統(tǒng)整體時延和能耗,在實際應用中有一定的實用效果。
4 結束語
本文針對智能樓宇場景中計算任務的時延與能耗問題進行了深入探討,成功建立了面向任務卸載的智能樓宇環(huán)境數(shù)學模型。在該模型框架下,本文創(chuàng)新設計了一種針對樓宇特點的差分字典編碼壓縮技術,用于高效壓縮傳遞至云端的數(shù)據(jù);與此同時,對灰狼算法進行了優(yōu)化升級,巧妙地融入螺旋漸近狩獵策略與萊維飛行算法,以彌補原有算法在搜索性能上的不足,從而尋找到最優(yōu)的任務卸載策略。仿真實驗結果顯示本文方法的顯著優(yōu)勢,有效地降低了整體計算任務卸載過程中產(chǎn)生的時延和能耗,且具有可觀的收斂速度。在理論研究的基礎上設計了適用于樓宇場景的邊緣網(wǎng)關設備,測試結果表明,采用本文方法后,系統(tǒng)整體時延和能耗得到了明顯的降低,充分體現(xiàn)了該方法在實際應用中的可行性與價值。
參考文獻:
[1]Yi Lingzhi, Gao Xieyi, Li Zongpin, et al. task offloading of intelligent building based on CO-HHO algorithm in edge computing [J]. Journal of Electrical Engineering amp; Technology, 2022, 17(6): 3525-3539.
[2]Liu Yi, Yang Chao, Jiang Li, et al. Intelligent edge computing for IoT-based energy management in smart cities [J]. IEEE Network, 2019, 33(2): 111-117.
[3]Carvalho G, Cabral B, Pereira V, et al. Edge computing: current trends, research challenges and future directions [J]. Computing, 2021, 103(5): 993-1023.
[4]Safavat S, Sapavath N N, Rawat D B. Recent advances in mobile edge computing and content caching [J]. Digital Communications and Networks, 2020, 6(2): 189-194.
[5]Sadatdiynov K, Cui Laizhong, Zhang Lei, et al. A review of optimization methods for computation offloading in edge computing networks [J]. Digital Communications and Networks, 2023, 9(2): 450-461.
[6]Liu Zhanjun, Tan Xin, Wen Miaowen, et al. An energy-efficient selection mechanism of relay and edge computing in UAV-assisted cellular networks [J]. IEEE Trans on Green Communications and Networking, 2021, 5(3): 1306-1318.
[7]Sun Jianan, Gu Qing, Zheng Tao, et al. Joint optimization of computation offloading and task scheduling in vehicular edge computing networks [J]. IEEE Access, 2020, 8: 10466-10477.
[8]盛煜, 朱正偉, 朱晨陽, 等. 基于深度強化學習的多目標邊緣任務調度研究 [J]. 電子測量技術, 2023, 46(8): 74-81. (Sheng Yu, Zhu Zhengwei, Zhu Chenyang, et al. Research on multi-objective edge task scheduling based on deep reinforcement learning [J]. Electronic Measurement Technology, 2023, 46(8): 74-81.)
[9]Tang Ming, Wong V W S. Deep reinforcement learning for task offloading in mobile edge computing systems [J]. IEEE Trans on Mobile Computing, 2020, 21(6): 1985-1997.
[10]葛海波, 李文浩, 馮安琪,等. 改進遺傳算法的邊緣計算卸載策略 [J]. 西安郵電大學學報, 2020, 25(3): 7-13. (Ge Haibo, Li Wenhao, Feng Anqi, et al. Edge computing offloading strategy of improved genetic algorithm [J]. Journal of Xi’an University of Posts and Telecommunications, 2020, 25(3): 7-13.)
[11]王冶. 車聯(lián)網(wǎng)中基于優(yōu)先級的任務卸載和資源分配聯(lián)合優(yōu)化方法研究 [D]. 長春:吉林大學, 2023. (Wang Ye. Research on joint optimization method of task offloading and resource allocation based on priority in Internet of Vehicles [D]. Changchun: Jilin University, 2023.)
[12]叢玉良, 孫聞晞, 薛科, 等. 基于改進的混合遺傳算法的車聯(lián)網(wǎng)任務卸載策略研究 [J]. 通信學報, 2022, 43(10): 77-85. (Cong Yuliang, Sun Wenxi, Xue Ke, et al. Research on task offloading strategy of Internet of Vehicles based on improved hybrid genetic algorithm [J]. Journal on Communication, 2022, 43(10): 77-85.)
[13]陳發(fā)堂, 李璐, 張若凡. 基于改進式免疫遺傳算法的車聯(lián)網(wǎng)任務卸載方案 [J]. 計算機應用研究, 2024, 41(2): 558-562. (Chen Fatang, Li Lu, Zhang Ruofan. Task offloading scheme of Internet of Vehicles based on improved immune genetic algorithm [J]. Application Research of Computers, 2024, 41(2): 558-562.)
[14]Bagherian M, Chehade S, Whitney B, et al. Classical and quantum compression for edge computing: the ubiquitous data dimensionality reduction [J]. Computing, 2023, 105(7): 1419-1465.
[15]Mirjalili S, Saremi S, Mirjalili S M, et al. Multi-objective grey wolf optimizer: a novel algorithm for multi-criterion optimization [J]. Expert Systems with Applications, 2016, 47: 106-119.
[16]Nadimi-Shahraki M H, Taghian S, Mirjalili S. An improved grey wolf optimizer for solving engineering problems [J]. Expert Systems with Applications, 2021, 166: 113917.
[17]Sihwail R, Omar K, Ariffin K A Z, et al. Improved Harris hawks optimization using elite opposition-based learning and novel search mechanism for feature selection [J]. IEEE Access, 2020, 8: 121127-121145.
[18]Abualigah L, Yousri D, Abd Elaziz M, et al. Aquila optimizer: a novel meta-heuristic optimization algorithm [J]. Computers amp; Industrial Engineering, 2021, 157: 107250.
[19]丁瑞成, 周玉成. 引入萊維飛行與動態(tài)權重的改進灰狼算法 [J]. 計算機工程與應用, 2022, 58(23): 74-82. (Ding Ruicheng, Zhou Yucheng. Improved grey wolf algorithm with Lévy flight and dynamic weight [J]. Computer Engineering and Application, 2022, 58(23): 74-82.)
[20]Bi Jing, Yuan Haitao, Duanmu S, et al. Energy-optimized partial computation offloading in mobile-edge computing with genetic simulated-annealing-based particle swarm optimization [J]. IEEE Internet of Things Journal, 2020, 8(5): 3774-3785.
[21]羅斌, 于波. 移動邊緣計算中基于粒子群優(yōu)化的計算卸載策略 [J]. 計算機應用, 2020, 40(8): 2293-2298. (Luo Bin, Yu Bo. Computation offloading strategy based on particle swarm optimization in mobile edge computing [J]. Journal of Computer Applications, 2020, 40(8): 2293-2298.)