王哲,李陶深,葛麗娜,張桂芬,吳敏,5
(1.廣西民族大學人工智能學院,廣西 南寧 530006;2.廣西混雜計算與集成電路設計分析重點實驗室,廣西 南寧 530006;3.廣西民族大學網絡通信工程重點實驗室,廣西 南寧 530006;4.廣西大學計算機與電子信息學院,廣西 南寧 530004;5.廣西電網有限責任公司科技信息部,廣西 南寧 530023)
無線傳感網絡(WSN,wireless sensor network)在萬物互聯中扮演著重要的角色。然而,傳統的WSN 通常受制于能量、計算、通信和規模等資源有限的約束,無法為大型應用提供及時高效的服務。傳感云(sensor cloud)系統突破了這一限制,利用云端在線或離線的高性能計算與實時數據處理能力,拓展了WSN 的應用規模和服務范圍,推動萬物互聯的進步[1-3]。
對底層WSN 進行高效的資源規劃是實現傳感云系統應用的首要任務[3]。為了提升WSN 中能量規劃的自由度以延長網絡生命周期,無線功率傳輸(WPT,wireless power transfer)技術被引入以實現能量冗余節點與能量匱乏節點間的能量均衡。截至目前,WPT 在WSN 中的應用形式主要有無線供電通信(WPC,wireless powered communication)和無線攜能通信(SWIPT,simultaneous wireless information and power transfer),前者將WPT 與無線信息傳輸(WIT,wireless information transmit)規劃在不同的時段中運行,后者則實現了同步傳輸。WPT 所伴隨的非線性能量收集過程增加了WSN 資源規劃的難度,傳統的網絡資源管理方法無法適用。文獻[4]基于列轉換方法,將目標函數的比例和形式轉化為等價的減法形式,能夠設計出有效的迭代最優資源分配算法。在每次迭代中,通過半定松弛方法求解其中具有秩約束的最優解。文獻[5]給出了下行鏈路多用戶SWIPT 系統的速率?能量區域。將其中參數代入文獻[4]中,同時將基于線性模型的系統能量收集最大化為目標的資源分配算法作為對比基準,代入SWIPT 系統中與飽和非線性模型進行對比。結果表明,基準算法由于使一部分能量收集器飽和,另一部分則沒有充分利用,因此不能夠最大化系統資源利用率,同時為發射節點增加多天線配置能夠提供額外的空間自由度,顯著增加資源分配方案的系統增益。進一步地,文獻[5]采用WPC 的時序規劃,設計了非線性能量收集模型下多輸入多輸出(MIMO,multiple-input and multiple-output)多用戶無線認知網絡的最優波束成形,以分別實現overlay和underlay 場景下的系統吞吐量最大化。利用半定松弛與S-過程將其聯合凹模型轉化為等效凸問題,然后利用KKT(Karush-Kuhn-Tucker)條件與拉格朗日方程得到最優解。不同于文獻[5]方法,文獻[3]則利用最優停止理論,求解基于SWIPT 的WSN 系統中,匯聚(sink)節點何時開始SWIPT 傳輸以實現系統能效最大化的問題,該問題的求解依賴于對未來較好信道狀態信息(CSI,channel state information)的期望和當前能效之間的折中。綜上所述,傳統的無線網絡資源規劃通常基于最優化方法,將其構建的問題模型通過適當的數學變換實現問題的解耦合凸形式轉換,當涉及能量收集的非線性、模型非凸、整型參數時將導致問題難以求解,或其算法具有較高的復雜度難以實現實時的資源規劃,因此,基于優化方法的規劃算法難以滿足傳感云中大規模WSN 和系統實時性的需求。
為了克服這一困難,文獻[6]提出使用多層網絡以擬合迭代軟閾值算法(ISTA,iterative soft-thresholding algorithm),并將其應用于大規模稀疏優化中,其中多層網絡模型中的參數通過離線訓練的方式進行“學習”得到。文獻[7-8]利用這種“學習”的思想,分別用于非負矩陣分解和反向乘法器設計。這些研究驗證了“學習”方法能夠實現對優化算法的逼近,推動機器學習方法在網絡資源規劃中的應用。然而,網絡資源規劃中建立機器學習模型的首要問題是何種優化算法能夠被有效學習,以及如何設計可迭代的計算機優化算法生成足量的數據集用于模型的訓練和測試。文獻[9]從理論的角度論證了全連接深度神經網絡(DNN,deep neural network)通過訓練以精確擬合最優化算法的可行性,給出了迭代優化算法的廣義逼近定理,即當輸入輸出滿足確定的緊密集且存在連續多層映射關系時,包含有限隱藏層單元的DNN 能夠實現從參數和初始化輸入到最終輸出之間的有效逼近。得益于機器學習方法更好的實時特性,文獻[9]基于深度強化學習設計了無線網絡動態功率分配方法,能夠在一定程度上緩解基于模型方法的不精確和CSI 的時延。文獻[10]利用DNNk-step 預測,解決了高動態環境下5G MIMO 空時分組編碼系統中的決策定向信道估計問題,結果表明基于DNN 的機器學習方法能夠很好地學習衰落信道的統計特性,在不需要精確估計多普勒速率的前提下較傳統決策定向信道估計算法實現更低的傳播誤差。文獻[11]針對平面布局的設備到設備(D2D,device to device)網絡,將CSI 估計替換為網絡密度圖形式,利用卷積深度神經網絡學習實現網絡干擾鏈路的規劃。由此可見,機器學習方法在有限替代傳統最優化方法的同時,能夠實現無線網絡資源的動態規劃。文獻[12]使用深度強化學習實現非正交多址(NOMA,non-orthogonal multiple-access)功率與信道的聯合優化分配,設計深度強化學習的最優NOMA 協議,通過在發送端疊加編碼和在接收端連續消除干擾實現不同用戶在同一信道上的復用。文獻[13]提出一種在線學習方法,利用組合的多臂Bandit 算法來跟蹤5G 網絡中D2D 的模式選擇與資源分配策略的組合特性。文獻[14]提出了一種基于深度強化學習的分布式動態功率分配方法,每個發射機只收集本地信道狀態和服務質量信息,降低計算復雜度的同時實現了近似最優的功率分配。然而,上述研究未能考慮當前融合WPC 的無線網絡資源管理問題,如何將機器學習方法應用于WIT 與WPT 的聯合優化中仍是有待解決的關鍵問題。
基于上述分析,本文考慮機器學習方法的特性,構建傳感云網絡將節點的學習過程卸載至云端進行,進一步降低節點的計算能耗和決策時延。同時基于SWIPT 應用實現多天線sink 節點更高的資源復用率。
本文主要的研究工作如下。
1) 建立下行SWIPT、上行WIT 的底層傳感網模型,給出sink 節點能效定義并提出sink 節點的最優能效問題,該問題為NP 難問題;通過數學方法將sink節點能效最優化問題的數學模型轉換為高維可求解形式,設計迭代式的 SWIPT-WMMSE(weighted minimum mean squared error)算法以實現最優波束成形向量的求解;理論證明了SWIPTWMMSE 算法的收斂性。
2) 提出DNN 對SWIPT-WMMSE 算法的可逼近性,并依據神經網絡實現逼近的誤差傳遞過程,提出迭代式算法在最終輸出滿足給定誤差時的網絡規模設計依據,并據此設計DNN 算法以實現對SWIPT-WMMSE 算法的學習,制定基于DNN 算法的sink 節點最優能效策略。
3) 通過仿真實驗,首先驗證了 SWIPTWMMSE 算法的有效性與性能,并通過DNN 算法與其的對比,驗證了DNN 算法的逼近效果及其在降低復雜度和提升實時性方面的優勢。仿真結果表明,基于深度學習的網絡資源分配方法實現了較好的逼近效果并縮短了系統決策時長,有利于提升系統性能。
本文采用的傳感云系統結構如圖1 所示。

圖1 傳感云系統結構
首先,對底層傳感器網絡中傳感器節點的分布特性進行描述。由于底層節點的分布具有較強的隨機性,當前大多研究工作使用泊松分布描述該隨機性[15-17],如文獻[15]中考慮底層節點以泊松點過程(PPP,Possion point process)進行聚類,而文獻[16-17]則分別使用等邊六邊形的PPP 和泊松洞過程(PHP,Possion hole process)對底層節點分布特征進行描述。另一方面,由于WPT 過程中節點能量收集的“雙近?遠”[18]效應,基于SWIPT 的底層網絡通常采用規則化且可拓展的單元式結構[19-20],該單元的范圍相對于傳統小區范圍較小,因此單元內的能量收集節點通常依據中心節點的能力進行主動部署。本文考慮到底層傳感器網絡中所制定的sink 節點運行策略的可復制性和網絡的可擴展性,將底層傳感器網絡中的傳感器分布區域劃分為連續的等邊六邊形蜂窩狀結構,并假設每個蜂窩區域內的傳感器節點數量相差不大。在每個蜂窩區域的中心位置部署一個sink 節點,用于向其所在小區中的傳感器節點提供SWIPT 服務并回收節點的感知數據用于云端應用。此處的sink 節點為具有較強數據收集能力的傳感器區域中心節點,且由穩定電源供電,區域內的傳感器節點均具有能量收集能力,其全部能量均收集自sink 節點的下行SWIPT 過程。
其次,針對底層網絡相對云端而言處于“邊緣”位置的情形,雖然當前研究表明邊緣計算(EC,edge computing)能夠為邊緣網絡提供更快速的響應能力和更低的時延[21-23],但這并不能夠代替本文系統中的云端,原因主要有2 個方面。其一,本文考慮使用DNN 制定sink 節點的運行決策,即求解最優波束成形矩陣,此時涉及2 個過程:訓練出一個誤差在可接受范圍內并可以代替SWIPT-WMMSE 算法的DNN 模型;使用訓練好的DNN 將當前的系統狀態(信道狀態、能量狀態等)作為輸入得到最優波束成形輸出。第一個過程需要消耗較多的算力,且可以離線進行,無實時性需求,因此這個過程考慮利用云端實現以進一步節省底層網絡能耗。第二個過程中,云端訓練好的DNN 模型下放至sink 節點,由sink 節點使用該模型進行計算得到波束成形決策,這過程不涉及迭代式的機器計算,因此不占用過多資源,實現了DNN 代替傳統最優化算法在sink 節點決策制定中提供更低的資源消耗和更高的計算實時性。其二,對于EC 系統,通常需要設計專用的機器學習方法以適應邊緣網絡的分布式特性[24],或需重新設計邊緣網絡的計算卸載方法以適應機器學習的梯度下降過程等[25],這將增加底層傳感器網絡的決策制定復雜度和運算能耗,且無法實現云端應用對底層網絡的整體監測和控制。因此,考慮以上2 個方面的因素,本文使用傳感云系統,構建基于深度學習的sink 節點最優能效SWIPT 波束成形矩陣設計方法。
傳感網的系統周期分為2 個階段:下行SWIPT與上行WIT。在下行階段中,sink 節點向本小區內的傳感器節點提供SWIPT 服務,傳感器節點則以功率分割(PS,power split)[26]的工作方式實現能量與任務信息的同步接收并假設下行階段的時長對于任務信息的接收是充分的[3],上行階段中傳感器節點利用下行階段收集到的能量,將采集到的數據上傳至sink 節點。圖2 給出了系統的運行時序,其中,第i(i=1,2,…,I)個小區的系統周期表示為Ti,下行階段的時長因子為ηi。為了進一步提升系統性能,sink 節點配備了多天線以增強SWIPT 效率,同時傳感器節點配備單一天線。然后,構建系統能效優化問題并分別設計SWIPT-WMMSE 算法與深度學習算法求解最優波束成形矢量,驗證深度學習方法在傳感云系統資源規劃應用中的有效性與性能。同時,sink節點配備單一天線的場景,可通過將數學模型中信道向量替換為信道系數以實現本文方法的應用。

圖2 系統運行時序
在下行階段中,由sink 節點向傳感器節點提供SWIPT 服務。假設底層傳感網中的小區數量為I個,第i(i=1,2,…,I)個小區內sink 節點所配備的天線數量為Mi,發送功率為Pi,傳感器節點總數量為Ki,且均基于PS的工作模式實現同步的能量收集與任務信息解碼。于是,第k(k=1,2,…,Ki)個傳感器節點收集到的能量可表示為

在上行階段中,小區內全部傳感器節點將感知數據同時發送給sink 節點,sink 節點基于最大比合并(MRC,maximal ratio combining)的線性檢測算法[27]實現信號檢測。其中,傳感器節點發送數據所消耗的能量全部來自下行階段的能量收集,且在上行階段中全部用于信息傳輸。與此同時,假設第k個傳感器節點發送的符號是一個均值為零且方差為pik的高斯隨機變量sik,且 E[|sik|2]=1,pik為傳感器節點的發送功率。于是,上行階段第i個小區中sink節點的信號與干擾加噪聲比(SINR,signal to interference-plus-noise ratio)可表示為


其中,約束條件表示與第i個小區中第k個傳感器節點在下行階段所收集到總能量Eik相關的上行階段最大能耗約束。
在底層的傳感網絡中,每個sink 節點消耗自身能量為傳感器節點提供SWIPT 服務,并在上行階段收集傳感器節點回傳的數據作為服務回報。同時,由于傳感器節點運行的全部能量來自下行階段的能量收集,因此依據能量守恒定律,sink 節點用于SWIPT 的能耗等于路徑損耗與傳感器節點收集能量之和,其中傳感器收集能量又全部用于環境感知與數據傳輸。于是,底層傳感網中全體sink節點的能效可定義為其服務回報與所付出的能量之比,即上行吞吐量與下行SWIPT 能耗之比,可表示為

其中,Piηi Ti表示 sink 節點i在下行階段用于SWIPT 的能耗,Ψi表示sink 節點i下行階段的固有能耗。
于是,sink 節點的能效優化問題,可視為其下行階段所消耗能量與上行階段所實現吞吐量之間的均衡,其目標為求解sink 節點最優的波束成形矩陣Wopt=,以實現傳感網中sink節點的能效最大化,其數學表達式為

由于問題式(5)中含有式(3)中所述功率分配問題,因此問題式(5)為非凸的且是NP 難問題[28]。由于在上行階段不涉及WPT,因此可將上行過程視為存在干擾的多址接入信道(IMAC,interfering multiple-access channel)的功率分配問題,且sink 節點不具有連續干擾消除能力[29]。于是,基于求解干擾多址接入信道(IMAC,interfering multiple-access channel)功率分配問題的WMMSE 算法[29],設計SWIPT-WMMSE 算法以求解sink 節點的最優能效問題。
為了實現深度學習在sink節點能效優化問題中的應用,需首先設計基準的最優化算法以建立“學習”對象。由于“學習”過程中必然存在誤差,因此基準算法的設計應具有迭代形式,能夠迭代評估每次逼近過程中的誤差傳遞及誤差上限。本節通過將問題式(5)轉化為高維可求解形式,設計迭代的SWIPT-WMMSE 算法,以建立深度學習方法應用過程中的“學習”對象。
sink 節點的能效優化問題可視為能量收集約束下的上行吞吐量最大化問題,其最優波束成形矩陣Wopt的求解可分為以下2 個步驟:首先求解加權吞吐量最大化問題,得到小區內傳感器節點的最優發送功率;然后依據最優發送功率,求解滿足約束的sink 節點波束成形向量,得到最優波束成形矩陣Wopt。其中,加權吞吐量最大化問題可基于求解IMAC功率分配問題的WMMSE算法求解[29]。另一方面,文獻[5,30]已證明其最優波束成形向量所對應的協方差矩陣滿足秩一約束,因此在步驟2的求解中,可令Wi=w iwiH并將約束替換為rank(Wi)=1,通過對Wi的特征向量的分解得到最優波束成形向量wiopt,并由此構建傳感云系統的最優能效矩陣Wopt。
根據上述分析,首先基于MMSE-SINR等式[31],將上述最大化問題轉換為高維空間的可求解問題,引入等式MMSEi= 1/(1+SINRi),其中MMSEi表示sink 節點i的最小均方誤差(MMSE,minimum mean squared error)。轉換后的形式為

引入變量xik,yik,zik分別表示第i個小區中第k個傳感器節點的權重系數、上行階段波束成形器的發送增益和接收增益。算法 1 給出了SWIPT-WMMSE 算法求解sink 節點最優能效的波束成形矩陣的詳細過程。在算法的復雜度方面,由于算法1 的計算復雜度與WMMSE 算法復雜度相關,因此,基于文獻[29]中給出的WMMSE 算法復雜度,可以得到算法 1 的計算復雜度為O(K2M+K2M2+K2M3+K3+3K),其中,K為蜂窩區域內傳感器節點數量,M為sink節點天線數量,算法復雜度的表示方法為大O表示法。
算法1SWIPT-WMMSE 算法

由于轉換后的高維空間可求解問題式(6)含有一個可微的目標函數和一個可分離為變量xik,yik,zik的約束集,因此,問題滿足廣義最優化理論[32],即SWIPT-WMMSE 算法可視為對式(6)的塊坐標下降法的應用,算法收斂于式(6)的一個穩定點z*。下面證明當且僅當與z*對應的(x*,y*,z*)是式(6)的穩定點時,z*是式(5)的穩定點。定義

其中,第一個等式和最后一個等式來自鏈式法則,第二個等式來自式(14)。因此,由式(12)可知

即為問題式(5)中z*的穩定條件。
綜上所述,SWIPT-WMMSE 算法迭代過程中產生的任意極點 (x*,y*,z*)是式(6)的穩定點,且對應的z*是式(5)的穩定點。反之,如果z*是式(5)的穩定點,則點 (x*,y*,z*)是式(6)的穩定點。
以SWIPT-WMMSE 算法為基準,本節基于DNN 實現對基準算法的逼近,代替SWIPT-WMMSE 算法使系統實現更好的實時性與更低的計算復雜度,從而降低系統能耗。本節首先討論了基準算法的可逼近性與DNN 規模的設計依據,然后通過訓練與測試2 個環節構建DNN 模型。其中,訓練環節與測試環節如圖3 所示。

圖3 DNN 模型的訓練與測試環節
基于前文設計的SWIPT-WMMSE 算法,本節研究DNN 實現對其逼近,從而獲得相近的系統性能和更快速的決策過程。然而,使用DNN 逼近SWIPT-WMMSE 算法的首要問題是能否逼近及網絡規模設計。基于文獻[9]中迭代算法的神經網絡廣義逼近定理,建立引理1,然后給出DNN 逼近SWIPT-WMMSE 算法的網絡規模設計依據。
引理1給定如式(17)所示的信道可行集用于生成SWIPT-WMMSE 算法計算過程的信道參數,則由信道參數h和初始量λ0到算法輸出λ T之間的映射能夠使用一個具有N個隱藏單元且帶有激活函數的DNN 進行逼近,如式(18)所示,且對于任意給定的誤差ε≥ 0,存在足夠大的正數N,使式(19)成立。

式(17)中,Hmin和Hmax分別為信道參數可能取得的最小值和最大值;Zmin>0為人為設置的誤差傳遞界值,以確保全體z的集合為緊集。在引理1中,信道可行集確保其信道參數滿足緊集,參數λ0和z均滿足確定緊集,即最優化問題式(6)中的最優化參數集合為緊集。由于連續映射的疊加依舊是連續的,因此式(18)成立。參考文獻[35]中定理2.1,對于任意的緊集和任意δi>0,存在Ni使式(20)成立。

假設xt的維度為L,將上述L個NET 疊加起來建立一個更大的 DNN,即 DNN=NETN(λ0,z),,即可得到式(19)。
引理 1 表明對于具有迭代形式的SWIPT-WMMSE 算法,DNN 能夠基于有限數量的隱藏單元對其進行逼近。依據文獻[9]中多層神經網絡對于乘法和除法運算的逼近及其誤差傳遞過程,本文利用網絡的重復疊加,實現對用于SWIPTWMMSE 算法逼近的DNN 規模設計。
定義DNN 算法第t次逼近的輸出及其誤差上界分別為,推導DNN 算法近似誤差上界與網絡規模的關系。針對SWIPTWMMSE 算法中的3 個更新規則,給出其逼近形式與誤差上界。
為了方便計算,將算法1 中的更新規則重寫為

依據文獻[9]中DNN 對于乘法和除法運算的誤差傳遞,參數的逼近誤差上界分別為


將全部變量使用二進制展開并假設ε≥ 2?n,即當一次迭代逼近過程中的逼近誤差被放大g(D)倍時,從初始值到最后一次迭代的逼近誤差上界將大于2?n。本文通過均衡逼近誤差上界與所使用的二進制單元位數之間的關系,計算用于逼近的神經元數量與層數。用于逼近所需的二進制單元位數分別為

其中,T為算法的總迭代次數。于是,每一位的實現需要一個二進制單元和一個激活函數ReLU,而由于并行運算機制的存在,所需要的層數為式(30)的1/K2倍,取其大O表示法,得到定理1。
定理1假設SWIPT-WMMSE 算法中,初始化后執行t次迭代過程,存在一個以H為可行集的輸入h和初始化參數z0作為輸入的神經網絡,其輸出為DNN(h,z0),網絡層數為

ReLU 單元的數量為

使式(33)成立。

引理1 給出了DNN 逼近SWIPT-WMMSE 算法的可行性,而定理 1 則給出了 DNN 逼近SWIPT-WMMSE 算法的網絡規模設計依據。基于上述分析,DNN 的網絡結構使用全連接形式,包含一個輸入層、多個隱藏層和一個輸出層,如圖4 所示。該神經網絡的輸入為一規模為(I,K,Mi)的三維數組,輸出為I個 sink 節點的最優波束成形向量wi(i=1,2,…,I)。隱藏層的激活函數使用了ReLU函數,輸出層的激活函數設計為

圖4 DNN 結構

其中,input 為隱藏層的輸出,output 為激活函數的輸出。
用于DNN 訓練與測試的數據生成過程如下。首先,基于特定均值與方差的Rayleigh 衰落分布生成信道數據,表示由第i個小區內的sink節點與當前小區中第k個傳感器節點所形成的信道狀態信息;然后,初始化,并啟動SWIPT-SWMME 算法,算法的終止條件為達到500 次迭代(T=500)或步驟10)的誤差參數ε< 10?3;通過算法輸出得到相應的最優波束成形矩陣Wi,取其特征向量wi作為輸出,即第i個sink節點的最優波束成形向量。此時,將構建元組(hik,wi)為第一次運算中得到的數據樣本。將多個數據樣本組成樣本集并將其切片為訓練集{(hik,wi)}train與測試集{(hik,wi)}test兩部分,分別用于DNN 的訓練與測試過程。
使用全部的訓練集{(hik,wi)}train實現神經網絡權重的優化,其中損失函數為神經網絡的輸出與基準數據wi之差的模,優化算法使用了標準的梯度下降算法。為了提升訓練過程的性能,權重和邊長的初始化服從截斷正態分布,設置衰減率為0.9,并通過交叉驗證設置合適的學習率和批大小[36]。
得到訓練完成的DNN 模型后,使用全部的測試集{(hik,wi)}test進行DNN 模型測試,基于訓練階段優化得到的權重與邊長,計算得到相應的輸出數據,與數據生成階段的標準輸出數據wi進行對比以驗證所訓練生成的DNN 的準確性,具體結果將在仿真實驗環節進一步闡述。
本文所設計的SWIPT-WMMSE 算法與DNN算法均在Python3.7 環境下編程實現,其中,DNN的訓練與測試過程基于Tensorflow2.2.0。硬件環境為一臺聯想Thinkpad X1 carbon yoga 筆記本電腦,含有8 核CPU i7-10510U@1.8 GHz 和16 GB的DDR3 內存,DNN 的訓練與測試過程均使用CPU 進行運算,無GPU 參與。基于上述仿真環境,首先驗證SWIPT-WMMSE 算法的有效性和性能,并將其作為基準算法與DNN 算法進行對比,驗證機器學習在網絡資源規劃中的可行性與效果。
在蜂窩結構的底層傳感器網絡中,假設其總的小區數量為I,每個小區中隨機均勻散布總量為K的傳感器節點。蜂窩小區的邊長R設置為100 m,sink 節點位于小區的中央位置。在SWIPT-WMMSE算法中,sink 節點i與其所在小區中傳感器節點k之間的信道hik服從Rayleigh 衰落分布,其均值為0,方差為200L/d,其中參數d為傳感器節點至sink 節點之間的歐氏距離,L滿足其10lg(L)服從均值為0且方差為64 的正態分布[37]。SWIPT-WMMSE 算法輸出為sink 節點i的最優波束成形向量wi。
將上述過程分別重復實現25 000 次和5 000 次,繼而形成DNN 模型訓練集{(hik,wi)}train與測試集{(hik,wi)}test,分別用于DNN 模型的訓練與測試。其他參數的設置如表1 所示。

表1 系統參數
設置SWIPT-SWMME 算法的最大迭代次數為500。根據Rayleigh 衰落分布特性生成25 000 個信道數據,將其代入SWIPT-WMMSE算法計算25 000次,每隔500 次采樣得到的算法收斂過程如圖5 所示。圖 5(a)為參數ε= 10?3時的收斂過程,可以看出SWIPT-WMMSE 算法在第150 次至第200 次迭代中達到穩定收斂;圖5(b)為參數ε= 10?5時的收斂過程,可以看出算法在第400 次至第500 次迭代后達到穩定收斂。由此可見,SWIPT-SWMME 算法在求解sink 節點最優能效波束成形向量時是有效的,且能夠在有限次的迭代后得到最優解。

圖5 算法收斂過程
通過以下 4 種策略的對比,驗證SWIPT-SWMMSE 算法在提升系統能效方面的優勢:1) 基于SWIPT-WMMSE 算法的策略;2) 隨機功率分配策略,即sink 節點的波束成形向量wi隨機給定;3) 最大功率分配策略,即sink 節點以最大功率傳輸,其波束成形向量中各個分量均相等;4) 基于DNN 策略。系統能效的累積分布函數(CDF,cumulative distribution function)曲線如圖6 所示。
從圖6 可以看出,基于SWIPT-WMMSE 算法的策略相較其他3 種策略實現了更高的系統能效。同時,相較隨機功率分配策略與最大功率分配策略所實現的系統能效值的累積分布,基于SWIPTWMMSE 算法的策略所實現的能效值具有更加廣泛的分布區間,這是由于后者能夠依據當前的信道狀態數據,及時改變波束成形策略,在較好信道狀態時增大功率傳輸,在較差信道狀態時降低功率傳輸,從而節省能量傳輸的路徑損耗;隨機功率分配策略難以保障其波束成形方案隨信道狀態進行調整,最大功率分配策略雖然適用于信道狀態較好的情形,但其在信道狀態較差時具有較大的路徑損耗。

圖6 系統能效CDF
在DNN 訓練階段,其損失函數定義為網絡輸出與標準波束成形向量之差的模,經過15 次的梯度下降過程優化DNN 的權重與邊長數據。訓練中損失函數梯度下降的過程如圖7 所示。從圖7 可以看出,DNN 的訓練過程均能夠在有限次的迭代中趨于穩定,得到DNN 最優的權重與邊長值,此時訓練過程的批大小bs 設置為10。結合圖6 中DNN 和SWIPT-WMMSE 這2 種算法實現的系統能效CDF曲線可知,DNN 在訓練階段較好地逼近了SWIPTWMMSE 算法。

圖7 DNN 訓練過程中損失函數梯度下降過程
在DNN 測試階段,參與測試的5 000 個數據樣本分別通過DNN 和SWIPT-WMMSE 算法計算得到相應的波束成形向量,以對應的向量之差的模作為DNN 準確度測試標準,其環境參數設置和數據計算結果分別如表2 所示,其中最大系統能效為算法所得最優解對應實現的系統能效值,擬合度的含義是使用DNN 算法得到的輸出結果與SWIPT-WMMSE算法輸出結果的擬合程度,總CPU 用時為在當前實驗環境下,2 種算法求解最優解所消耗的CPU 運算時間。可以看出,基于DNN 的波束成形算法能夠實現較好的預測準確度和計算效率。其中,隨著每個小區內傳感器節點數量增加(K=10,20,50),SWIPT-WMMSE 算法的CPU 用時顯著增多,這是由于更多的傳感器節點數量增加了最優解的維度,增加了算法的計算量;同時,DNN 算法的計算精度隨著K值的增大有所下降,這是由于其網絡規模的增加需要更龐大的數據樣本集用于模型訓練,原有的固定樣本量無法滿足網絡規模增大時的DNN 訓練需求;sink 節點天線的增加在一定程度上提升了DNN 的精確度,這是由于更多的天線配備提升了DNN 訓練過程的自由度;訓練過程中學習率變化與DNN 精確度并無明顯線性關系,這是由于過大的學習率可能導致下降過程震蕩無法收斂,而過小的學習率則會導致收斂過程過于緩慢;批大小的增大會導致DNN 準確度的下降,這是由于較大的批大小與較小的批大小相比,達到相同精度所需要的Epoch 數量越多,合理的批大小能夠在梯度下降過程的計算時間與收斂精度之間實現均衡。在算法的CPU 耗時方面,DNN 算法較SWIPT-WMMSE 算法具有明顯的優勢,其5 000 次測試過程的計算時長遠低于SWIPT-WMMSE 算法的計算時長。其中,網絡規模(傳感器節點數量、sink 節點天線數量)的增加均導致計算時長的增加。綜上所述,基于DNN 的波束成形算法能夠實現較高的準確度,且在計算復雜度與實時性方面較SWIPT-WMMSE 算法具有更好的優勢。

表2 DNN 測試結果
使用不同隱藏層數量和神經元數量的DNN 模型經過訓練后在測試階段實現的準確度如表3 所示。表3 結果表明,依據前文所設計的3 層隱藏層且各層神經元數量分別為1 000、100 和10 時,所實現的準確度最高。而隨著隱藏層數量或神經元數量的增大或減小,其DNN 模型的準確度均有所降低,這是由于過于簡單的DNN 結構不能完全逼近SWIPT-WMMSE 的計算過程;而過于復雜的結構則會導致模型陷入細節特征的描述,導致DNN 無法在逼近誤差與特征描述之間實現均衡。該結果也驗證了定理1 的有效性。
值得注意的是,基于DNN 的策略相較于基于SWIPT-WMMSE 算法的策略能夠提供更高實時性,其原因在于,sink 節點使用云端訓練好的DNN 模型,將當前的系統狀態作為輸入得到決策輸出,這一過程不包含迭代,僅為線性的數據輸入輸出過程,而SWIPT-WMMSE 所代表的最優化求解算法,其算法求解過程由于包含有迭代過程,即需要通過循環式的參數更新過程實現最優解的獲取。因此相較于最優化算法,基于機器學習的方法能夠為系統帶來更好的實時性。在計算復雜度方面,由于DNN在訓練完成后,利用其進行波束成形矩陣求解是從輸入到輸出的單向過程,其基本單元的執行頻度均為常量,因此其計算復雜度為O(1)。
綜上所述,基于DNN 的sink 節點最優能效策略能夠很好地逼近SWIPT-WMMSE 算法,實現相似的系統性能,同時為系統決策提供更低的計算復雜度和更高的實時性。
本文研究深度學習方法在基于SWIPT 的傳感云系統sink 節點最優能效問題中的應用。依據下行SWIPT、上行WIT 的傳感云系統運行機制,建立了sink 節點的能效優化問題,繼而通過數學變換將該問題轉換為高維空間可求解形式;為了實現深度學習方法的應用,首先設計了求解該問題的具有迭代形式的SWIPT-WMMSE 算法,并論證了算法的收斂性;然后通過 DNN 訓練過程實現對SWIPT-WMMSE 算法的逼近,并提出了DNN 對于SWIPT-WMMSE 算法的可逼近性與網絡規模設計依據;最后通過仿真試驗分別驗證了基于SWIPT-WMMSE 算法的策略和基于DNN 的策略在求解sink節點最優能效的波束成形策略的有效性與所實現的系統增益,同時也驗證了DNN 在降低計算復雜度和提升系統實時性方面的優勢,為機器學習方法在網絡資源分配中的應用提供了理論依據。