朱連章,李 博,張衛山,劉 昕,譚守超,孫浩云
(中國石油大學(華東) 計算機與通信工程學院,山東 青島 266580)
普適云計算環境下,計算、服務和數據的調度與遷移是保證資源合理分配和服務性能的一個重要方式,是普適云計算可擴展性、靈活性、普適性和良好性能的基礎和保障,是增強移動設備和移動系統能力的必然途徑[1]。在商業領域,各大云服務提供商都有相應的解決方案,如國內阿里云的伏羲等。在學術領域,服務與數據遷移也是普適云計算的研究熱點,但現有相關研究多集中在遷移架構與遷移決策方面。目前普適云架構可按照節點組成及距離分為四類,CLONE CLOUD[1]與VIRTUALIZED SCREEN[2]中使用的遠端固定云架構,以CLOUDLET[3]為代表的近端固定云架構,近端移動云架構以及SAMI[4]使用的組成結構復雜的混合云架構。在遷移決策方面,遺傳算法、馬爾科夫決策鏈、線性編程等方法被提出作為決策算法。
對于普適云遷移的研究現狀,文獻[5]對現有遷移架構與遷移決策方面的相關工作進行了分析討論,并重點關注了遷移決策的因素及流程。根據該綜述的研究探討,普適云遷移是一個包含了多方面內容的工作,從遷移的基礎設施支持到遷移決策的制定,每一方面都是一個較復雜的問題。此外準確高效的遷移決策離不開深入的普適云環境感知,且研究表明基于預測的決策能夠獲取更有前瞻性的決策方案。遷移執行也需要適合的技術進行支撐,盡可能透明化,減少對環境以及用戶體驗的影響。在遷移相關的深入的上下文感知以及完整的遷移體系結構方面,目前仍缺少探索性的工作,由此也不可避免地引起普適云遷移的大規模部署與測試以及標準化的遷移流程上的缺失。
文獻[6]提出了一個基于OSGi的彈性普適云基礎設施OSGi-PC[6].OSGi作為Java模塊化標準,具有模塊化、動態部署、分布式通信的特征,對于普適云環境下的遷移問題具有顯然的適應性。因此OSGi-PC基于OSGi技術搭建普適云基礎設施,充分利用OSGi技術的模塊化以及動態部署,結合D-OSGi與R-OSGi兩種分布式OSGi部署方案,實現移動節點與云節點上的統一部署與兩者之間無縫的服務通信。實驗分析充分驗證了該基礎設施平臺在PC節點與移動節點上部署的一致性,在不同節點之間執行服務遷移的可行性,并且遷移實驗的分析說明了該基礎設施在執行服務遷移上能夠保持較低的性能消耗。
本文在OSGi-PC的基礎上繼續對普適云環境下服務遷移進行研究,研究重點在于普適云環境的上下文感知以及云節點資源可用性的預測,并提出基于歷史數據與資源預測的遷移決策算法,以此搭建完整的普適云服務遷移體系結構。
上下文感知是對環境信息進行獲取,并監測其變化。隨著物聯網與計算模式的不斷發展,上下文感知已應用在各個領域。對于普適云計算來說,上下文感知是實現計算環境與應用的智能管理,保證系統的正常高效運行,確保服務的質量(QoS)的基礎,是普適云環境進行智能化配置,制定服務與應用遷移決策的前提。但要更好地發揮上下文信息的價值,獲取更加有效的遷移決策,還需要對上下文信息進行分析處理,以此預測出未來時刻的系統狀態,從而進行基于預測的決策,以獲取有前瞻性的遷移方案,帶來更好的系統性能[7]。
普適云計算涉及到多種資源類型,如內存,CPU,網絡帶寬等常用的性能指標。上下文感知獲取到的資源數據具有時間特性,一段時間內周期性獲取到的資源數據會形成一個時間序列,數據呈現出一定規律的變化。目前已有移動平均、回歸分析以及神經網絡等方法可用于對資源情況進行預測。
YOO W et al提出了一種單變量時間序列模型對高帶寬網絡的網絡帶寬使用量進行預測[8]。單變量時間序列模型結合了時間序列的季節性分解方法(STL)與自回歸集成移動平均方法(ARIMA).STL將數據轉換成季節性的、趨勢性的時間序列,而后使用ARIMA進行數據的自回歸預測。
CHEN et al提出了一種向量自回歸模型來預測云環境下的虛擬機的資源使用情況[9]。該模型將數據樣本建模為如下的數組:x[j][i]={x1ij,x2ij,x3ij,x4ij},i=1…n,j=0…m.其中,i代表集群中被檢測的節點,j代表時間序列,x1ij代表CPU使用率,x2ij代表內存使用率,x3ij代表io使用率,x4ij代表帶寬使用率。然后根據各指標之間的相關性,通過對樣本數據進行向量化處理,并為其添加權重信息,將單一變量自回歸模型轉化為向量自回歸模型,從而對云環境的資源使用情況進行短期或者長期的預測。
MICHAEL BORKOWSKI et al使用機器學習模型對應用任務的云資源的使用情況進行了預測[10],其機器學習預測方法的系統模型如下:待預測的任務類型T;T任務的輸入數據向量〈a,b,c,…,z〉;一個待預測資源的列表R1,R2,…,Rn;代表著CPU事件/核數、運行時間、內存使用量、存儲空間、和其他任務T所需的資源。預測的結果是一個向量〈Rp1,Rp2,…,Rpn〉,其中Rpn代表著T任務對資源Rn的預測使用量。在眾多的機器學習算法中,選擇了最適應需求的人工神經網絡ANN模型,記錄實際的資源數據作為訓練數據。隨著訓練數據的增加,ANN模型的適應性不斷提高,預測結果也越來越精確。
ZHANG et al的相關研究提出了使用深度置信網絡DBN對云計算中的資源需求進行預測[11]。為了提高預測的準確性,作者按照每分鐘的時間間隔提取資源請求數據,然后通過微分變換來減少數據的線性相關,從而使其適應神經網絡。此后通過實驗選取合適的DBN參數,在數據樣本的基礎上執行操作,獲取資源請求數據的預測值,可進行長期預測與短期預測。
大部分預測方法的研究表明,基于神經網絡的預測方法比基于回歸的預測方法更加優越。首先人工神經網絡的適應性強,基于回歸的預測方法需要以歷史數據中的變量關系正常為假設前提,但是這對于大部分收集到的數據來說是不現實的,而且回歸方法對于數據的缺失的處理也比較薄弱;而人工神經網絡能夠較好地處理數據丟失的情況,同時能夠適應任何關系的數據類型,也就是說不受數據類型的限制。其次,人工神經網絡的預測結果更加精確,而且相對于回歸方法來說能夠更好地處理變化。但是相對回歸方法,基于人工神經網絡的預測方法需要更多的數據,結構也更加復雜。
在神經網絡用于時間序列預測方面,由于時間序列的數據具有相關性,并且預測需要對數據的長期依賴進行分析,所以遞歸神經網絡LSTM對此具有結構上的優勢。目前已有相關研究使用LSTM對時間序列數據進行預測。文獻[12]使用LSTM神經網絡對美股股指的價格趨勢進行了預測,其研究指出了LSTM對RNN在神經網絡反饋誤差上的改進,也指出了其可能出現局部最優解的可能性。作者還提出了基于數學理論對LSTM學習速率進行改進的方法,以降低局部最優的可能,提高模型的收斂準確率。實現結果表明了LSTM對時間序列預測的可能性。SHI et al[13]將降水臨近預報問題定義為一個時空序列預報問題,提出了卷積LSTM(ConvLSTM)來構建端到端的降水臨近預報訓練模型,該模型對全連接LSTM(FC-LSTM)進行擴展,使其卷積輸入狀態與狀態轉換具有卷積結構。其實驗結果表明ConvLSTM能夠更好地捕捉到時空相關性與一致性,表現優于FC-LSTM.FELIX et al對LSTM對持續輸入數據的處理進行了研究[14],指出由于連續數據沒有明確標記的序列結束點,所以LSTM對于連續輸入數據無法進行其內部網絡結構的狀態重置,因此狀態的持續增長可能引起網絡崩潰。對此他們提出了一種新型自適應的forget gate促使LSTM網絡單元能夠在合適的時間重置自己的狀態,釋放內部資源,以滿足對連續數據輸入處理的要求。
前期工作基于OSGi的彈性普適云基礎設施研究[7]已經搭建起了OSGi普適云服務遷移方法的基本環境,結合使用D-OSGi與R-OSGi分布式通信技術實現了普適云環境的通信,并借助OSGi的動態部署可進行服務的動態遷移。為了支持對遷移決策的研究,普適云服務遷移體系結構在設計上需要滿足以下條件:一是適應普時云環境結構的異構性,即能夠在云計算節點中運行,也能夠運行在資源受限的移動節點,并實現移動節點與云節點之間服務的無縫通信與統一管理;二是要提供框架的自我感知能力,要求中心決策節點負責對每個框架的系統與服務資源信息進行感知是不合理且難以實現的,所以OSGi框架應該具有自我資源監測的能力;三是普適云設施要具有動態部署的能力,確保服務的動態添加與刪除,以盡可能降低服務遷移對系統運行的影響。由此更改OSGi-PC中deployer組件,為其添加組件動態查找與遷移操作功能,并對OSGi-PC基礎設施中各計算節點添加資源監控組件monitor.OSGi普適云服務遷移體系結構需要對服務遷移進行支持,所以為OSGi-PC搭建中心決策節點,負責對普適云環境進行全面感知,節點框架的資源信息進行預測,并基于監測及預測信息進行遷移決策。基于深度學習的普適云遷移體系結構如圖1所示。
完整的普適云服務遷移體系結構中節點分為兩類,普通計算節點(OSGi-FW)與中心決策節點(OSGi-CD),如圖2所示。普通計算節點可以是PC節點,也可能是移動設備(包括安卓手機,安卓平板等),有三個重要的功能性組件:framework,deployer,monitor.其中framework組件的作用是唯一標識一個OSGi-FW框架,同時負責確保該框架中的deployer與monitor處于工作狀態;deployer負責其OSGi-FW框架中服務的遷移與運行狀態的控制,在中央遷移決策節點確定遷移方案后,相對應的deployer進行選定服務的停止遷出與遷入啟動;monitor組件負責對框架可用資源與服務的資源使用情況進行監測,主要包含CPU與內存參數。中心決策節點作為特殊框架節點,在此基礎上還有上下文分析組件contextProfiler、預測組件resourcePredictor與決策節點decisionMaker,決策節點基于OSGi分布式通信技術,通過contextProfiler組件定期發送監測任務給各個計算節點,獲取各個計算節點的資源信息,而后通過預測組件進行節點可用資源的預測,對監測數據與預測結果進行分析,采用一定的決策算法確定是否進行服務的遷移,并獲取遷移方案。決策節點部署于PC節點上,掌控整個系統的運行。

圖1 基于深度學習的普適云服務遷移系統體系結構Fig.1 Overview of deep learning based pervasive cloud service migration architecture

圖2 基于OSGi的普適云遷移基礎設施Fig.2 OSGi based pervasive cloud migration infrastructure
OSGi普適云系統的感知包含三個層次的內容。第一是系統層次的感知,主要是獲取系統中OSGi-FW框架的分布及運行情況,包含系統中共運行有多少個OSGi-FW框架,各個框架的功能組件的運行情況。第二個層次是對每個框架中服務的狀況進行感知,主要是每個框架中運行了哪些服務。這兩個層次的信息通過D-OSGi與R-OSGi分布式通信技術,借助framework與deployer組件即可獲取。第三個層次是資源層次的監控,選取常用且性能相關的內存與CPU指標,監控參數包括節點框架的可用內存量以及CPU的可用率,節點框架內服務的內存與CPU資源使用情況。
對于OSGi-FW的資源可用情況的監控,由于OSGi組件服務運行于JVM中,因此節點框架內存可用量wmemory采用JVM可用內存來衡量,框架的CPU可用率wcpu(1減去CPU占用率)由系統CPU可用率表示。OSGi環境下服務以bundle為單位,所以傳統的Java對象或者是線程層次的資源使用量監控并不能直接適用于OSGi普適云環境。為了獲取bundle的CPU使用率dcpu,對開源項目jip-osgi進行相應改造,使其適應OSGi普適云環境。需要注意的一點是由于Android虛擬機的異構性,通過現有技術方法或工具對Android中的OSGi bundle的資源使用情況進行監控有很大的技術難度;此外考慮到整個OSGi普適云系統中服務的一致性,其他節點中的服務資源消耗情況相對地可基本衡量Android虛擬機中服務資源消耗的相對情況。基于此兩點,在Android中運行的OSGi-FW框架不執行bundle相關的資源監控操作。
在對OSGi-FW節點的資源數據的獲取方式上,采取了中心節點拉的方式,中心決策節點的contextProfiler組件周期性地向OSGi-FW框架中的監控組件發送監控通知,監控組件執行CPU、內存等分析操作來獲取框架資源可用量與服務資源使用量并返回,中心決策節點將獲取到的資源信息進行分析組織,并作為資源使用量歷史進行保存。多次的資源數據構成一個時間序列,以便后續的預測與決策。
在資源數據的表示上,采用如下的結構:
1) 普適云系統信息sysInfo={ipi∶fwInfoi}.其中i∈(1,n),n為系統中框架的數量,ipi用于標識框架,fwInfoi表示框架的信息,如(2)所示。
2) 框架信息fwInfo={ip∶ipAddr,memory∶{ti∶mi},cpu∶{ti∶cI},bdsInfo∶{bdj∶bdInfoj}}.其中i表示時間序列索引,bdsInfo表示框架中的bundles信息,如(3)所示。
3) 框架中bundle的信息bdInfo={cpuInfo∶{ti∶ci},memoryInfo∶{ti∶mi}}cpuInfo與memoryInfo都為一個時間序列,表示了不同時間bundle的CPU與內存消耗情況。
中心決策節點獲取的各框架的內存與CPU資源可用情況如圖3所示。其中,圖3(a)表示了框架的可用內存情況,圖3(b)表示了框架的CPU可用率。

圖3 OSGi計算節點框架的內存和CPU可用情況Fig.3 Memory availability and CPU availability of OSGi computing frameworks
由圖可知,jvm虛擬機的可用內存呈現一定范圍內的鋸齒狀周期性變化,這是符合java內存回收機制隱形所產生的效果的。圖3(a)中最下面的折線代表了Android4.4系統的移動設備節點的內存可用量情況,顯示效果波動較小;這是由于Dalvik虛擬機本身可用內存在一定量級上小于Ubuntu16.04節點上的JVM,所以統一圖形顯示效果受到影響。圖3(b)可發現一定狀況下CPU在某一范圍內波動,且可用率持續保持較高水平;這是由于目前實驗環境的CPU處理能力比較強大。所以這也是在后期決策過程中如果出現框架CPU與內存資源都較為緊張的情況,以內存為首要因素選取目標節點的原因。
上述數據采集過程獲取到的各節點框架的資源可用量數據是有時間特性的,周期性獲取的數據形成了一個時間序列,且各節點框架的內存與CPU可用量隨時間呈現一定規律性的變化。LSTM長短期記憶模型在時間序列的預測處理上具有良好的可用性與適應性,因此采用LSTM對節點框架的資源可用量進行預測。在LSTM的具體實現上,使用純python編寫的深度學習框架keras,這是高度模塊化的神經網絡框架,使用廣泛且較為便捷,并選擇了TensorFlow作為后端。
在模型的構建上,根據LSTM網絡用語時間序列預測方面的相關研究經驗,采用序貫模型,用5層網絡來搭建起LSTM資源預測網絡模型,包括兩層LSTM、兩層Dropout、一層全連接層,如圖4所示。

圖4 5層序貫LSTM預測網絡模型Fig.4 Sequential LSTM prediction network model with five layers
基于LSTM進行資源預測的基本過程如下所述。首先使用測試數據,選取不同的模型參數對其進行訓練。CPU資源與內存資源可用量時間序列具有不同的特征,需要分別分析不同參數配置下模型的預測能力,因此對CPU預測與內存預測模型分別訓練。不同模型參數下的CPU預測模型與內存預測模型的訓練情況如表1與表2所示。

表1 不同參數下memory LSTM訓練及驗證誤差Table 1 Train and validation loss with different parameters of memory LSTM

表2 不同參數下CPU LSTM訓練及驗證誤差Table 2 Train and validation loss with different parameters of CPU LSTM
在表1與表2中,Sequence表示訓練所使用的時間序列長度;LSTM1與LSTM2與Dense Layer表示神經網絡層的輸入數據;Train Loss與Validation Loss表示模型的訓練誤差與驗證誤差。不難理解訓練誤差與驗證誤差越小,證明模型的預測能力越強。因此對于內存與CPU可用量的預測,選取第二行所示的模型參數進行LSTM網絡模型配置。
好的模型在訓練過程中訓練誤差會逐漸減小,表示模型對數據具有收斂能力,驗證誤差一定程度上衡量了模型的泛化能力,表示模型的預測結果與測試數據更加接近。以CPU預測的LSTM網絡的訓練過程為例,分析訓練過程中訓練誤差的變化情況,如圖5所示。不難發現隨著訓練的不斷進行,訓練誤差呈現明顯下降趨勢。

圖5 LSTM預測模型訓練誤差的變化趨勢Fig.5 Variation trend of training error of LSTM prediction model
選定模型并使用訓練數據對其進行訓練后,將該模型進行保存,在決策過程中直接讀入訓練后的LSTM神經網絡模型,將監測到的歷史數據進行數據預處理,處理為預測可用的數據格式,將其輸入該模型,執行模型的預測方法,獲取預測結果。
在上下文感知與資源數據預測的基礎上,以降低設備的資源壓力,平衡系統的資源負載為目標,設計算法獲取服務組件的遷移方案,并基于OSGi分布式通信與動態部署特性來實現OSGi普適云服務的遷移部署。遷移決策與部署的流程如圖6所示。下面詳細介紹遷移決策算法,并說明決策方案的執行與部署。

圖6 OSGi普適云服務遷移決策算法Fig.6 Service migration decision algorithm for OSGi-based pervasive cloud
遷移算法的過程如下:


(1)
其中,m表示內存或者是CPU可用量的加權均值,s表示對應的標準差。所以D值綜合衡量了框架的CPU或內存資源在大小與穩定性方面的情況。
對listat與listas分別進行遍歷,計算其中各節點框架的D值,按照D值由大到小排序,得到考慮方差參數后的listbt與listbs,如圖7中的listb所示。

圖7 OSGi普適云資源排序服務隊列Fig.7 Resource sorted service list in OSGi based pervasive cloud
通過上述操作實現了將系統中的節點框架按照CPU與內存的指標進行排序后的框架列表。查看內存相關的listbt中D值最大的框架,若其的mcpu或mmemory超過設定的資源閾值cthreshold或mthreshold,則該框架作為待遷移框架wmigrated進行遷移決策處理,否則系統不需要進行遷移操作。
2) 第一步確定了是否進行遷移決策以及哪個節點框架優先進行組件服務遷移。這一步將根據wmigrated的資源情況選擇合適的遷移目標框架wtarget.具體分三種情況選擇遷移目標框架wtarget:
① 若wmigrated屬于內存資源緊張類型,則選取內存空閑框架列表中listbts中D值最小(表示內存資源最優)的框架作為遷移目標框架wtarget.
② 若wmigrated屬于CPU資源緊張類型,則選取CPU空閑框架列表listbs中的最優節點作為框架.
③ 若CPU與內存資源都相對緊張,則由以上內容分析可知,采用內存優先的原則,依序遍歷內存空閑列表中的框架,若該框架也位于CPU空閑列表中,則選擇該框架作為wtarget.對于以上3種情況,若沒有找到可取的目標框架,則無法立即執行遷移,只能等待下次決策,遷移決策結束。
3) 若從第一步與第二步獲取到wmigrated與wtarget,則對wmigrated中的OSGi組件服務一段時間內的CPU和內存資源消耗情況進行分析評估,類似分析不同節點框架資源消耗,獲取CPU資源與內存資源消耗的加權均值,并按照CPU與內存的加權均值分別對bundle進行排序。若wmigrated當前的狀態屬于CPU資源緊張類型,選取CPU均值最高的那個服務作為待遷移服務dmigrated;若wmigrated屬于內存資源緊張型,同理選出內存消耗最高的服務作為dmigrated;若wmigrated為CPU與內存都緊張的情況,則重復如第二步中目標框架選擇邏輯,遍歷內存消耗列表中的bundle,若其的CPU消耗也較大,則將其作為dmigrated,若不存在內存與CPU消耗都較大的bundle,由于內存因素的偏重性,只能選擇內存消耗最大的bundle作為dmigrated.
基于上述三步獲取到的遷移方案,在需要遷移的情況下通過服務遷移部署組件執行服務遷移。遷移的過程為:獲取wmigrated中的部署組件deployermigrated,與其對應的遷移目標框架wtarget的deployertarget,通過deployermigrated遷出dmigrated到deployertarget,遷出操作對bundle執行stop,uninstall操作,遷入操作執行install,start操作。
實驗所采用硬件實驗平臺是ThinkPad E460,核心為4核Intel Core i7 6500U,該硬件平臺上搭建有4個ubuntu16.04虛擬機,一個Android4.4虛擬機,配置如表3所示。

表3 系統環境及配置參數Table 3 Deployment and configuration of OSGi-PC service migration system
采用的操作系統為Windows10 64位專業版,設計實現語言主要為java與python。下面對基于深度學習的普適云服務遷移體系結構進行分析評估,主要衡量LSTM資源預測的準確性以及普適云遷移決策的有效性。
對框架節點的資源可用量的預測,采用了具有記憶功能,能夠對時間序列數據進行長期與短期預測的LSTM長短期記憶模型。從2.3章節中模型的訓練與測試情況可知所選擇的LSTM神經網絡模型可以對節點框架的CPU與內存可用量進行預測。考察LSTM對節點框架資源可用量的預測能力,參考如圖8的實驗結果截圖。

圖8 基于LSTM的節點框架資源預測情況Fig.8 Prediction of framework available resource with LSTM
圖8(a)為LSTM網絡對JVM虛擬機CPU可用率的預測結果圖,圖8(b)為LSTM內存預測模型對JVM內存可用率的預測結果圖。通過觀察分析,LSTM模型在短期內(兩三個時間點)的預測結果與實際數據較為吻合,但在較長期的趨勢變化上并不太能夠準確表達實際數據的變化趨勢。
對LSTM預測準確性的衡量,采用均方差對所選模型進行衡量,均方差計算公式如式(2)所示。

(2)
為了更好地說明LSTM網絡模型的預測能力,采用時間序列預測的經典方法ARIMA自回歸移動平均算法與其進行對比。對比試驗選取ubuntu節點(192.168.182.134)的CPU與內存序列作為測試數據,分別進行5組不同的實驗,計算預測值與實際值的均方差,實驗結果數據如圖9所示。

圖9 LSTM與ARIMA在CPU與內存預測上的比較Fig.9 Compare the prediction of the LSTM based method with ARIMA
根據圖9,構建的LSTM神經網絡模型在CPU的預測上均方差值保持在10-4的數量級上,在內存的預測上保持10-1數量級,而且很明顯地低于ARIMA算法的預測均方差,所以可以說LSTM長短期記憶模型對系統資源可用量的預測的準確性上具有良好表現。
在遷移算法的有效性上,以表4所示的遷移實例來說明決策算法的有效性。表4(a)與4(b)分別為節點框架與其服務資源的使用情況,以此討論遷移算法是否選擇出設計期望獲取的方案。
表格4(a)中,192.168.182.133節點框架沒有

表4(a) 遷移實例中各框架的資源情況Table 4(a) Frameworks resource info under the migration example

表4(b) 遷移實例中各框架中服務的資源情況Table 4(b) Resource info of bundles in each framework under the migration example
CPU信息,因為其為Android節點。表4(b)中,-x與沒有數據的數據項表明bundle沒有在對應節點框架中運行,x服務的資源消耗情況不可獲得。不難發現com.tt.add.impl組件相對其他組件來說消耗的CPU時間較長一些,應該是一個計算類的服務,而com.tt.cals.imp組件的內存使用量明顯超出其他組件,因為該組件中維持了一個不斷增大的對象列表。
通過分析各框架在一段時間內的運行狀態,選取0.95與9.0作為遷移的內存與CPU資源的閾值,對于移動節點的內存資源,設定的遷移閾值為0.10.上述遷移實例中,決策算法選擇出的遷移方案為:wmigrated為192.168.182.135的節點(可用內存加權均值小于閾值),選出的dmigrated為com.tt.cals.impl,wtarget為192.168. 182.134的ubuntu節點框架,該遷移方案在閾值約束下,充分考慮當前系統狀態,將內存資源緊張的框架中的內存消耗較高的服務遷移到內存資源較為豐富的ubuntu節點上,符合服務遷移的目標。
普適云環境下的服務遷移是普適云計算模式發揮優勢的有效方式。本文提出了基于深度學習的普適云服務遷移方法,在前期工作中添加深入的普適云上下文感知,基于深度學習網絡LSTM對普適云計算節點的CPU與內存資源可用量進行預測,有效利用上下文信息及預測數據,提出基于預測的普適云服務遷移決策算法,構建了完整的普適云服務遷移體系結構。實驗分析驗證了基于LSTM的資源預測的準確性以及遷移算法的有效性。下一步將繼續探索LSTM網絡結構與參數對預測準確性的影響,并進一步深入研究決策算法。