999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

內容中心網絡中能效感知的概率性緩存機制

2016-08-30 11:57:02安瑩王建新劉耀中南大學信息科學與工程學院長沙410083中南大學信息安全與大數據研究院長沙410083湖南警察學院信息技術系長沙410138湖南商學院計算機與信息工程學院長沙410205
電子與信息學報 2016年8期
關鍵詞:機制內容用戶

羅 熹 安瑩 王建新 劉耀(中南大學信息科學與工程學院長沙410083)(中南大學信息安全與大數據研究院長沙410083)(湖南警察學院信息技術系長沙410138)(湖南商學院計算機與信息工程學院長沙410205)

?

論文

內容中心網絡中能效感知的概率性緩存機制

羅熹①③安瑩*②王建新①劉耀④①
①(中南大學信息科學與工程學院長沙410083)
②(中南大學信息安全與大數據研究院長沙410083)
③(湖南警察學院信息技術系長沙410138)
④(湖南商學院計算機與信息工程學院長沙410205)

內置緩存技術是內容中心網絡(Content Centric Networking,CCN)的核心技術之一。現有的研究大多主要針對網絡資源利用率的優化,而忽略了網絡能耗的問題。該文首先建立了一個能耗模型對CCN的網絡能耗進行分析,并設計了一個能效判決條件來優化緩存過程的能效性。進而,在此基礎上綜合考慮內容流行度和節點中心性等因素提出一種能效感知的概率性緩存機制(E2APC)。仿真結果表明,該機制能在保證較高的緩存命中率和較小的平均響應跳數的同時有效地降低網絡的整體能耗。

內容中心網絡;能效性;內置緩存;概率性緩存

近年來,研究人員已經對CCN的緩存機制開展了大量的工作。如文獻[3]提出了一種基于內容年齡的協作緩存機制,通過為流行度高且位于網絡邊緣的內容設置更長的年齡來減小內容獲取延遲和網絡流量。但是該文假設網絡拓撲和內容的流行度是已知的,而實際上這兩種信息的獲知并不容易。文獻[4]在同質化緩存分配的基礎上,提出一種基于替換率的緩存空間動態借調機制。該機制根據節點對緩存資源的需求程度,動態地將空余緩存分配給需求更大的節點,從而有效地提升網絡的緩存性能。文獻[5]綜合考慮了路徑上各節點的緩存容量以及內容的流行度來實現選擇性的內容緩存,從而有效地實現緩存負載的合理均勻分布,緩解短期用戶突發性訪問對網絡性能的負面影響。文獻[6]則提出了一種分布式的協作緩存機制,該機制中每個節點將緩存空間劃分為兩部分以實現對不同流行度內容的區分處理,同時結合內容的訪問頻率和緩存副本數量來進行緩存決策。此外,文獻[7]認為社會關系更廣泛的節點在網絡中更具影響力,其發布的內容被其他用戶關注的可能性更大。因此,他們根據網絡節點的社會關系提出一種社會感知的緩存策略,將影響力較大的節點生成的內容預先復制到與其社會鄰居的最短路徑上,從而加快用戶響應速度并減少用戶請求的數量。其他如文獻[8-10],均從網絡用戶社會屬性的角度來設計和優化CCN的緩存策略。

然而,現有的研究工作大多圍繞優化網絡資源利用率來設計CCN的緩存決策和替換策略,而對網絡能效方面的關注還十分有限。據有關報告顯示,當前Internet產生的能耗占世界總能耗的10%,同時這一比例仍在持續、快速地增長[11]。因此,網絡的能耗成為了CCN緩存機制研究中一個不容忽視的重要問題。文獻[12]從能耗的角度分析了不同緩存策略對CCN性能的影響,并對相關的一些開放性問題進行了討論。文獻[13]綜合考慮了內容流行度隨時間和空間變化的動態性以及網絡資源的異質性,首先提出了一種基于整數線性規劃的離線緩存放置策略,利用用戶請求和網絡資源的全局知識獲得最大的效率收益;在此基礎上又提出了一種在線分布式算法,網絡節點根據可用的本地信息實現對全局能效的估計并做出相應的緩存決策。文獻[14]將CCN緩存能效的最優化轉化為一個最小化平均用戶響應跳數的問題,并據此提出了一種基于時效流行度的能效緩存機制APC。文獻[15]將CCN的緩存內容的放置問題形式化為一種非合作博弈,提出了一種基于能效的分布式緩存機制,各網絡節點結合緩存能耗和傳輸能耗自主地作出內容的緩存決策。這些研究工作主要從降低內容緩存和獲取過程中能耗的角度出發來實現CCN網絡能效的優化,但是對節點和內容本身特性對內容獲取延遲、緩存命中率以及資源利用率等網絡性能的影響缺乏足夠的考慮。

對于CCN的緩存決策來說,內容的緩存位置越靠近用戶端,內容的獲取延遲將越?。欢硪环矫?,將內容緩存在更接近內容服務器的高層節點,產生的內容副本數量更少,則緩存能耗相應更小。因此,權衡緩存性能和網絡能耗兩方面的因素來設計CCN的緩存機制就顯得尤為必要。本文提出一種新的分布式緩存機制(E2APC),綜合了能效、內容流行度以及節點重要性等多種因素實現內容的緩存決策,在保證較小的能耗的同時獲得較大網絡性能增益,達到網絡能效性與緩存服務質量之間的合理平衡。與現有的研究工作相比,本文的主要貢獻如下:

(1)針對CCN內容獲取過程的能效問題進行了建模分析,并設計了一個能效判決條件來降低網絡的整體能耗。

(2)提出了一種能效感知的概率性緩存機制,在滿足能效判決條件的前提下,利用用戶請求的到達頻率和新近性估計內容的流行度,并結合節點本身的介數中心性實現內容副本的概率性緩存,從而達到網絡能效性和緩存性能的有效均衡。

2 系統模型

2.1網絡模型

2.2能耗模型

下面我們來對CCN網絡的能耗進行建模分析。CCN網絡的能耗主要來自對內容的緩存和傳輸,因此,CCN網絡的總能耗Etot也主要包括兩部分:緩存能耗Ec以及傳輸能耗Et,即對于任意路由節點vi以及內容對象Ok,令sk表示內容Ok的大小,表示觀察時間t內節點vi處收到的關于Ok的請求次數。同時我們定義為路由節點緩存內容的功率密度(即緩存單位比特數據所消耗的能量),rω表示每個路由節點的功率密度,1ω表示每條鏈路的功率密度。利用文獻[14]中的能耗模型,節點vi緩存內容Ok的緩存能耗可表示為

對于任意請求用戶節點vj,令hij表示節點vi到vj的距離(跳數),則內容Ok從節點vi返回到vj的傳輸能耗可表示為

因此,節點vi緩存和傳輸內容Ok的總能耗為

通常,由于緩存機制的作用,用戶請求大多通過中間緩存節點提供響應,而對OCS的直接訪問頻率相對較低,因此,為了簡化分析過程,這里我們不考慮OCS上的能耗。那么,用戶vj直接從OCS獲取內容Ok的總能耗totE′則由內容返回路徑上鏈路和各中間節點的傳輸能耗構成。若內容Ok的OCS與其請求用戶節點vj的距離為hsj,則可表示為

3  E2APC緩存機制

CCN內置緩存技術的目的是利用網絡中間節點的緩存能力來加快對未來潛在用戶訪問的響應速度,提升整體的網絡性能。這不可避免地導致了緩存空間需求和緩存能耗的增加。因此,在設計緩存機制時,應該將二者結合起來實現網絡性能和緩存能效的有效均衡。E2APC機制主要包括兩部分:一方面利用上面的能耗模型確定內容緩存決策的能耗判決條件,優化內容緩存過程的能效性;另一方面,通過內容的流行度以及節點的中心性實現緩存節點的概率性選擇,進一步來保證網絡系統的緩存性能。下面具體介紹E2APC機制的基本原理。

3.1能效判決條件

CCN通過內容緩存實際上是縮短了今后用戶到內容對象的訪問距離。從能耗的角度上看,是以緩存資源和能量消耗為代價降低未來用戶獲取內容所需的傳輸能耗和響應延遲。若要使得某個中間節點vi對內容Ok的緩存達到降低內容獲取總能耗的目的,就要求若vi成為新的緩存節點,那么未來用戶從vi獲取內容的傳輸能耗與存儲內容的緩存能耗之和totE應小于用戶直接從OCS獲取內容的總能耗根據2.2節中的能耗模型,有

化簡后可以得到:

根據各變量的物理意義,不等式(6)的左邊即為節點vi處收到的關于Ok的請求頻率,可用表示;而不等式右邊,hsj-hij即為內容服務器與中間節點vi的距離,用hsi表示。ωc, ωr和ω1均是與硬件有關的常量參數。文中我們僅考慮緩存設備為DRAM,傳輸鏈路采用波分多路復用時的情況,其取值參照文獻[14]如表1所示。這樣,不等式(6)可表示為

E2APC機制中,我們在每個內容分組頭部增加一個跳數字段hops,當用戶請求在某個節點發生命中時,該節點生成指定的內容分組,并將其hops字段值置0。在該內容分組沿著用戶請求的反向路徑傳播的過程中,其hops字段值逐跳加1。這樣,節點可以從收到的內容分組中讀取hops的值從而得到該內容的響應服務器到當前節點的距離。因此,我們將式(7)作為能耗判定條件,在進行緩存決策時,節點統計當前指定內容的請求頻率以及自己與內容源節點間的距離,若不滿足條件,則不對內容進行緩存。

3.2概率性內容緩存

如果上節的能耗判定條件成立,則表示當前節點作為內容的緩存節點將能降低下次獲取該內容的總能耗。那么,我們再進一步結合節點和內容相關的屬性實現內容的概率性緩存。

從內容的角度考慮,內容的流行度越高表示對其感興趣的用戶越多,下次被訪問的可能性越大。因此,緩存決策時,節點應選擇流行度更高的內容進行緩存。在已有的相關研究工作中,大多假設內容的流行度為一個預先確定的屬性,然而,實際上用戶對內容的感興趣程度是隨時間變化的,而這種變化也導致內容的流行度出現相應的變化。因此,在E2APC機制中,我們采用了文獻[16]中的方法,每個節點利用內容請求在本地的到達頻率和新近性來估計各內容的流行度,具體估算方法如式(8):

這里,Pk表示內容Ok在當前節點的流行度估計值。表示當前時間,tj表示在過去的時間里Ok的第j個請求的到達時間。λ為調節參數且滿足用于權衡內容的訪問頻次和新近性。根據文獻[16]中的分析結果,本文中λ的值取為e-4。內容在當前節點處的流行度估值越高,則其被節點緩存的概率越大。

從節點本身的角度來看,網絡中中心性較高的節點通常具有更強的連接其他節點的能力,它們收到來自不同節點請求的機會更多。將內容緩存在高中心性節點上,發生緩存命中的概率將會更高,同時響應速度也更快。因此,我們選擇自我中心網絡(ego network)的介數中心性作為概率性緩存決策的另一依據。介數中心性越大的節點,成為內容的緩存節點的概率也就越大。于是,當內容Ok到達節點vi時,我們再根據vi估算的Ok的流行度Pk以及vi的介數中心性值確定vi緩存Oi的概率pc(k),計算方法如式(9),

其中,θ為權重系數,用來調節內容流行度和節點介數中心性對緩存概率的影響程度。本文中,θ取值為0.5。Pmax表示節點vk上緩存內容的流行度最大值。Bi表示節點vi的介數中心性值,Bmax則表示內容Ok返回路徑上節點的最大介數中心性值。由于CCN中,內容分組是通過其請求分組的反向傳播路徑返回用戶端的。因此,我們記錄內容請求分組傳輸路徑上節點的最大介數值,當發生緩存命中時,命中節點再將該介數最大值寫入相應的內容分組。這樣,內容返回路徑上的各個節點即可從收到的內容分組中得到相應的Bmax值。

3.3算法描述

E2APC算法的執行過程簡單描述如下。

步驟1若內容Ok到達節點vi,vi首先從Ok的內容分組中讀取內容服務器到當前位置的跳數hsi以及Bmax值;

步驟2若vi統計的Ok的請求到達頻率滿足如式(7)所示的能耗判決條件則繼續執行步驟3;否則,vi不對Ok進行緩存,直接轉發到下一跳;

步驟3 vi根據公式(9)以概率pc(k)緩存內容Ok;

步驟4若vi成為Ok新的緩存節點,則復制一份內容Ok的副本緩存在vi上,并將其跳數字段hops以及最大介數值清零;同時,將接收到的Ok原始內容分組中的跳數字段重置為0(記錄的最大介數值不變),然后繼續向下一跳節點轉發。

4 性能評估

本文選擇了處處緩存的LCE[2]以及基于時效流行度的能效緩存機制APC[14]作為E2APC的比較對象,并利用ndnSIM[17]模擬器對算法進行仿真和性能分析。實驗中,我們采用GT-ITM下的Transit-Stub模型構建了一個由210個路由節點構成的網絡,其中包含第1層Transit域9個,每個第1層Transit域又連接2個第2層Transit域,每個第2層Transit域連接2個Stub域。每個域(Transit域或Stub域)均包含10個節點,仿真拓撲示意圖如圖1所示。同時,我們假設用戶請求的到達過程服從λ=50的泊松分布,用戶的訪問模式服從參數為α的Zip f分布。各路由節點緩存容量相同,且初始狀態下節點緩存為空。內容大小均為1MB,請求分組采用洪泛方式進行轉發,默認緩存替換策略為LRU,其他的主要實驗參數如表1所示。

圖1 仿真實驗網絡拓撲示意圖

表1 實驗參數設置

仿真過程中,我們通過分別改變節點緩存容量、網絡中的內容個數以及Zipf參數α等網絡參數的大小,來觀察不同參數對網絡性能的影響。本文采用的主要性能指標包括:

(1)緩存命中率:用戶請求由緩存而非原始內容服務器響應的概率。

(2)平均響應跳數:內容響應分組從原始內容服務器或內容緩存節點返回用戶請求節點所需的平均跳數。

(3)節能率:某種內置緩存機制的節能率定義為:與無內容緩存機制下的網絡總能耗相比,采用該緩存機制節省的能耗所占的比例。

4.1緩存大小的影響

本節首先研究不同緩存機制下節點緩存大小變化對主要網絡性能的影響。圖2(a)反映了緩存命中率隨緩存大小變化的情況。由于緩存空間的增長,節點能夠緩存的內容數量增加,同時緩存替換頻率降低,因此,3種緩存機制的緩存命中率均隨著節點緩存空間的增大而逐漸提升。其中,由于LCE缺乏對緩存內容以及緩存位置的合理選擇,因此緩存命中率最低。而E2APC綜合考慮了內容以及節點相關的多種關鍵因素,使得節點的緩存決策更加合理,從而獲得了三者中最高的緩存命中率。在節點緩存為5 MB時,E2APC的緩存命中率仍然到達了22.4%,相比LCE(3.4%)和APC(13.5%)分別高出了約558.82%和65.93%。

圖2(b)給出了平均響應跳數隨節點緩存變化的情況。由圖易見,隨著緩存空間的增大,通過緩存節點響應用戶請求的機會增多,大大縮短了用戶獲取內容的跳數距離,因此,圖中3種緩存機制的平均響應跳數均隨節點緩存的增加而出現下降趨勢。其中,APC對內容流行度及其時效性的考慮,提高了緩存決策過程的有效性,顯著地降低了內容獲取的平均跳數。因此,APC的平均響應跳數明顯低于LCE。以節點緩存為100MB時為例,其平均響應跳數為7.42,比LCE(9.69)低了近23.4%。E2APC在緩存決策過程中,利用能效判決條件將內容的緩存位置限制在靠近用戶節點的一側,同時結合內容流行度和節點中心性實現了內容的概率性緩存,使緩存副本不斷趨近用戶端,因此獲得了三者中最低的平均響應跳數。在節點緩存從5MB增加到1000MB的過程中,其平均響應跳數較之APC平均降低了近14.54%。

最后,與不進行內容緩存相比,3種緩存機制的節能率隨節點緩存的變化如圖2(c)所示。隨著節點緩存的增加,用戶請求通過距離更近的緩存節點得到響應的機會大大增加,這導致查找和返回請求內容所需的能耗明顯降低。因此,3種緩存機制的節能率均隨著緩存大小的增加而逐漸增大。其中,LCE由于對經過節點的每個內容都進行緩存,過多的冗余緩存和內容替換必然導致額外的能量開銷,因此節能率最低。而E2APC通過能效判決條件降低了內容訪問的總能耗,優化了緩存決策過程的能效性,因此獲得了三者中最高的節能率。如圖所示,在緩存大小為1000 MB時,E2APC的節能率達到了62.3%,相比APC(55.6%)和LCE(30.1%)分別提高了約12.1%和107.0%。

4.2內容數量的影響

接下來,分析內容數量對不同緩存機制主要性能的影響。在節點緩存一定的情況下,網絡中內容對象的數量一定程度上就是網絡資源稀缺程度的反映。隨著內容數量的增加,相對于內容的緩存需求,節點的緩存能力越發的不足。這樣,緩存內容的替換頻率相應增加,內容的緩存時間相對縮短,從而導致內容緩存在減小后續用戶請求的響應距離和整體能耗、提高緩存命中機會方面的作用逐漸減弱。因此,從圖3我們可以看到,在內容數量從100個逐漸增加到5000個的過程中,3種緩存機制的節能率和緩存命中率曲線均出現明顯的下降,而平均響應跳數則不斷增加。其中,E2APC和APC的各項性能均遠遠優于LCE,這主要得益于它們對緩存內容和緩存節點的合理選擇,避免了LCE相對激進的緩存策略所導致的緩存冗余和額外開銷過大的問題。而由于E2APC利用用戶請求的到達頻率和新近性對內容流行度更準確的估計,以及基于節點介數的緩存節點選擇,使其能夠有效地將用戶請求更頻繁的流行內容緩存在合適的位置,因此,獲得了最高的緩存命中率和最小的平均響應跳數。如圖3(a)和圖3(b)所示,在內容數量為2000個的情況下,E2APC的緩存命中率達到57.8%,比APC(43.7%)高出近32.3%,而平均響應跳數僅為6.54跳,比APC減少了約11.86%。再加上根據能耗模型對系統能效的優化,E2APC使得系統的整體能耗大大降低,從圖3(c)的結果可以看出,其節能率明顯優于其他兩種緩存機制。以2000個內容時的情況為例,E2APC獲得了43.6%的節能率,比APC和LCE分別高出約25.3%和177.7%。

圖2 節點緩存對網絡性能的影響

圖3 內容數量對網絡性能的影響

4.3用戶訪問模式的影響

目前,現有的研究普遍認為用戶對內容的訪問存在一定的偏好性,并且這種偏好服從Zipf分布。在不同的網絡應用中,用戶偏好的分布參數α是存在差異的。α值越大,則表示用戶對內容的偏好越集中,反之亦然。因此,本節通過改變Zipf參數α的大小來比較3種緩存機制在不同網絡應用環境下的性能表現,結果如圖4所示。

當α取值較小時,用戶對內容的請求相對分散。在節點緩存有限的情況下,多樣化的內容請求和內容緩存導致頻繁的緩存替換更新。過短的緩存時間使得內容緩存無法產生明顯的積極作用,因此,3種緩存機制的緩存命中率和節能率均較低,平均響應跳數較高。隨著α值的增加,用戶請求的偏好越發集中于高流行度的內容,流行資源在緩存中的駐留時間延長,響應用戶請求的概率增大,因此,緩存命中率和節能率顯著提高而平均響應跳數則逐步減小。如圖4(a)所示,由于E2APC和APC在緩存決策時均通過對內容流行度的估計來保證流行內容獲得優先的緩存服務,因此其緩存命中率遠遠高于LCE。以1α=時的情況為例,LCE的緩存命中率僅為43.2%,而APC則達到了57.6%,E2APC更是獲得了三者中最高的69.5%的緩存命中。此外,圖4(b)中E2APC的平均響應跳數也明顯低于其他兩種緩存機制,1α=時其平均響應跳數僅為5.43,而APC和LCE則分別達到6.37和8.21。得益于E2APC較高的緩存命中率和較小的平均響應跳數,其同樣獲得了三者中最佳的能耗性能。由圖4(c)可見,在1α=時,E2APC的節能率達到61.6%,比APC和LCE分別高出近21.0%和124.0%。

5 結束語

為了在保證CCN緩存性能的同時提高緩存系統的能效性,本文提出了一種能效感知的概率緩存機制E2APC。該機制通過對CCN網絡能耗的分析,設計了一個緩存能效判決條件來降低內容緩存和獲取過程中的總能耗,同時,在此基礎上結合內容流行度和節點重要性來進一步優化緩存內容和緩存節點的選擇。仿真結果表明,E2APC能有效地降低網絡能耗和平均響應跳數,并提升系統的緩存命中率。在后續的工作中,我們將考慮拓撲結構、帶寬以及節點社會性等因素對緩存機制性能的影響,并嘗試將E2APC擴展到移動網絡環境以及其他類型的實際應用場景以進一步驗證其有效性。

圖4 用戶訪問模式對網絡性能的影響

[1]XYLOMENOSG,VERVERIDISC N,SIRISV,et al.A survey of inform ation-centric networking research[J].IEEE Comm unications Surveys&Tutorials,2014,16(2):1024-1049. doi:10.1109/SURV.2013.070813.00063.

[2]JACOBSON V,SMETTERSD K,THORNTON J D,et al. Networking named content[J].Communications of the ACM,2012,55(1):117-124.doi:10.1145/1658939.1658941.

[3]M ING Z,XU M,and W ANG D.Age-based cooperative caching in information-centric network[C].Proceedings of the 23rd International Con ference on Com puter Communication and Networks(ICCCN),Shanghai,China,2014:1-8.doi: 10.1109/ICCCN.2014.6911725.

[4]葛國棟,郭云飛,蘭巨龍,等.CCN中基于替換率的緩存空間動態借調機制[J].通信學報,2015,36(5):120-129. doi:10.11959/j.issn.1000-436x.2015115.

GE G D,GUO Y F,LAN J L,et al.Dynam ic cache size transfer scheme based on replacement rate in content centric networking[J].Journal of Communications,2015,36(5): 120-129.doi:10.11959/j.issn.1000-436x.2015115.

[5]K IM D,LEE S W,KO Y B,et al.Cache capacity-aware content centric networking under flash crowds[J].Journal of Network and Computer Applications,2015,50:101-113.doi: 10.1016/j.jnca.2014.06.008.

[6]MAJD N E,M ISRA S,and TOURANI R.Split-Cache:A holistic caching framework for imp roved network perform ance in w ireless ad hoc networks[C].Proceedings of IEEE Global Communications Conference(GLOBECOM),Austin,TX,USA,2014:137-142.doi:10.1109/GLOCOM. 2014.7036797.

[7]BERNARDINI C,SILVERSTON T,and FESTOR O. Socially-aw are caching strategy for content centric networking[C].Proceed ings of the 2014 IFIP Networking Conference,Trondheim,Norway,2014:1-9.doi:10.1109/ IFIPNetworking.2014.6857093.

[8]ZHANG N,GUAN J,XU C,et al.A dynam ic social content caching under user mobility pattern[C].Proceedings of the 10th International W ireless Comm un ications and M ob ile Com puting Con ference(IWCMC),N icosia,Cyprus,2014: 1136-1141.doi:10.1109/IWCMC.2014.6906514.

[9]IQBAL J and GIACCONE P.Interest-based cooperative caching in mu lti-hop w ireless networks[C].Proceedings of IEEE Global Communications Conference(GLOBECOM),A tlanta,GA,USA,2013:617-622.doi:10.1109/ GLOCOMW.2013.6825056.

[10]葛國棟,郭云飛,劉彩霞,等.命名數據網絡中基于局部請求相似性的協作緩存路由機制[J].電子與信息學報,2015,37(2): 435-442.doi:10.11999/JEIT140246.

GE G D,GUO Y F,LIU C X,et al.Collaborative caching and routing scheme based on local request sim ilarity in nam ed data networking[J],Journal of Electronics& Inform ation Techno logy,2015,37(2):435-442.doi:10.11999/ JEIT140246.

[11]CHIARAVIGLIO L,MELLIA M,and NERI F.M inimizing ISP network energy cost:Formulation and solutions[J]. IEEE/ACM Transactions on Networking,2012,20(2): 463-476.doi:10.1109/TNET.2011.2161487.

[12]BRAUN T and TRINH T A.Energy E fficiency Issues in Information-centric Networking[M].Energy Efficiency in Large Scale Distributed System s.Berlin Heidelberg,Sp ringer,2013:271-278.doi:10.1007/978-3-642-40517-4_22.

[13]LLORCA J,TULINO A M,GUAN K,et al.Dynam ic in-network cach ing for energy efficient content delivery[C]. Proceedings of IEEE INFOCOM 2013.Tu rin,Italy,2013: 245-249.doi:10.1109/INFCOM.2013.6566772.

[14]LIJ,LIU B,and WU H.Energy-efficient in-network caching for content-centric networking[J].IEEE Communications Letters,2013,17(4):797-800.doi:10.1109/LCOMM.2013. 022213.122741.

[15]FANG C,YU F R,HUANG T,et al.An energy-efficient distributed in-network caching scheme for green content-centric networks[J].Computer Networks,2015,78: 119-129.doi:10.1016/j.comnet.2014.09.017.

[16]LE T,LU Y,and GERLA M.Social caching and content retrieval in D isruption Tolerant Networks(DTNs)[C]. Proceedings of the IEEE 2015 International Conference on Com puting,Networking and Communications(ICNC),Garden Grove,CA,USA,2015:905-910.doi:10.1109/ ICCNC.2015.7069467.

[17]MASTORAKIS S,AFANASYEV A,MOISEENKO I,et al. ndnSIM 2.0:A new version of the NDN simulator for NS-3[R]. Technical Report NDN-0028,2015.

羅熹:女,1980年生,博士生,研究方向為新型網絡體系結構設計、內容中心網絡.

安瑩:男,1980年生,講師,博士后,研究方向為新型網絡體系結構設計、內容中心網絡、延遲容忍網絡等.

王建新:男,1969年生,教授,博士生導師,研究方向為網絡優化理論、參數計算理論、生物信息學等.

劉耀:男,1976年生,講師,博士,研究方向為延遲容忍網絡、社會網絡等.

Energy-efficiency Aware Probabilistic Caching Scheme for Content-centric Networks

LUO X i①③AN Y ing②W ANG Jianxin①LIU Yao④
①(School of Information Science and Engineering,Central South University,Changsha 410083,China)
②(Institute of Information Security&Big Data,Central South University,Changsha 410083,China)
③(Department of Information Technology,Hunan Police Academy,Changsha 410138,China)
④(School ofComputer and Information Engineering,Hunan University ofCommerce,Changsha 410205,China)

In-network caching is one of the key technologies of Content-Centric Networking(CCN),which isw idely concerned recently.However,m ost existing works are targeted for op tim izing network resource utilization,and the energy consum p tion aspect is largely ignored.In this paper,first an energy consum p tion m odel for content distribution is built and a judging condition for energy efficiency optim ization in caching is designed.On this basis and in combination with content popularity and node centrality,an Energy-Efficiency Aware Probabilistic Caching(E2APC)scheme is p roposed.Simu lation results show that the proposed scheme can effectively reduce the whole energy consump tion,while guaranteeing com paratively high cache hit rate and few average response hops.

Content-Centric Networking(CCN);Energy efficiency;In-network caching;Probabilistic caching

1 引言

互聯網技術高速發展的今天,新型網絡應用層出不窮,信息服務的“內容化”、“個性化”成為了當前網絡發展的主要趨勢[1]。然而,傳統的基于主機的Internet體系架構缺乏對面向內容的分發獲取服務的原生支持,因此無法適應網絡用戶日益增長的數據內容訪問需求。近年來,內容中心網絡(Content-Centric Networking)[2]架構作為一種潛在的解決方案受到了國內外相關學者的極大關注。它采用內容數據的名稱來完成對內容的標識、路由以及獲取,從而實現了內容和物理位置的解耦。同時,為了緩解網絡流量的快速增長對網絡帶寬造成的嚴峻壓力,CCN網絡架構中普遍采用了泛在化的網絡內置緩存技術。它要求每個網絡節點都具備緩存內容的能力,從而覆蓋全網的緩存使得網絡作為內容傳輸體的同時也成為了內容的存儲體。然而,泛在緩存機制在提升了網絡的內容分發獲取性能的同時,也可能產生過大的緩存冗余而導致網絡資源利用率和能效降低的問題。

s:The National Natural Science Foundation of China(61402541,61103204),The Scientific Research Fund of Hunan Provincial Education Departm ent(15B127)

TP393

A

1009-5896(2016)08-1843-07

10.11999/JEIT 151244

2015-11-05;改回日期:2016-04-13;網絡出版:2016-05-25

安瑩anying@csu.edu.cn

國家自然科學基金(61402541,61103204),湖南省教育廳科學研究項目(15B 127)

猜你喜歡
機制內容用戶
內容回顧溫故知新
科學大眾(2022年11期)2022-06-21 09:20:52
自制力是一種很好的篩選機制
文苑(2018年21期)2018-11-09 01:23:06
關注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
主要內容
臺聲(2016年2期)2016-09-16 01:06:53
關注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
破除舊機制要分步推進
中國衛生(2015年9期)2015-11-10 03:11:12
如何獲取一億海外用戶
創業家(2015年5期)2015-02-27 07:53:25
注重機制的相互配合
中國衛生(2014年3期)2014-11-12 13:18:12
打基礎 抓機制 顯成效
中國火炬(2014年4期)2014-07-24 14:22:19
主站蜘蛛池模板: 啪啪啪亚洲无码| 亚洲天堂网视频| 午夜啪啪网| 婷婷色丁香综合激情| 91日本在线观看亚洲精品| 中文字幕亚洲精品2页| 亚洲国产欧洲精品路线久久| 五月婷婷丁香色| 国产成人高清精品免费5388| 毛片在线播放网址| 精品国产香蕉伊思人在线| 亚洲 欧美 日韩综合一区| 超清无码一区二区三区| 成年人视频一区二区| 国产午夜不卡| 二级特黄绝大片免费视频大片| 少妇高潮惨叫久久久久久| 欧美精品1区| 看国产毛片| 亚洲国产午夜精华无码福利| 国产午夜精品一区二区三区软件| 98超碰在线观看| 亚洲三级a| 成人精品免费视频| 69视频国产| 囯产av无码片毛片一级| 欧美日韩久久综合| 男人的天堂久久精品激情| 人妻夜夜爽天天爽| 国产成人综合日韩精品无码首页| 日韩午夜伦| 亚洲中文字幕在线精品一区| 午夜激情福利视频| 丁香婷婷综合激情| 免费中文字幕在在线不卡| www亚洲天堂| 亚洲福利网址| 成人韩免费网站| 欧美曰批视频免费播放免费| 精品少妇人妻无码久久| 波多野结衣在线一区二区| 国产成人啪视频一区二区三区| 98精品全国免费观看视频| 亚洲无码高清免费视频亚洲| 欧美a级完整在线观看| 亚洲三级成人| 欧美亚洲国产日韩电影在线| 日本精品一在线观看视频| 国产午夜精品一区二区三区软件| 国产久草视频| 国产美女无遮挡免费视频| 免费高清a毛片| jizz在线免费播放| 中文字幕 日韩 欧美| 国产jizzjizz视频| 夜夜操国产| 2019国产在线| 精品国产自在现线看久久| 国产精品久久自在自2021| 亚洲av无码久久无遮挡| 亚洲综合色区在线播放2019 | a级毛片在线免费| 亚洲日本在线免费观看| 亚洲视频一区在线| 久久99热这里只有精品免费看| 欧美日一级片| 自偷自拍三级全三级视频| 综合五月天网| 第九色区aⅴ天堂久久香| 亚洲精品国产成人7777| 亚洲国内精品自在自线官| 白浆视频在线观看| 成人一级免费视频| 99中文字幕亚洲一区二区| 亚洲第一极品精品无码| 亚洲午夜18| 国产日本欧美在线观看| 午夜a视频| 国产成人欧美| 四虎影视无码永久免费观看| 精品自窥自偷在线看| 国产精品三级av及在线观看|