房曉陽,季新生,劉彩霞,杜福德
(1.國家數字交換系統工程技術研究中心,鄭州 450002; 2.65054部隊,大連 116000)
據Cisco預測,全球網絡流量的年復合增長率將達到22%,而到2020年,視頻流量占所有消費類互聯網流量的比重將超過82%[1],內容獲取已經成為互聯網流量的主導因素。日益增長的對高效內容分發的需求促使基于命名數據對象(Named Data Objects,NDOs)的未來網絡架構的研究,這些架構一般統稱為信息中心網絡(Information-Centric Network,ICN)[2]。ICN作為一種革命式的新型網絡架構,其首要考慮對象是內容本身,而不是內容所處位置。在ICN中,網絡節點具備緩存能力,用戶請求內容時,緩存該內容的節點可以響應用戶請求。自Information-Centric的概念提出以來,涌現了很多解決方案,其中,以命名數據網絡(Named Data Network,NDN)[3]最為引人注目,其也是現在主流的ICN架構研究范例。
NDN為每個內容對象分配全局唯一的名字,在中間層用數據名取代IP進行路由[4]。當NDN路由器接收到興趣包后,如果內容存儲器(Content Store,CS)中有對應數據,則發送數據包響應請求。若CS中沒有對應數據,則查詢未決請求表(Pending Interest Table,PIT),如果發現匹配項,則在對應項中添加興趣包進來的接口(Face)。如果PIT中沒有匹配項,則依據轉發信息庫(Forwarding Information Base,FIB)向內容源方向轉發請求,并在PIT中創建新條目。
對于NDN網絡,發揮網內(In-Network)緩存優勢的關鍵是在較小的開銷下,提升緩存效能。而NDN中默認的緩存方式為處處緩存 (Leave Copy Everywhere,LCE)[5],即當對象返回時,沿途的所有節點都緩存對象,但這種方式容易造成緩存冗余,即相同的對象在多個節點同時存有副本,影響了緩存系統的多樣性[6]。而且在路由轉發時,無法感知路徑外(off-path)鄰近節點的緩存內容,導致緩存利用率低。這種無協作的緩存機制導致緩存冗余、頻繁替換、效率不高。
針對上述問題,本文基于內容請求的局部特征,依據轉發路徑緩存收益及鄰居緩存感知,提出一種分布式協作緩存機制(LPDCC)。在邊緣路由器周期性地統計內容請求速率,并將結果隨興趣包轉發,在請求路徑上依據緩存收益的比較進行緩存決策。
針對NDN網絡LCE緩存方法的不足,為了提升緩存性能,減少冗余,目前研究人員已經提出了一些緩存策略,可以劃分為4類,分別是隨機緩存決策、基于拓撲的緩存決策、基于標簽的緩存決策和基于流行度的緩存決策。
隨機緩存決策中,節點以某一概率決定是否緩存通過的內容。文獻[7]提出了Prob方法,節點按照固定概率p進行內容緩存。文獻[8]提出了RCOne方法,在沿途路徑上隨機選擇某一個節點進行緩存。文獻[9]提出的HPC是一種逐步將內容推向消費者的緩存方法。隨機緩存決策能夠一定程度上降低緩存冗余,但是由于是一種隨機性和盲目性的決策,緩存性能的提升有限。
基于拓撲的緩存決策依據節點的拓撲位置進行緩存。文獻[10]為提高邊緣節點緩存概率,提出了ProbCache方法,通過計算節點距離和緩存容量進行緩存決策。文獻[11]提出的Betw方法,在轉發路徑上選擇介數最高的節點緩存內容副本。基于拓撲的緩存決策提高了緩存針對性,但是沒有考慮內容請求的分布特征。
基于標簽的緩存決策為每個節點預先分配一些標簽,節點只緩存滿足標簽條件的特定范圍的內容。文獻[12]為每個節點分配一個正整數,內容塊的標號經過模運算后等于節點存儲的整數,則進行緩存。文獻[13]提出一種基于Hash的協作緩存機制,采取的方法是先對網絡進行分簇,而后在每個簇中使用Hash算法進行緩存分配。這種緩存決策使得內容只在特定節點緩存,內容請求定向查找的路徑較長,而且需要集中式的網絡控制。
基于流行度的緩存決策依據用戶訪問特征,更多地緩存流行內容。文獻[14]提出的WAVE機制,當內容請求次數增加時,按照指數速度增加被緩存的內容塊數量。文獻[15]提出的MPC機制,當內容請求率達到設定的門限,就將該內容標記為流行內容,如果節點中已經緩存了該內容,則向鄰居節點發送建議緩存的消息,鄰居節點根據自身狀態決定是否緩存該流行內容,文獻[16]提出了一種PRL緩存策略,網絡節點根據本地內容請求的統計信息計算請求率,并結合跳數信息和替換率計算緩存收益,在傳輸路徑中選出收益最大節點作為緩存節點,上游節點會記錄緩存節點信息,并為后續內容請求執行重定向,這種方法會導致頻繁的緩存信息同步,顯著增加網絡負載。文獻[17]綜合考慮了垂直請求路徑和水平局域范圍2維空間下的內容放置和冗余消除,基于最大內容活躍因子確定沿途轉發路徑對應的最大熱點請求區域,但是會引入額外的查找時延。
從上述分析可以看出,基于流行度的緩存決策依據用戶訪問特征提高緩存內容的針對性,使得緩存內容更好地響應后續請求,得到了更多關注。但是現有方法無法避免請求聚合特性(即上游路由器接收到的請求是下游路由器請求聚合后的結果)[18]對內容流行度統計的影響,缺乏實時流行度感知,或者以全局流行度代替局部流行度,忽視了內容請求的差異性。
用無向圖G=(V,E)表示任意網絡拓撲,其中,V={v1,v2,…,vn}表示網絡中的節點集合,節點vi的緩存容量為Ci,E表示鏈路集合。內容塊對象分別表示為ok,k=1,2,…。ok所在源節點為Sk。ri,k為節點vi處,對內容塊ok的請求速率。用hi,k表示從節點vi到Sk的跳數。詳細的符號說明參見表1。

表1 符號說明
LPDCC是一種通過比較緩存收益進行決策的機制,主要思想如圖1所示,用戶發送Interest包,路由節點依據FIB進行轉發,假設在節點v1命中(hit)緩存,然后系統按相反路徑轉發Data包,途中各節點將距節點v1的跳數與本節點內容流行度相乘,得到緩存收益,通過比較緩存收益進行決策。以節點v3為例,計算內容ok的緩存收益,r3,k=3,h3,1=2,那么緩存收益為:
Gain3,k=r3,k×h3,1
(1)

圖1 內容請求示意圖
由于內容數量很多,而且用戶需求會動態變化,準確統計內容的全局流行度是很困難的,尤其是在大規模網絡中。為此,提出一種局部流行度統計方法,每個節點根據自己服務范圍的內容請求情況對內容流行度進行劃分。由于不同區域的關注點不同,局部的流行度信息相比全局流行度,更能準確刻畫用戶需求。因為本文將周期性統計的內容請求速率作為本地的流行度,在本文中將不再區分這2個名詞,而是在不同語境中采用不同的名詞。
NDN協議對Interest包的處理過程中包含如下步驟,當在節點CS中沒有發現匹配的數據,則查找PIT,如果在PIT中發現匹配項,那么把Interest包來源端口(Face)加入PIT表并丟棄,也就是請求聚合的Filter effect[19],這會導致內容流行度信息與實際情況差距較大,尤其是對于上游節點,所接收到的是合并后的內容請求信息,無法掌握真實的內容請求速率。在本文提出的LPDCC中,為了獲得內容流行度信息,所有接入路由器周期性地統計每個內容對象的請求速率,并將結果隨興趣包一起轉發。
圖2給出了請求速率的轉發示意圖,路由節點中需要建立內容流行度表(Local Popularity Table,LPT)用于存儲統計結果。圖2顯示了最近一次請求速率統計結果,r4,1=3表示在節點v4對內容o1的請求速率為3。這些結果隨興趣包向上游節點轉發,上游節點接收后,記錄內容ID、來源端口、流行度信息。這樣可以在不增加網絡負載的情況下獲取本地內容流行度信息。在內容流行度表中之所以要區分端口是因為如果下游節點發送的流行度信息變化后,需要在對應接口記錄中進行更新。如果在下個統計周期,r4,1=2,那么v2中(內容1,端口a)對應的流行度為2,v2中內容1總的流行度為4。

圖2 請求速率轉發示意圖
由于內容對象數量多,而且已緩存內容有可能會被替換。如果將節點的緩存內容在全網或者較大范圍內進行通告,將加劇網絡負載。尤其是對于一些緩存收益較低的內容,由于緩存的駐留時間(Time To Live,TTL)短,緩存通告的信息容易失效,將導致請求重發,增加延遲。為此,需要選擇相對穩定的緩存條目進行通告。
由于采用了基于緩存收益的決策方式,內容的緩存收益越大,在節點中的駐留概率越大,因此依據內容緩存收益的大小進行局域通告,增加內容可用性。按照節點CS中內容的緩存收益將其劃分為3個等級:一是高收益內容,在進行通告時,優先保證可用性;二是一般收益內容;三是低收益內容,不進行通告,減小網絡開銷。對于不同等級的內容,通告范圍的設置也不同。等級越低,TTL越小,可用性較低,應設置比較小的通告范圍。可以將緩存收益在前10%的內容定義為第一等級,通告范圍設為2跳;緩存收益在10%~ 30%的內容定義為第二等級,通告范圍為1跳;其余內容可用性低,不進行鄰域通告。
節點收到鄰居節點的緩存內容通告后,建立鄰居緩存信息表(Neighbor Content Table,NCT),如表2所示,其中跳數是指當前節點與內容提供節點之間的跳數。

表2 鄰居緩存信息
當某項內容在NCT中存在多個條目時,則從中選擇跳數最小的接口進行轉發。由于依據NCT進行轉發后,可能存在目的節點內容已經被替換的可能,在這種情況下,可以將請求通過NCT源節點進行再次轉發。
為了比較緩存收益,需要流行度和跳數信息,而由于節點內容的流行度會由于子節點的緩存決策而變化,為了不增加請求應答的時間,在興趣包轉發過程中收集沿途節點信息。為此,在興趣包中增加字段用于收集必要信息。增加的請求內容流行度字段用于2.1節闡述的流行度轉發和更新;增加的沿途節點信息字段包含沿途節點ID、待替換內容ID、待替換內容收益、當前請求內容在沿途節點的流行度以及節點與內容源之間的跳數。興趣包的報文格式如圖3所示。

圖3 興趣包格式
在興趣包中添加的字段用灰色表示,分別是請求內容流行度和沿途節點信息,其他字段和NDN中的興趣包相同。沿途節點接收到興趣包后首先依據內容流行度更新本節點CS表信息。沿途節點每轉發一次就添加一項沿途節點信息,其中待替換內容是指節點CS中緩存收益最小的內容,收益是指待替換內容的緩存收益,流行度是指當前節點處被請求內容的流行度。跳數的初始值為1,每經過一次轉發節點就加1。興趣包轉發過程見算法1。
算法1興趣包轉發算法(用戶請求內容oj)
1.for (對于每個興趣包上行請求的沿途節點)
2. 依據興趣包中流行度更新rk,j(當前節點vk處內容oj的流行度)
3. if CS中不存在被請求內容then
4. 查詢PIT
5. if存在記錄
6. 在PIT中添加本次請求端口,停止轉發
7. else
8. 更新興趣包
9. 查詢NC
10. if存在記錄
11. 依據NCT轉發
12. else
13. 依據FIB轉發
14. end if
15. end if
16. else(CS中查找到被請求內容,將該內容提供節點記為g)
17. 執行緩存決策算法
18. 從請求端口轉發數據包
19. 停止興趣包轉發
20. end if
21.end for
更新興趣包是指:1)更新被請求內容的流行度;2)興趣包沿途節點信息字段中已有條目的跳數加1;3)從當前節點CS中選出緩存收益最低的內容,標記為待替換內容,在興趣包中添加其內容名、收益,跳數初始化為1。
圖4為興趣包轉發過程示意圖,用戶請求內容oj,在節點v7處首先更新流行度表,假設v7沒有緩存該內容,且PIT中也沒有對應記錄。那么v7從CS中選出緩存收益最低的內容,假設是oq(緩存收益為4),將對應信息寫入興趣包,然后繼續轉發。后續的轉發處理過程類似,經過v7時,將興趣包中v7的跳數信息加1。這樣,當興趣包到達內容提供節點時,就能夠獲取沿途節點的待替換內容信息,以及各節點距內容提供節點的跳數。當興趣包到達內容提供節點后,在該節點執行緩存決策過程,見算法2。然后將決策結果隨數據包轉發,沿途節點接收到數據包后依據相應決策結果決定是否緩存該內容,并更新本地流行度。在內容提供節點處的緩存決策算法中,vi表示用戶接入節點,g表示內容提供節點。
算法2緩存決策算法
1.rj=0
2.for vk∈Path(vi,g)
3. rk,j= rk,j-rj
4. if rk,j×hk,g-Gain>0
5. Caching Decision = TRUE
6. rj= rj+rk,j
7. else
8. Caching Decision = FALSE
9. end if
10.end for

圖4 興趣包轉發過程示意圖
以圖4中的情況為例,在節點v1處執行緩存決策算法,rj初始化為0。首先判斷是否在v7處緩存,由于r7,j=3,h7,g=2,Gainq=4,那么在v7處,內容oj的收益比待替換內容oq要大,所以在v7緩存內容oj。這時,rj更新為3,在判斷v3的緩存決策時,由于v3的子節點v7將會緩存內容oj,后續在v7處對內容oj的請求將由v7應答,不會轉發給v3,因此v3處內容oj的流行度要減去r7,j(即當前rj的值)。因此,r3,j=4,h3,g=1,Gainp=5,經過計算決定不在節點v3處緩存內容oj。通過算法2得到緩存結果后,將該結果隨數據包下發。可以看出,按照算法2進行緩存決策,當子節點決定緩存當前請求內容時,可以及時更新父節點流行度,對緩存收益的評價更加合理,能夠優化緩存位置。
本文通過ndnSIM進行仿真,這是一種基于NS3的NDN仿真工具,已經實現了所有的NDN的基本協議操作,并且支持用戶自定義緩存和轉發策略。使用NS3提供的GT-ITM生成50個節點的隨機網絡拓撲,并隨機選擇3個節點作為內容源服務器,其余節點作為接入節點。網絡中共有10 000個大小相同的內容,內容大小設置為相同,每個內容劃分為100個內容塊,每個內容塊的大小設為10 kB。每個節點的緩存容量設為相同,節點間鏈路帶寬設置為100 Mb/s。節點的內生請求達到率符合參數為λ的泊松過程,內容請求概率符合參數為α的Zipf分布。在初始狀態,節點緩存為空,沒有存儲任何內容副本。
從平均請求延遲、緩存命中率、跳數減少率和業務開銷4個方面,將本文提出的LPDCC與LCE[5]、ProbCache[10]、PRL[16]進行對比分析。
1)平均請求延遲
請求延遲是指從請求內容到收到數據包之間的時間延遲,網絡中所有內容請求延遲的平均值定義為平均請求延遲ξ(t):
(2)
其中,Q指網絡中所有內容請求,ωr(t)指單次內容請求的延遲。
如圖5所示,在節點緩存容量為200 MB,λ為每移動30個的情況下,Zipf參數分別為α=1.0和α=1.2時的平均延遲。從系統初始狀態開始,按照順序進行了200 s的仿真,每隔2 s統計一次平均延遲。由于在初始狀態下,網絡節點中沒有緩存任何內容,所有請求都被轉發到內容源服務器,平均延遲較大。隨著系統運行,網絡節點緩存內容逐漸增加,用戶可以就近獲得所需內容,平均延遲變小,隨后達到穩定狀態。由于LCE采取泛濫式緩存,節點內容頻繁更替,且無法利用路徑外緩存,平均延遲最大。ProbCache沒有考慮內容流行度的差異,不能確保高流行度內容的緩存駐留概率。對于PRL,由于沒有考慮Filter effect的影響,導致延遲增加。而LPDCC依據內容的緩存收益合理確定緩存節點,選擇駐留概率高的內容進行通告,提升緩存利用率,從而顯著降低平均延遲。

圖5 平均請求延遲對比
2)緩存命中率
緩存命中率ψ(t)定義為用戶請求被節點緩存應答的比率:
(3)
其中,δr(t)為0表示在內容源獲得響應,為1表示在路由節點命中緩存。緩存命中率越高,用戶就近獲取內容的可能性越大,源服務器和網絡負載越小,也就表明系統的緩存性能更好。
圖6給出在節點緩存容量為200 MB,α=1.2時,請求到達率分別為λ=20和λ=30情況下的緩存命中率。由于LCE的處處緩存,鏈路上存儲了大量相同的內容,緩存多樣性不足,導致緩存命中率很低。ProbCache沒有利用路徑外緩存,也會造成很多內容請求被轉發到內容源服務器。PRL采取盲目式的緩存通告,增加了緩存缺少概率。LPDCC通過節點協作,保證了節點間緩存內容的差異性,增加了緩存命中率。

圖6 緩存命中率對比
3)跳數減少率

(4)
圖7給出了跳數減少率隨α的變化趨勢。當α較小時,內容流行度不集中,能夠在節點緩存空間常駐的內容少,內容替換頻繁,后續請求較難通過節點緩存滿足,縮短內容獲取路徑的效果不明顯,跳數減少率低。隨著α的變大,內容請求更加集中,熱點內容駐留概率大,由于LPDCC能夠充分利用內容流行度的局域性特征,性能優于其他方案。

圖7 跳數減少率隨α的變化
圖8給出了跳數減少率隨節點緩存容量的變化趨勢。當節點緩存空間很小時,能夠緩存的內容很少,大部分內容請求需要轉發到內容源服務器,跳數減少率都比較低。從圖8可以看出,隨著節點緩存空間的增加,可以在中間節點上緩存更多內容,4種方案的跳數減少率都在增加。LPDCC與其他3種方案相比,性能提升比較穩定。這是因為LPDCC依據緩存收益,提高緩存可用性,從而能夠更快地相應內容請求,減少路由跳數。

圖8 跳數減少率隨緩存容量的變化
4)業務開銷
與LCE相比,ProbCache、PRL和LPDCC為了提高緩存利用率都引入了顯式協作開銷。主要包含以下幾部分:通告開銷,節點存儲開銷,內容請求開銷。
通告開銷(CA):在構建NCT表過程中,選擇相對穩定的緩存條目進行通告,引入了緩存狀態通告開銷。單次緩存通告的開銷為通告報文大小(bit)與傳輸跳數(hop)的乘積。以fA表示通告頻率,SA1表示首跳通告報文大小,d1為對應跳數。鄰居節點收到SA1后,將報文中的通告范圍減去1,并刪掉通告范圍為0的條目,獲得下一跳通告報文SA2,d2為對應SA2的跳數。按上述方式類推,到最大通告范圍m跳后,報文中的內容清空,通告結束。
(5)
節點存儲開銷(CC):由于節點需要額外存儲流行度表(LPT)和鄰居緩存信息表(NCT),增加了存儲開銷。LPT表需要記錄內容名、端口、流行度信息,而NCT表需要記錄內容名、端口、跳數信息。因此,節點存儲開銷是表中記錄各項信息所占空間的大小(bit)。分別用lc、lf、lp、lh表示內容名、端口、流行度、跳數信息的長度,n1和n2分別表示流行度表和鄰居緩存信息表的存儲數量。
(6)
內容請求開銷(CR):定義為內容請求和應答過程中產生的開銷,即興趣包和數據包的大小(bit)與傳輸距離(hop)的乘積。分別用Si和Sd表示興趣包和數據包的大小,dr為第r次請求應答的傳輸距離。
(7)
表3為4種緩存機制的開銷對比。統計時間為5 s,λ=30,α=1.2。LCE只是簡單地進行處處緩存,沒有通告開銷和節點存儲開銷。但是LCE無法利用路徑外緩存,并且路徑緩存的替換率高,內容請求開銷最大。ProbCache只需要收集沿途節點的緩存空間信息,通告開銷和節點存儲開銷都較小,但和LCE一樣,無法利用路徑外緩存。PRL策略采取了一種盲目的節點通告方式,通告開銷大,卻不能保證通告的有效性,導致內容請求開銷仍然較大。LPDCC 只通告駐留概率大的緩存內容,并且利用興趣包轉發過程進行流行度更新,引入了少量通告開銷。由于需要在節點中維護LPT和NCT表,節點存儲開銷較大。但從內容請求開銷的比較中,可以看出LPDCC能夠增加內容請求的就近應答率,使得開銷明顯下降。

表3 業務開銷對比
為有效利用NDN節點的緩存空間,提高網絡服務性能,本文提出一種基于局部流行度的分布式協作緩存機制(LPDCC)。結合內容流行度的局域性,合理評價緩存收益,優化路徑緩存,通過局部緩存通告,提高節點緩存利用率。仿真結果表明,LPDCC能夠獲得較高的緩存命中率,實現內容請求的就近應答。下一步工作重點為設計面向不同服務的緩存策略,并將LPDCC擴展到移動無線網絡中。
[1] Cisco. Visual networking index:forecast and methodology,2015-2020[EB/OL].[2016-08-11].http://www.cisco.com/c/en/us/solutions/collateral/service-provider/visual-networking-index-vni/complete-white-paper-c11-481360.pdf.
[2] TROSSEN D,SARELA M,SOLLINS K.Arguments for an information-centric internetworking architecture[J].ACM SIGCOMM Computer Communications Review,2010,40(2):26-33.
[3] ZHANG Lixia,AFANASYEV A,BURKE J,et al.Named data networking[J].ACM SIGCOMM Computer Communication Review,2014,44(3):66-73.
[4] IOANNOU A,WEBER S.A survey of caching policies and forwarding mechanisms in information-centric networking[J].IEEE Communications Surveys & Tutorials,2016,18(4):2847-2886.
[5] WANG Wei,SUN Yi,GUO Yang,et al.CRCache:exploiting the correlation between content popularity and network topology information for ICN caching[C]//Proceedings of IEEE International Conference on Communications.Washington D.C.,USA:IEEE Press,2014:3191-3196.
[6] 張國強,李 楊,林 濤,等.信息中心網絡中的內置緩存技術研究[J].軟件學報,2014,25(1):154-175.
[7] LAOUTARIS N,SYNTILA S,STAVRAKAKIS I.Meta algorithms for hierarchical web caches[C]//Proceedings of Performance,Computing,and Communica-tions.USA:IEEE Press,2004:445-452.
[8] EUM S,NAKAUCHI K,MURATA M,et al.CATT:potential based routing with content caching for ICN[C]//Proceedings of ACM Proceedings of the ICN Workshop on Information-centric Networking.New York,USA:ACM Press,2012:49-54.
[9] WANG Yu,XU Mingwei,FENG Zhen.Hop-based pro-babilistic caching for information-centric networks[C]//Proceedings of IEEE Global Communications Conference.Washington D.C.,USA:IEEE Press,2013:2102-2107.
[10] PSARAS I,CHAI W K,PAVLOU G.Probabilistic in-network caching for information-centric networks[C]//Proceedings of the ICN Workshop on Information-centric Networking.New York,USA:ACM Press,2012:55-60.
[11] CHAI W K,HE Diliang,PSARAS I,et al.Cache “less for more” in information-centric networks[J].Computer Communications,2013,36(7):758-770.
[12] LI Zhe,SIMON G.Time-shifted TV in content centric networks:the case for cooperative in-network caching[C]//Proceedings of ICC’11.Washington D.C.,USA:IEEE Press,2011:1-6.
[13] SOURLAS V,PSARAS I,SAINO L,et al.Efficient hash-routing and domain clustering techniques for information-centric networks[J].Computer Networks,2016,103:67-83.
[14] CHO K,LEE M,PARK K,et al.Wave:popularity-based and collaborative in-network caching for content-oriented networks[C]//Proceedings of IEEE Computer Com-munications Workshops.Washington D.C.,USA:IEEE Press,2012:316-321.
[15] BERNARDINI C,SILVERSTON T,FESTOR O.MPC:IEEE Popularity-based caching strategy for content centric networks[C]//Proceedings of IEEE International Conference on Communications.Washington D.C.,USA:IEEE Press,2013:3619-3623.
[16] HU Xiaoyan,GONG Jian,CHENG Guang,et al.Enhancing in-network caching by coupling cache placement,replacement and location[C]//Proceedings of IEEE International Conference on Communications.Washington D.C.,USA:IEEE Press,2015:5672-5678.
[17] 葛國棟,郭云飛,劉彩霞等.命名數據網絡中基于局部請求相似性的協作緩存路由機制[J].電子與信息學報,2015,37(2):435-442.
[18] JIA Zixiao,ZHANG Peng,HUANG Jiwei,et al.Modeling hierarchical caches in content-centric networks[C]//Proceedings of IEEE International Conference on Computer Communications and Networks.Washington D.C.,USA:IEEE Press,2013:1-7.
[19] FENG Bohao,ZHOU Huachun,ZHANG Hongke,et al.A popularity-based cache consistency mechanism for information-centric networking[C]//Proceedings of Global Communications Conference.Washington D.C.,USA:IEEE Press,2016:1-6.