馮博昊,周華春,張宏科,張明川,2
?
智慧協(xié)同網(wǎng)絡(luò)服務(wù)內(nèi)容在傳輸路徑上的緩存分配策略
馮博昊1,周華春1,張宏科1,張明川1,2
(1.北京交通大學(xué)電子信息工程學(xué)院,北京100044;2.河南科技大學(xué)信息工程學(xué)院,河南洛陽(yáng)471023)
針對(duì)智慧協(xié)同網(wǎng)絡(luò)提出一種服務(wù)內(nèi)容在傳輸路徑上的緩存分配策略。該策略根據(jù)服務(wù)內(nèi)容的流行度部署其在傳輸路徑上的緩存位置,以求充分、高效地發(fā)揮網(wǎng)絡(luò)緩存作用,進(jìn)而提升網(wǎng)絡(luò)的總體性能。所提分配策略分別在5層樹型拓?fù)浜陀?79個(gè)節(jié)點(diǎn)組成的真實(shí)網(wǎng)絡(luò)拓?fù)渲羞M(jìn)行了性能測(cè)試。結(jié)果顯示,該策略在所測(cè)的性能參數(shù)中表現(xiàn)出色,就平均服務(wù)獲取距離而言,較命名數(shù)據(jù)網(wǎng)絡(luò)(NDN, named data nerworking)所使用的LCE(leave copy everywhere)策略,其性能提高20%以上。
緩存分配策略;智慧協(xié)同網(wǎng)絡(luò);智慧標(biāo)識(shí)網(wǎng)絡(luò);以信息為中心網(wǎng)絡(luò);未來(lái)網(wǎng)絡(luò)體系架構(gòu)
隨著網(wǎng)絡(luò)技術(shù)的飛速發(fā)展和不斷創(chuàng)新,互聯(lián)網(wǎng)早已成為現(xiàn)代人們工作和生活必不可少的工具之一。然而,隨著互聯(lián)網(wǎng)用戶不斷激增、互聯(lián)網(wǎng)業(yè)務(wù)爆炸式增長(zhǎng)等,現(xiàn)有互聯(lián)網(wǎng)的原始設(shè)計(jì)理念早已無(wú)法滿足當(dāng)今人們對(duì)網(wǎng)絡(luò)的多元化要求,諸多難以解決的問(wèn)題暴露出來(lái)。因此,如何設(shè)計(jì)能夠滿足未來(lái)發(fā)展需求的下一代互聯(lián)網(wǎng)體系與機(jī)制已成為當(dāng)今學(xué)術(shù)領(lǐng)域研究的熱點(diǎn)問(wèn)題之一。
造成現(xiàn)有互聯(lián)網(wǎng)諸多嚴(yán)重弊端的本質(zhì)原因在于其“三重綁定”特性,即“身份與位置綁定”、“資源與位置綁定”以及“控制與轉(zhuǎn)發(fā)綁定”[1]。智慧協(xié)同網(wǎng)絡(luò)(也稱智慧標(biāo)識(shí)網(wǎng)絡(luò))的提出旨在同時(shí)解決上述“三重綁定”的問(wèn)題,實(shí)現(xiàn)能夠滿足未來(lái)需求的下一代互聯(lián)網(wǎng)體系結(jié)構(gòu)。本文的工作集中于智慧協(xié)同網(wǎng)絡(luò)的“資源與位置分離”機(jī)制上[2]。
現(xiàn)有互聯(lián)網(wǎng)中,服務(wù)資源的名稱與其所處的網(wǎng)絡(luò)位置耦合,并且數(shù)據(jù)采用通道傳輸,中間節(jié)點(diǎn)無(wú)法獲悉所傳數(shù)據(jù)的實(shí)際內(nèi)容,不利于數(shù)據(jù)的高效分發(fā)。
為實(shí)現(xiàn)“資源與位置的分離”,智慧協(xié)同網(wǎng)絡(luò)以獨(dú)立于位置標(biāo)識(shí)的服務(wù)標(biāo)識(shí)(SID, service identifier)對(duì)服務(wù)內(nèi)容進(jìn)行命名,并且在路由器中引入了緩存功能。這樣,服務(wù)資源可存儲(chǔ)在網(wǎng)絡(luò)中的任意位置,用戶不必非要到遙遠(yuǎn)的服務(wù)器獲取服務(wù)內(nèi)容。服務(wù)內(nèi)容的獨(dú)立命名以及緩存的使用一方面有利于用戶的就近獲取服務(wù)資源,另一方面,網(wǎng)絡(luò)中的重復(fù)流量也大幅降低,網(wǎng)絡(luò)整體性能得到提升。該思路也與當(dāng)今以信息為中心網(wǎng)絡(luò)(ICN, information centric network)的概念不謀而合。學(xué)術(shù)界圍繞ICN概念啟動(dòng)了大量的研究項(xiàng)目,例如NDN項(xiàng)目[3]、PURSUIT項(xiàng)目[4]和NetInF項(xiàng)目[5]等。雖然這些項(xiàng)目在ICN的實(shí)施細(xì)節(jié)上存在差異,但其核心思想,即在對(duì)服務(wù)直接命名、利用路由器緩存服務(wù)內(nèi)容上保持一致。
本文提出一種服務(wù)內(nèi)容在傳輸路徑上的緩存分配策略(CA, cache allocation policy)。其基本思想是:在網(wǎng)絡(luò)中引入服務(wù)內(nèi)容流行度感知節(jié)點(diǎn),它通過(guò)周期性地收集用戶請(qǐng)求來(lái)對(duì)服務(wù)內(nèi)容進(jìn)行流行度的排序,之后,將感知結(jié)果通告給用戶所處的接入路由器。接入路由器隨后根據(jù)被請(qǐng)求內(nèi)容的流行度排序指定該服務(wù)內(nèi)容在傳輸路徑中被緩存的位置,以求合理利用傳輸路徑上的緩存資源,充分、高效地發(fā)揮網(wǎng)絡(luò)緩存的作用,提升網(wǎng)絡(luò)的總體性能。
毫無(wú)疑問(wèn),緩存對(duì)于“資源與位置分離”網(wǎng)絡(luò)架構(gòu)的性能改善是至關(guān)重要的。由于緩存路由器面向網(wǎng)絡(luò)中所有服務(wù)內(nèi)容進(jìn)行存儲(chǔ),各服務(wù)內(nèi)容特點(diǎn)不一,如何合理規(guī)劃和使用緩存資源、將流行服務(wù)內(nèi)容存儲(chǔ)在離用戶更近的地方一直是諸如網(wǎng)頁(yè)緩存、以信息為中心網(wǎng)絡(luò)等緩存網(wǎng)絡(luò)研究的熱點(diǎn)議題。緩存的分配問(wèn)題可分為2類,第一類問(wèn)題是如何在網(wǎng)絡(luò)中選擇合適的緩存位置并設(shè)置相應(yīng)的緩存大小以存儲(chǔ)服務(wù)內(nèi)容[6~8]。第二類問(wèn)題則是在給定網(wǎng)絡(luò)緩存位置的情況下,研究存儲(chǔ)哪些服務(wù)內(nèi)容以求網(wǎng)絡(luò)性能最優(yōu)。本文專注于第二類問(wèn)題,更準(zhǔn)確地,是如何在傳輸路徑上緩存資源有限的情況下,合理地為服務(wù)內(nèi)容選擇最佳的緩存位置以達(dá)到降低用戶獲取時(shí)延、網(wǎng)絡(luò)重復(fù)流量的目標(biāo)。該問(wèn)題也與緩存準(zhǔn)入策略,即緩存節(jié)點(diǎn)決定哪些服務(wù)內(nèi)容可以進(jìn)入緩存的議題十分相似,本文將一并討論。
LCD(leave copy down)[9]和MCD(move copy down)[9]是網(wǎng)頁(yè)緩存下的2種服務(wù)內(nèi)容在傳輸路徑上的準(zhǔn)入策略。LCD和MCD每次只將服務(wù)內(nèi)容緩存在服務(wù)器或命中節(jié)點(diǎn)下游直連的節(jié)點(diǎn)上。LCD與MCD的區(qū)別在于MCD將服務(wù)內(nèi)容下移后,該服務(wù)內(nèi)容會(huì)被命中節(jié)點(diǎn)刪除。LCD、MCD根據(jù)需求下移服務(wù)內(nèi)容,服務(wù)內(nèi)容每被請(qǐng)求一次,其緩存位置下移一跳,請(qǐng)求的越多,服務(wù)內(nèi)容下移的距離就越遠(yuǎn)、其離用戶也就更近。這樣,流行內(nèi)容由于擁有更多的請(qǐng)求數(shù)量將被緩存在網(wǎng)絡(luò)的邊緣。可見(jiàn),LCD和MCD可粗略地反映服務(wù)內(nèi)容的流行度。
文獻(xiàn)[9]還與LCE(leave copy everywhere)和Prob()2種策略進(jìn)行比較。LCE也是NDN(named data networking)所使用的緩存準(zhǔn)入策略,它可視為一種極端的策略,即服務(wù)內(nèi)容存儲(chǔ)在傳輸路徑上的所有節(jié)點(diǎn)上。其缺點(diǎn)在于沿途路由器都會(huì)存儲(chǔ)重復(fù)的服務(wù)內(nèi)容、造成緩存資源的浪費(fèi)。此外,被緩存的服務(wù)內(nèi)容極易被新的服務(wù)內(nèi)容所替換,使緩存中的服務(wù)內(nèi)容極不穩(wěn)定。多數(shù)服務(wù)內(nèi)容在被二次請(qǐng)求前就被刪除,緩存無(wú)法發(fā)揮出預(yù)期的效果。Prob()則是沿途節(jié)點(diǎn)按照一個(gè)固定概率存儲(chǔ)服務(wù)內(nèi)容,同樣也無(wú)法體現(xiàn)出內(nèi)容的流行度。
文獻(xiàn)[10]提出一種服務(wù)內(nèi)容在傳輸路徑上的緩存準(zhǔn)入策略Betw。該策略根據(jù)介數(shù)中心性(BC, betweeness centrality)來(lái)緩存服務(wù)內(nèi)容。節(jié)點(diǎn)的BC是指該節(jié)點(diǎn)處在拓?fù)渲腥我馄渌麅牲c(diǎn)的最短路徑上的次數(shù),它反映出該節(jié)點(diǎn)在拓?fù)渲械闹匾潭取etw的優(yōu)勢(shì)在于服務(wù)內(nèi)容被存儲(chǔ)在拓?fù)渲凶钪匾墓?jié)點(diǎn)上,利于共享。但BC是拓?fù)涮匦裕c內(nèi)容的流行度沒(méi)有關(guān)系,無(wú)法反映出內(nèi)容的流行度。此外,高BC節(jié)點(diǎn)的緩存替換速率將極高,造成被緩存內(nèi)容的不穩(wěn)定。
ProbCache、ProbCache+[11, 12]根據(jù)傳輸路徑上剩余緩存容量、離用戶的距離計(jì)算出緩存概率,它需要在請(qǐng)求報(bào)文和服務(wù)內(nèi)容報(bào)文中分別攜帶距離用戶和服務(wù)器的跳數(shù)信息。該策略可有效地減少進(jìn)入緩存的服務(wù)內(nèi)容的數(shù)量,但服務(wù)內(nèi)容的流行度這一重要因素沒(méi)有被直接考慮進(jìn)來(lái)。
文獻(xiàn)[13, 14]利用散列函數(shù)和求余的方式對(duì)服務(wù)內(nèi)容的命名空間進(jìn)行劃分。其優(yōu)點(diǎn)在于不同的內(nèi)容被指定到不同位置,保證了服務(wù)內(nèi)容的穩(wěn)定性。其缺點(diǎn)在于,服務(wù)標(biāo)識(shí)本身無(wú)法體現(xiàn)出流行度,如果不添加較為復(fù)雜的流量平衡算法,緩存節(jié)點(diǎn)易出現(xiàn)負(fù)載失衡問(wèn)題。
此外,利用最優(yōu)化或線性規(guī)劃等算法是解決緩存分配問(wèn)題的常見(jiàn)方式,文獻(xiàn)[15, 16]通過(guò)計(jì)算緩存服務(wù)內(nèi)容的收益來(lái)決定是否存儲(chǔ)在節(jié)點(diǎn)中。但由于其計(jì)算粒度為一次請(qǐng)求,復(fù)雜度極高,只能作為最優(yōu)結(jié)果進(jìn)行參考而不適宜被實(shí)際系統(tǒng)進(jìn)行實(shí)時(shí)測(cè)算。
本節(jié)首先介紹智慧協(xié)同網(wǎng)絡(luò)用于實(shí)現(xiàn)“資源與位置分離”機(jī)制的基本模型;其次,在分析現(xiàn)有服務(wù)請(qǐng)求模型的基礎(chǔ)上,給出本文所提緩存分配策略的設(shè)計(jì)原則;最后,詳細(xì)說(shuō)明所提緩存分配策略的具體機(jī)制。
3.1 智慧協(xié)同網(wǎng)絡(luò)的基本模型
圖1給出了智慧協(xié)同網(wǎng)絡(luò)用于實(shí)現(xiàn)“資源與位置分離”機(jī)制的基本模型。智慧協(xié)同網(wǎng)絡(luò)選擇解析的方法進(jìn)行服務(wù)內(nèi)容與位置的映射,映射關(guān)系被保存在服務(wù)標(biāo)識(shí)查詢系統(tǒng)中。當(dāng)用戶發(fā)送請(qǐng)求報(bào)文至接入路由器后,接入路由器代替用戶向服務(wù)標(biāo)識(shí)查詢系統(tǒng)詢問(wèn)SID所對(duì)應(yīng)的位置信息。服務(wù)標(biāo)識(shí)查詢系統(tǒng)查詢后返回相應(yīng)的位置信息。接入路由器收到后,在請(qǐng)求報(bào)文中填寫SID所對(duì)應(yīng)的目的位置信息并根據(jù)路由表轉(zhuǎn)發(fā)請(qǐng)求報(bào)文。沿途路由器收到請(qǐng)求報(bào)文后,查詢SID所對(duì)應(yīng)的服務(wù)內(nèi)容是否被緩存在本地,是則直接返回服務(wù)內(nèi)容;否則繼續(xù)根據(jù)路由表轉(zhuǎn)發(fā)。當(dāng)請(qǐng)求報(bào)文到達(dá)服務(wù)器后,服務(wù)器根據(jù)請(qǐng)求報(bào)文的目的位置信息返回服務(wù)內(nèi)容,傳輸路徑上的路由器按需進(jìn)行存儲(chǔ)。
3.2 服務(wù)請(qǐng)求模型分析
互聯(lián)網(wǎng)是面向用戶需求的網(wǎng)絡(luò),用戶的服務(wù)請(qǐng)求模型對(duì)網(wǎng)絡(luò)性能優(yōu)化起到?jīng)Q定性的作用。大量文獻(xiàn)使用Zipf分布作為服務(wù)請(qǐng)求的模型,即服務(wù)內(nèi)容的流行度排序與請(qǐng)求概率呈反比。文獻(xiàn)[17]給出了常見(jiàn)網(wǎng)絡(luò)服務(wù)的的變化范圍。
Zipf分布的數(shù)學(xué)表達(dá)式如式(1)所示,其中,(,,)代表排序?yàn)榈姆?wù)內(nèi)容的請(qǐng)求概率,代表內(nèi)容總體個(gè)數(shù),為函數(shù)的調(diào)節(jié)參數(shù)。

圖2 Zipf分布的累計(jì)概率
此外,由于路由器的容量要遠(yuǎn)小于服務(wù)內(nèi)容的總量,過(guò)多的服務(wù)內(nèi)容進(jìn)入緩存勢(shì)必會(huì)引起較高的緩存替換速率,導(dǎo)致緩存的服務(wù)內(nèi)容不穩(wěn)定。鑒于每條傳輸路徑的緩存資源有限且存在其他交叉路徑競(jìng)爭(zhēng)緩存資源的現(xiàn)象,假設(shè)用戶到服務(wù)器的傳輸路徑由該用戶獨(dú)享,且能容納個(gè)服務(wù)內(nèi)容,那么排序在后的服務(wù)內(nèi)容都不應(yīng)該進(jìn)入緩存,以免增加路由器的緩存替代速率,從而降低緩存性能。
因此,服務(wù)內(nèi)容應(yīng)按照請(qǐng)求排序依次存儲(chǔ)在從用戶到服務(wù)器的傳輸路徑上、并且非傳輸路徑所能容納的服務(wù)內(nèi)容不能進(jìn)入緩存。這也是本文所提出的緩存分配策略的設(shè)計(jì)原則。
3.3 具體機(jī)制
3.3.1 服務(wù)內(nèi)容流行度的感知
為實(shí)現(xiàn)服務(wù)內(nèi)容流行度的測(cè)算,CA中引入了“服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)”。如圖1所示,它部署在網(wǎng)絡(luò)邊緣、靠近用戶接入路由器的位置,負(fù)責(zé)某一區(qū)域服務(wù)內(nèi)容流行度的測(cè)算。服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)統(tǒng)一通告一個(gè)任播地址,接入路由器將信令報(bào)文發(fā)往該任播地址,便可與最近的服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)進(jìn)行交互。為了感知服務(wù)內(nèi)容的流行度,接入路由器每收到一次服務(wù)請(qǐng)求,都將該請(qǐng)求中的SID提取出來(lái)發(fā)往服務(wù)內(nèi)容流行度感知節(jié)點(diǎn),便于后者對(duì)服務(wù)內(nèi)容的流行度進(jìn)行評(píng)估。網(wǎng)絡(luò)初始時(shí),接入路由器還需將自己的位置信息注冊(cè)到服務(wù)內(nèi)容流行度感知節(jié)點(diǎn),以便后者主動(dòng)推送關(guān)于服務(wù)內(nèi)容流行度排序的信令報(bào)文。此外,接入路由器還需向服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)通告其所有傳輸路徑中最大的路徑緩存容量,即傳輸路徑上所有緩存節(jié)點(diǎn)緩存容量之和,以便后者決定向其推送排序列表的長(zhǎng)度。
服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)周期性的測(cè)算服務(wù)內(nèi)容的流行度,假設(shè)感知周期為。服務(wù)內(nèi)容的流行度通過(guò)其請(qǐng)求數(shù)量來(lái)體現(xiàn)。服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)為每個(gè)被請(qǐng)求的服務(wù)內(nèi)容維護(hù)如表1所示的流行度表項(xiàng)。該表項(xiàng)由3部分組成,“服務(wù)標(biāo)識(shí)”用于標(biāo)識(shí)一個(gè)服務(wù)內(nèi)容,“本周期請(qǐng)求數(shù)”記錄在當(dāng)前周期內(nèi)該服務(wù)內(nèi)容的請(qǐng)求數(shù)量,“流行度”則為上一周期測(cè)算的服務(wù)內(nèi)容流行度的值。當(dāng)前周期結(jié)束后,服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)重新計(jì)算服務(wù)內(nèi)容的流行度。

表1 服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)維護(hù)的流行度
服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)使用指數(shù)加權(quán)移動(dòng)平均值(EWMA, exponentially weighted moving average)[18]的方式計(jì)算流行內(nèi)容的流行度。EWMA的表達(dá)式如式(2)所示。的初始值為服務(wù)內(nèi)容第一個(gè)周期的請(qǐng)求數(shù)量。是過(guò)去測(cè)量值的權(quán)重系數(shù),越小,過(guò)去測(cè)量值所占比重越大。
服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)根據(jù)新計(jì)算出來(lái)的流行度對(duì)服務(wù)內(nèi)容進(jìn)行排序并將該結(jié)果推送給向其注冊(cè)的接入路由器。同時(shí),計(jì)算出來(lái)的流行度將覆蓋流行度表項(xiàng)中原有的流行度。

接入路由器收到服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)推送的包含內(nèi)容流行度排序的信令報(bào)文后,創(chuàng)建或更新其維護(hù)的排序表項(xiàng),如表2所示,其只需要記錄SID和流行度排序,并維護(hù)一個(gè)計(jì)時(shí)器。考慮到信令報(bào)文的傳輸時(shí)間,計(jì)時(shí)器的計(jì)時(shí)長(zhǎng)度略長(zhǎng)于,超時(shí)后,接入路由器刪除相應(yīng)表項(xiàng)。

表2 接入路由器維護(hù)的排序
3.3.2 傳輸路徑上路由器的相關(guān)操作
用戶發(fā)送的請(qǐng)求報(bào)文如圖3所示。目的位置信息、源位置信息分別為目的節(jié)點(diǎn)和源節(jié)點(diǎn)的通信地址。SID為用戶請(qǐng)求的服務(wù)標(biāo)識(shí),Rank為該SID的流行度排序,初始值為MAX,MAX為一個(gè)很大的整數(shù),遠(yuǎn)遠(yuǎn)大于路徑緩存容量。CacheCapacity用于記錄傳輸路徑上的緩存容量,以確定服務(wù)內(nèi)容的存儲(chǔ)位置,其初始值為0。Node-ID用于記錄緩存該服務(wù)內(nèi)容的節(jié)點(diǎn)標(biāo)識(shí),初始值為NULL。回復(fù)的數(shù)據(jù)報(bào)文格式報(bào)頭與請(qǐng)求報(bào)文格式類似,區(qū)別在于前者不含Rank和CacheCapacity域。

目的位置信息 源位置信息 SID RankCacheCapacity Node-ID
圖3 請(qǐng)求報(bào)文格式
路由器的處理流程如圖4所示。當(dāng)接入路由器收到請(qǐng)求報(bào)文后,首先根據(jù)SID查詢排序表項(xiàng),如果存在對(duì)應(yīng)表項(xiàng),則在請(qǐng)求報(bào)文中填寫對(duì)應(yīng)表項(xiàng)中的Rank值。之后,按照普通路由器處理。普通路由器首先將自身的緩存容量與CacheCapacity相加,之后與Rank比較。如果新的CacheCapacity小于Rank,則說(shuō)明該服務(wù)內(nèi)容應(yīng)該存儲(chǔ)在后續(xù)傳輸節(jié)點(diǎn)上。如果新的CacheCapacity大于或等于Rank,則說(shuō)明該路由器需要存儲(chǔ)該服務(wù)內(nèi)容。此時(shí),該路由器將自己的ID號(hào)寫入請(qǐng)求報(bào)文的Node-ID中并將Rank改寫為MAX,這樣,后續(xù)路由器將不會(huì)存儲(chǔ)該服務(wù)內(nèi)容。之后,普通路由器將查詢本地緩存列表,如果存有該SID的服務(wù)內(nèi)容,普通路由器復(fù)制請(qǐng)求報(bào)文中Node-ID域至返回的數(shù)據(jù)報(bào)文頭部對(duì)應(yīng)處并返回服務(wù)內(nèi)容。否則,路由器根據(jù)路由表發(fā)送請(qǐng)求報(bào)文。當(dāng)服務(wù)內(nèi)容回傳時(shí),沿途路由器查看返回報(bào)文中的Node-ID是否為自己的節(jié)點(diǎn)標(biāo)識(shí),若是,則緩存該服務(wù)內(nèi)容,否,則直接轉(zhuǎn)發(fā)。
圖5給出了一個(gè)簡(jiǎn)單的用戶發(fā)送請(qǐng)求報(bào)文至服務(wù)器的例子,以說(shuō)明路由器對(duì)請(qǐng)求報(bào)文操作的過(guò)程。假設(shè)每臺(tái)路由器可以容納5個(gè)服務(wù)內(nèi)容,被請(qǐng)求內(nèi)容排序?yàn)?2,節(jié)點(diǎn)1、2、3均沒(méi)有存儲(chǔ)相應(yīng)的服務(wù)內(nèi)容。節(jié)點(diǎn)1為用戶的接入路由器,它首先查詢本地排序列表,發(fā)現(xiàn)SID的排序?yàn)?2,并將12填寫至請(qǐng)求報(bào)文中的Rank域;之后改寫CacheCapacity為5。節(jié)點(diǎn)1將請(qǐng)求發(fā)往下一跳節(jié)點(diǎn)2。節(jié)點(diǎn)2首先改寫CacheCapacity為10,發(fā)現(xiàn)小于Rank域的12,繼續(xù)發(fā)往下一跳。節(jié)點(diǎn)3首先改寫CacheCapacity為15,發(fā)現(xiàn)大于Rank域的12,改寫Node-ID域?yàn)?并將Rank域設(shè)為MAX。當(dāng)服務(wù)內(nèi)容回傳時(shí),只有節(jié)點(diǎn)3進(jìn)行存儲(chǔ)。
CA的提出旨在將流行的服務(wù)內(nèi)容存儲(chǔ)在傳輸路徑有限的緩存資源上,并且,越流行的內(nèi)容越靠近用戶。不同于NDN所使用的LCE策略,在CA中,服務(wù)內(nèi)容在請(qǐng)求時(shí)已經(jīng)被指定緩存位置,路由器的緩存替代速率大幅降低,非流行服務(wù)內(nèi)容替代流行服務(wù)內(nèi)容的現(xiàn)象也得到有效的解決,緩存內(nèi)容的穩(wěn)定性得以保證,其被共享的幾率也大幅增加。然而,CA付出的代價(jià)是每個(gè)接入網(wǎng)的服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)需要為每個(gè)SID記錄請(qǐng)求數(shù)量。一方面,服務(wù)請(qǐng)求報(bào)文轉(zhuǎn)發(fā)到服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)會(huì)造成鏈路帶寬的開(kāi)銷;另一方面,對(duì)于服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)需要維護(hù)很長(zhǎng)的SID列表。
對(duì)于鏈路開(kāi)銷的問(wèn)題,由于一個(gè)區(qū)域內(nèi)的請(qǐng)求分布大致相同,接入網(wǎng)的服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)可隨機(jī)選取某個(gè)或某幾個(gè)用戶作為探測(cè)服務(wù)內(nèi)容流行度的樣本,這樣可有效降低鏈路的開(kāi)銷。對(duì)于服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)自身處理開(kāi)銷的問(wèn)題,本文所提流行度測(cè)試方法僅僅是初步方案,由于傳輸路徑上無(wú)法存儲(chǔ)所有服務(wù)內(nèi)容,服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)也沒(méi)必要存儲(chǔ)所有SID的請(qǐng)求數(shù)量。該問(wèn)題的實(shí)質(zhì)其實(shí)與緩存替代策略所解決的問(wèn)題完全一樣,即在一個(gè)有限長(zhǎng)度的列表中進(jìn)行表項(xiàng)優(yōu)先級(jí)的排序。由于服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)只需要知道服務(wù)內(nèi)容的排序而不是具體請(qǐng)求數(shù)量,可使用基于頻率的替代策略進(jìn)行流行度的排序,如P-LFU(period least frequently used)、LFU-DA(LFU-dynamic aging)[19]等。
為了驗(yàn)證所提緩存分配策略CA的性能,本文利用基于NS3[20]的ndnSIM[21]實(shí)現(xiàn)了緩存分配策略CA。此外,本文還實(shí)現(xiàn)了LCD、MCD、Prob()、ProbCache (PRC)、ProbCache+(PRC+)以及Betw用于性能比較。所有策略均使用(LRU, least recently used)作為緩存替代策略。此外,LCE+LRU也是NDN所使用的默認(rèn)策略,ndnSIM已經(jīng)提供。本文分別在5層的樹型拓?fù)浜?79個(gè)節(jié)點(diǎn)的真實(shí)網(wǎng)絡(luò)拓?fù)渲袑?duì)所有策略進(jìn)行性能測(cè)試。樹型拓?fù)涑S糜诮尤刖W(wǎng),但其無(wú)法表現(xiàn)出真實(shí)網(wǎng)絡(luò)的無(wú)標(biāo)度特性。故本文從Rocketfuel’s AT&T topology[22]中選擇編號(hào)為1221的真實(shí)網(wǎng)絡(luò)拓?fù)洹?種拓?fù)淙鐖D6所示。
(a) 樹型拓?fù)?/p>
(b) 真實(shí)拓?fù)?/p>
圖6 真實(shí)網(wǎng)絡(luò)拓?fù)?/p>
在5層樹型拓?fù)渲校粋€(gè)服務(wù)器接入在樹根處,16個(gè)用戶模擬器分別接入到16個(gè)葉節(jié)點(diǎn)上,故用戶到服務(wù)器的距離為6跳(用戶到接入路由器、服務(wù)器到第一跳路由器均計(jì)為1跳,真實(shí)拓?fù)湟惨源朔绞接?jì)算跳數(shù))。樹型拓?fù)渲泄?jié)點(diǎn)的帶寬設(shè)置的較大,所以擁塞問(wèn)題不會(huì)對(duì)最終的結(jié)果造成多大的影響。真實(shí)拓?fù)涔灿?31條鏈路,其中,接入節(jié)點(diǎn)有169個(gè),網(wǎng)關(guān)節(jié)點(diǎn)45個(gè),骨干網(wǎng)節(jié)點(diǎn)65個(gè)。本文并未改變?cè)撏負(fù)涞脑袇?shù)。50個(gè)服務(wù)器和100個(gè)用戶模擬器將隨機(jī)接入到不同的接入節(jié)點(diǎn)中。2.5104個(gè)內(nèi)容將隨機(jī)分布到這100個(gè)服務(wù)器中,而每個(gè)服務(wù)內(nèi)容只被某一個(gè)服務(wù)器提供。另外,在2種拓?fù)渲校總€(gè)網(wǎng)關(guān)節(jié)點(diǎn)(灰色)都連接一個(gè)服務(wù)內(nèi)容流行度感知節(jié)點(diǎn)。樹型拓?fù)涞木W(wǎng)關(guān)節(jié)點(diǎn)為第5層節(jié)點(diǎn)。

表3 仿真參數(shù)
測(cè)試的性能指標(biāo)包括服務(wù)獲取距離、緩存刪除操作總量以及請(qǐng)求報(bào)文數(shù)量。這些指標(biāo)又分為實(shí)時(shí)指標(biāo)和平均指標(biāo)2類。實(shí)時(shí)指標(biāo)為每5 s內(nèi)的平均值、平均指標(biāo)為1 000 s內(nèi)的總平均值。
服務(wù)獲取距離定義為請(qǐng)求報(bào)文到達(dá)服務(wù)器或存有服務(wù)內(nèi)容副本的節(jié)點(diǎn)所經(jīng)過(guò)的跳數(shù)。平均值的計(jì)算方式為規(guī)定時(shí)間內(nèi)所有請(qǐng)求報(bào)文的跳數(shù)之和與總請(qǐng)求數(shù)的商。它反映出緩存的共享率,距離越短,效率越高,用戶的服務(wù)獲取時(shí)延就越低;節(jié)點(diǎn)的緩存刪除操作總量定義為網(wǎng)絡(luò)中所有節(jié)點(diǎn)每秒刪除緩存內(nèi)容數(shù)量之和,它反映出緩存內(nèi)容的穩(wěn)定性。請(qǐng)求報(bào)文數(shù)量記錄規(guī)定時(shí)間內(nèi)網(wǎng)絡(luò)中所有節(jié)點(diǎn)發(fā)送的請(qǐng)求報(bào)文的數(shù)量,由于一個(gè)請(qǐng)求報(bào)文回復(fù)一個(gè)數(shù)據(jù)報(bào)文,它可以粗略地反映出網(wǎng)絡(luò)中的流量狀況。
需要說(shuō)明的是,在測(cè)算服務(wù)獲取距離時(shí),由于其他策略并未考慮服務(wù)解析的問(wèn)題,為了公平起見(jiàn),緩存分配策略CA在計(jì)算服務(wù)獲取距離時(shí)不包含解析過(guò)程所產(chǎn)生的跳數(shù),即假設(shè)接入路由器已知服務(wù)器的位置信息。另外,緩存分配策略CA的測(cè)算周期默認(rèn)為10 s,默認(rèn)為0.85。另外,考慮到測(cè)試參數(shù)實(shí)時(shí)的簡(jiǎn)潔性,性能表現(xiàn)中等的MCD、PRC以及Prob(0.3)將不在圖中呈現(xiàn),其平均值將在對(duì)應(yīng)列表中體現(xiàn)。
4.1 緩存分配策略CA自身參數(shù)對(duì)其的影響
本文首先測(cè)試緩存分配策略CA自身參數(shù)對(duì)其的影響。1 000 s內(nèi)的總平均服務(wù)獲取距離隨測(cè)算周期以及大小變化的情況如圖7所示。可以看到,在2種拓?fù)湎拢骄?wù)距離均未發(fā)生明顯變化。因此,測(cè)算周期以及并非是影響緩存分配策略CA性能的主要因素。另外,緩存分配策略CA在2種拓?fù)湎缕骄?wù)獲取距離的差異源于2種拓?fù)浞?wù)器數(shù)量、用戶模擬器數(shù)量等設(shè)定以及拓?fù)浔旧硖匦缘牟煌?/p>
4.2 各策略服務(wù)獲取距離的比較
圖8分別給出了在樹型拓?fù)浜驼鎸?shí)網(wǎng)絡(luò)拓?fù)湎赂鞑呗缘膶?shí)時(shí)服務(wù)獲取距離。各策略1 000 s內(nèi)的總平均服務(wù)獲取距離以及相對(duì)于LCE的減小率如表4所示。可以看出,2種拓?fù)湎滦阅茏詈玫氖荂A,在樹型拓?fù)湎缕骄?wù)獲取距離為3.81跳,在真實(shí)拓?fù)湎聻?.13跳,相對(duì)于LCE,減小率大于20%。其次是LCD,相對(duì)于LCE的減小率為14%左右。
LCE性能較差的原因在于其不限制服務(wù)內(nèi)容進(jìn)入緩存。由于傳輸路徑上的緩存資源有限,其總?cè)萘恳h(yuǎn)遠(yuǎn)小于服務(wù)內(nèi)容的請(qǐng)求數(shù)量。在這種情況下,當(dāng)服務(wù)內(nèi)容回傳時(shí),途徑節(jié)點(diǎn)都會(huì)緩存相同的服務(wù)內(nèi)容,造成緩存資源的極度浪費(fèi)。此外,這種方式加速了緩存內(nèi)容的替代速率,很多服務(wù)內(nèi)容在被二次請(qǐng)求前就被刪除,緩存沒(méi)有發(fā)揮出很好的共享作用,致使用戶的服務(wù)獲取距離較高。
Prob(0.3)是一種純基于概率的策略,其性能優(yōu)于LCE的原因在于它并不是讓所有服務(wù)內(nèi)容都進(jìn)入緩存。這樣,傳輸路徑上緩存內(nèi)容的多樣性得到一定的保證,同時(shí),緩存內(nèi)容的替代速率也大幅降低,故其性能較之LCE有所提高。
ProbCache和ProCache+也是一種基于概率的策略,不同之處在于它們還考慮了服務(wù)內(nèi)容回傳時(shí)路徑上所剩緩存容量以及離用戶的距離等因素。由于其概率計(jì)算更具針對(duì)性,其性能較之Prob(0.3)提高較多。
Betw根據(jù)BC緩存服務(wù)內(nèi)容,它利用BC確定服務(wù)內(nèi)容在傳輸路徑上的存儲(chǔ)位置。但Betw的缺陷在于BC是反映網(wǎng)絡(luò)拓?fù)涞奶匦裕男阅芘c拓?fù)渲苯酉嚓P(guān),而且高BC的節(jié)點(diǎn)緩存替代速率較高,不易實(shí)現(xiàn)服務(wù)內(nèi)容的共享。
LCD和MCD則是根據(jù)請(qǐng)求下移數(shù)據(jù),它可以粗略的反映出服務(wù)內(nèi)容的流行度。對(duì)于流行內(nèi)容,由于其擁有較多的請(qǐng)求數(shù)量,其最終會(huì)被下移到離用戶更近的地方。另外,MCD性能遜于LCD的原因在于命中節(jié)點(diǎn)會(huì)刪除被命中的服務(wù)內(nèi)容,降低了服務(wù)內(nèi)容被共享的概率。
CA表現(xiàn)最為出色,原因在于其按照用戶需求存儲(chǔ)服務(wù)內(nèi)容。如前所述,服務(wù)請(qǐng)求服從Zipf分布,服務(wù)內(nèi)容的請(qǐng)求數(shù)量隨流行度排序的升高呈指數(shù)遞減。而CA按照服務(wù)內(nèi)容流行度排序遞增的方式從用戶方向依次在傳輸路徑上存儲(chǔ)服務(wù)內(nèi)容,這樣,更多的服務(wù)請(qǐng)求能夠被就近滿足。此外,由于傳輸路徑上的緩存資源遠(yuǎn)不足以存儲(chǔ)用戶所請(qǐng)求的所有內(nèi)容,排序靠后的服務(wù)內(nèi)容將不會(huì)進(jìn)入緩存,這大幅降低了緩存內(nèi)容的替換速率,保證緩存內(nèi)容的穩(wěn)定性,便于服務(wù)內(nèi)容的共享。
4.3 各策略服務(wù)器緩存刪除操作總量的比較
圖9分別給出了在樹型拓?fù)浜驼鎸?shí)網(wǎng)絡(luò)拓?fù)湎赂鞑呗缘膶?shí)時(shí)緩存刪除操作總量。各策略1 000 s內(nèi)的總平均緩存刪除操作總量以及相對(duì)于LCE的減小率如表4所示。可以看出,2種拓?fù)湎滦阅茏詈玫氖荂A,在樹型拓?fù)湎戮彺鎰h除操作總量為每秒95.98次,在真實(shí)拓?fù)湎聻槊棵?80.44次,相對(duì)于LCE,減小率在98%左右。這說(shuō)明在緩存分配策略CA中,被緩存的服務(wù)內(nèi)容相對(duì)穩(wěn)定,利于服務(wù)內(nèi)容的共享。其原因在于緩存分配策略CA指定了服務(wù)內(nèi)容在傳輸路徑的存儲(chǔ)位置并阻止非流行服務(wù)內(nèi)容進(jìn)入緩存,有效降低了緩存內(nèi)容的替代速率。
4.4 各策略請(qǐng)求報(bào)文數(shù)量的比較
圖10給出了在樹型拓?fù)浜驼鎸?shí)網(wǎng)絡(luò)拓?fù)湎赂鞑呗缘膶?shí)時(shí)請(qǐng)求報(bào)文數(shù)量。各策略1 000 s內(nèi)的總平均請(qǐng)求報(bào)文數(shù)量以及相對(duì)于LCE的減小率如表4所示。
緩存分配策略CA在2種拓?fù)湎卤憩F(xiàn)良好,相對(duì)于LCE的減小率分別為20.34%和12.27%。真實(shí)拓?fù)湎鄬?duì)于LCE的減小率低于樹型拓?fù)涞脑蛟谟谡鎸?shí)網(wǎng)絡(luò)是無(wú)標(biāo)度網(wǎng)絡(luò)并且用戶傳輸路徑相互重疊、相互影響,加之其節(jié)點(diǎn)數(shù)量、用戶模擬器數(shù)量遠(yuǎn)遠(yuǎn)多于樹型拓?fù)洌?wù)請(qǐng)求在網(wǎng)絡(luò)中的傳輸更具一般性。此外,雖然Betw的請(qǐng)求報(bào)文數(shù)量也很低,但由于其只考慮了拓?fù)涮匦远皇欠?wù)內(nèi)容的流行度,其用戶的服務(wù)獲取距離并不是最短的。緩存分配策略CA則是根據(jù)服務(wù)內(nèi)容的流行度存儲(chǔ),故在請(qǐng)求報(bào)文數(shù)量降低的同時(shí),用戶的平均服務(wù)獲取距離最小。
綜上所述,緩存分配策略CA性能出色的原因在于其按照服務(wù)內(nèi)容流行度排序遞增的方式從用戶方向依次在傳輸路徑上存儲(chǔ)服務(wù)內(nèi)容。此外,由于傳輸路徑上的緩存資源遠(yuǎn)不足以存儲(chǔ)用戶所請(qǐng)求的所有內(nèi)容,排序靠后的服務(wù)內(nèi)容將不會(huì)進(jìn)入緩存,這大幅降低了緩存內(nèi)容的替換速率,保證緩存內(nèi)容的穩(wěn)定性。測(cè)試結(jié)果顯示,緩存分配策略CA在服務(wù)獲取距離、緩存刪除操作總量、請(qǐng)求報(bào)文數(shù)量3方面性能出色,這也證明了本文設(shè)計(jì)緩存分配策略CA的原則是有效的。

表4 各性能指標(biāo)平均值以及相對(duì)于LCE的減小率
本文提出了一種服務(wù)內(nèi)容在傳輸路徑上的緩存分配策略,旨在合理利用傳輸路徑上的緩存資源,充分、高效地發(fā)揮網(wǎng)絡(luò)緩存的作用,進(jìn)而提升網(wǎng)絡(luò)的總體性能。本文分別在5層的樹型拓?fù)浜陀?79個(gè)節(jié)點(diǎn)組成的真實(shí)網(wǎng)絡(luò)中對(duì)緩存分配策略CA進(jìn)行性能測(cè)試。同時(shí),本文還實(shí)現(xiàn)了LCD、MCD、Betw、ProbCache、ProbCache+、Prob(0.3)的功能并與緩存分配策略CA、NDN所使用的策略LCE進(jìn)行性能對(duì)比。結(jié)果顯示,緩存分配策略CA在所測(cè)的性能參數(shù)中表現(xiàn)出色,就平均服務(wù)獲取距離而言,較之LCE,其性能提高20%以上。
[1] 張宏科, 羅洪斌. 智慧協(xié)同網(wǎng)絡(luò)體系基礎(chǔ)研究[J]. 電子學(xué)報(bào), 2013, 41(7): 1249-1254.
ZHANG H K, LUO H B. Fundamental research on theories of smart and cooperative networks[J]. Acta Electronic Silica, 2013, 41(7): 1249-1254.
[2] 蘇偉, 陳佳, 周華春, 等. 智慧協(xié)同網(wǎng)絡(luò)中的服務(wù)機(jī)理研究[J]. 電子學(xué)報(bào), 2013, 41(7): 1255-1260.
SU W, CHEN J, ZHOU H C, et al. Research on the service mechanisms in smart and cooperative networks[J]. Acta Electronic Silica, 2013, 41(7): 1255-1260.
[3] ZHANG L, ESTRIN D, BURKE J, et al. Named data networking (NDN) project NDN-0001[J]. Acm Sigcomm Computer Communication Review, 2010, 44(3): 66-73.
[4] TROSSEN D, PARISIS G, VISALA K, et al. Conceptual architecture: principles, patterns and subcomponents descriptions[R]. Technical Report, FP7-INFSO-ICT-257217_PURSUIT_D2.2, 2011.
[5] AHLGREN B, D’AMBROSIO M, DANNEWITZ C, et al. Second NetInf architecture description[R]. Technical Report, FP7-ICT- 2007-1-216041-4WARD / D-6.2, 2010.
[6] ROSSI D, ROSSINI G. On sizing CCN content stores by exploiting topological information[C]//Computer Communications Workshops (INFOCOM WKSHPS), IEEE Conference. Orlando, c2012: 280-285.
[7] LI Z, XIE G, WANG Y, et al. Optimal cache allocation for content-centric networking[C]//IEEE International Conference on Network Protocols (ICNP). Goettingen, c2013: 1-10.
[8] XU Y, LI Y, LIN T, et al. A novel cache size optimization scheme based on manifold learning in content centric networking[J]. Journal of Network & Computer Applications, 2014, 37(1): 273-281.
[9] LAOUTARIS N, SYNTILA S, STAVRAKAKIS I, Meta algorithms for hierarchical Web caches[C]// IEEE International Conference on Performance, Computing, and Communications. Phoenix, c2004: 445-452.
[10] WEI K C, HE D, PSARAS I, et al. Cache "less for more" in information-centric networks (extended version)[J]. Computer Communications, 2013, 36(7): 758-770.
[11] PAVLOU G, PSARAS I, WEI K C. Probabilistic in-network caching for information-centric networks[C]//The Second Edition of the ICN Workshop on Information-Centric Networking, ICN ’12. New York, c2012: 55-60.
[12] PSARAS I, WEI K C, PAVLOU G. In-network cache management and resource allocation for information-centric networks[J]. Parallel & Distributed Systems IEEE Transactions, 2014, 25(11): 2920-2931.
[13] ROSENSWEIG E J, KUROSE J. Breadcrumbs: efficient, best-effort content location in cache networks[C]// IEEE Conference on Computer Communications Workshops (INFOCOM WKSHPS). Rio de Janeiro, c2009: 2631-2635.
[14] ZHU Y, CHEN M, NAKAO A. CONIC: content-oriented network with indexed caching[C]// IEEE Conference on Computer Communications Workshops (INFOCOM WKSHPS). San Diego, c2010:1-6.
[15] SOURLAS V, GKATZIKIS L, FLEGKAS P, et al. Distributed cache management in information-centric networks[J]. IEEE Transactions on Network & Service Management, 2013, 10(3): 286-299.
[16] KIM Y, YEOM I. Performance analysis of in-network caching for content-centric networking[J]. Computer Networks, 2013, 57(13): 2465-2482.
[17] PENTIKOUSIS K, OHLMAN B, DAVIES E, et al. Information- centric networking: evaluation methodology[J/OL].http://www.ietf. org/ proceedings/90/slidcs/sildes-90-icnrg-8.pdf.
[18] EWMA[EB/OL]. http://www.itl.nist.gov/div898/handbook/pmc/secti on4/ pmc431.htm.
[19] ARLITT M, CHERKASOVA L, DILLEY J, et al. Evaluating content management techniques for web proxy caches[R]. Technical Report, HPL-98-173, 1999.
[20] NS-3[EB/OL]. https://www.nsnam.org/.
[21] ndnSIM documentation[EB/OL]. http://ndnsim.net/.
[22] SPRING N, MAHAJAN R, WETHERALL D. Measuring ISP topologies with rocketfuel[J]. Networking IEEE/ACM Transactions, 2002, 32(4):133-145.
Cache allocation policy of service contents along delivery paths for the smart collaborative network
FENG Bo-hao1, ZHOU Hua-chun1, ZHANG Hong-ke1, ZHANG Ming-chuan1,2
(1.Institute of Electronic and Information Engineering, Beijing Jiaotong University, Beijing 100044, China; 2. Information Engineering College, Henan University of Science and Technology, Luoyang 471023, China)
A cache allocation policy (CA) of service contents along delivery paths was proposed for the smart collaborative network. CA allocates on-path caches to service contents based on their popularity, expecting to fully and efficiently utilize the cache resource along the delivery path and further improving the network performance. The performance of proposed policy CA was evaluated under a 5-layer tree topology and a 279-node real network topology. The results show that CA outperforms others in terms of tested performance indexes. Compared with LCE(leave copy everywhere) used by named data networking (NDN), CA reduces the distance that users fetch service contents over 20%.
cache allocation policy, smart collaborative network, smart identifier network, information centric networking, future network architecture
TN915
A
10.11959/j.issn.1000-436x.2016060
2015-05-11;
2015-08-27基金項(xiàng)目:國(guó)家基礎(chǔ)研究發(fā)展計(jì)劃(“973”計(jì)劃)基金資助項(xiàng)目(No.2013CB329101);國(guó)家高技術(shù)研究發(fā)展計(jì)劃(“863”計(jì)劃)基金資助項(xiàng)目(No.2015AA015702);國(guó)家自然科學(xué)基金資助項(xiàng)目(No.61271202, No.U1404611)
The National Basic Research Program of China (973 Program) (No.2013CB329101), The National High Technology of China (863 Program) (No. 2015AA015702), The National Natural Science Foundation of China (No.61271202, No.U1404611)
馮博昊(1988-),男,北京人,北京交通大學(xué)博士生,主要研究方向?yàn)槲磥?lái)互聯(lián)網(wǎng)體系架構(gòu)、信息為中心網(wǎng)絡(luò)、網(wǎng)絡(luò)緩存、軟件定義網(wǎng)絡(luò)、時(shí)延容忍網(wǎng)絡(luò)等。
周華春(1965-),男,安徽貴池人,北京交通大學(xué)教授、博士生導(dǎo)師,主要研究方向?yàn)槲磥?lái)互聯(lián)網(wǎng)體系架構(gòu)、移動(dòng)互聯(lián)網(wǎng)、網(wǎng)絡(luò)安全、空間網(wǎng)絡(luò)等。
張宏科(1957-),男,山西大同人,北京交通大學(xué)教授、博士生導(dǎo)師,主要研究方向?yàn)橄乱淮ヂ?lián)網(wǎng)架構(gòu)、協(xié)議理論與技術(shù)、移動(dòng)互聯(lián)網(wǎng)絡(luò)路由、傳感器網(wǎng)絡(luò)技術(shù)等。
張明川(1977-),男,河南汝州人,河南科技大學(xué)副教授、碩士生導(dǎo)師,主要研究方向?yàn)橄乱淮ヂ?lián)網(wǎng)架構(gòu)、信息中心網(wǎng)絡(luò)、路由協(xié)議、物聯(lián)網(wǎng)技術(shù)等。