基金項目:國家自然科學基金資助項目(No.90604019、No.60502037、No.60603060); 國家重點基礎研究發展規劃項目(973計劃)(No.2003CB314806)
摘要:近年來各種P2P應用不斷出現及演進,P2P應用正逐漸成為下一代互聯網的殺手級應用。但同時P2P消耗了Internet的大部分帶寬,造成了網絡技術服務商(ISP)接入網絡的擁塞,從而使傳統Internet應用性能受到嚴重影響。從P2P流數量、服務器負載、網絡瓶頸點分布、往返時間(RTT)的異構特性等方面可以看出,P2P流量消耗了巨大的網絡帶寬,影響了傳統Internet業務的性能,增加了運營成本。利用P2P流量和Web流量的集成模型,可以量化分析P2P流對Web流的影響,使網絡運營商可以在網絡瓶頸點對P2P連接數進行優化和調整,從而有效地控制P2P流量。NS2仿真結果較好地驗證了該模型的有效性。
關鍵詞:P2P; Web業務; P2P文件共享業務,P2P流媒體業務。
Abstract: Along with the appearance and evolvement of P2P applications, they also gradually become the most important applications of next generation Internet. However, P2P traffic consumes most of Internet bandwidth and causes congestions that Internet service providers (ISPs) have difficulty accessing the network; thus, severely affecting the performance of traditional Internet applications. From the aspects of traffic flow, server load, network bottleneck, peer distribution, and Round Trip Time (RTT) heterogeneous distribution, P2P traffics expend a lot of network bandwidth, affect the performance of traditional Internet services, and increase operational costs. With an integrated model of P2P traffic and Internet traditional traffic (Web traffic), the impact of P2P traffic on Web traffic is quantitatively analyzed; also, network operators can optimize and adjust the P2P traffic at the bottleneck peer. The simulation results by NS2 demonstrate that the integrated model is very accurate and efficient.
Key words: P2P; Web service; P2P file-sharing; P2P streaming media service
P2P技術和應用是目前Internet的一個研究熱點。P2P應用正逐漸成為下一代互聯網的殺手級應用,P2P流量已經逐步取代了HTTP流量成為Internet流量的主體,占Internet中總流量的60%~70%,占最后一公里接入網流量的80%[1]。
與傳統的基于客戶端/服務器(C/S)、瀏覽器/服務器(B/S)架構的Internet應用(簡稱傳統Internet業務)相比較,P2P業務挖掘了PC終端的空閑的強大計算能力,采用了應用層的拓撲管理、快速的節點查找服務、多點同時下載和上傳的快速傳輸機制,能夠為客戶提供更便捷、更快速的服務。其提供的分布式網絡結構能有效均衡負載,充分利用帶寬,實現信息資源的最大化共享,但同時大大增加了網絡流量,搶占瓶頸鏈路的大部分帶寬,從而導致網絡技術服務商(ISP)網絡(尤其是接入網)性能下降,發生擁塞。P2P業務給Internet寬帶時代帶來了生機和希望,使ISP看到了新的業務增長點,但同時使得網絡運營商對網絡應用的掌控能力進一步下降。
針對蓬勃發展的P2P業務帶來的一系列問題,需要透徹地了解P2P技術的特點,深入理解P2P流量具有網絡資源侵略性的根本所在。從網絡角度看,基于P2P技術的多連接特性,通過量化和分析P2P業務對傳統的Internet業務的影響,ISP能夠在網絡瓶頸點對P2P連接數進行調整和優化,從而有效地實現P2P流量控制;從P2P用戶角度出發,可以根據網絡當前狀況主動實現P2P流量的擁塞控制,從而使得P2P業務與Internet網絡、ISP以及傳統的Internet業務友好相容。
1 P2P業務流量特性分析
1.1 P2P業務流量特性
P2P技術采用分布式對等網絡體系,通過在各個節點之間建立多個TCP連接來實現分布式的數據傳輸,提高了吞吐量和網絡利用率,優化了業務流量性能,實現了流量的分布化。本文分別從P2P流數量、服務器負載、網絡瓶頸點分布、往返時間(RTT)的異構分布等方面分析了P2P業務流量特性。
(1) 從流量數來看
P2P業務為了提高數據獲取速率,通常并發啟用多個TCP連接同時從多個P2P節點進行雙向數據傳輸。當P2P應用和傳統基于單TCP應用(大部分基于C/S、B/S架構的應用)競爭時,P2P應用將占據絕對優勢。因此當P2P應用建立的TCP連接愈多,其占用的網絡資源也愈多。當網絡瓶頸點發生擁塞時,由于TCP擁塞控制機制使得各TCP流之間能夠較為公平的共享瓶頸帶寬,但采用多個TCP連接的P2P流量會使采用單個TCP連接的傳統的Internet應用退避更多,從而相對單個TCP連接得到的吞吐量高得多,使其具有非常強大的帶寬資源侵略性。
(2) 從服務器負載來看
在P2P網絡中,各P2P節點之間直接進行數據和服務交換,從而打破了傳統的C/S模式,弱化了服務器的作用,甚至取消服務器。在P2P網絡中,每個節點的地位是對等的,具備客戶端和服務器雙重特性,可以同時作為服務使用者和服務提供者。使得數據存儲模式由“內容位于中心”模式轉變為“內容位于邊緣”模式,改變Internet現在的以大網站為中心的資源集中狀態,重返“非中心化”,使信息數量、成本資源都向互聯網各端點均勻分布。消除了C/S模式的網絡中因負載繁重的服務器引起的服務瓶頸問題。
(3) 從網絡瓶頸點分布來看
在傳統的C/S架構中,客戶端和服務器之間僅存在一條路徑,因此具有共同的網絡瓶頸點。對于多連接C/S應用,這些連接將在共有的網絡瓶頸點相互影響,相互干擾,其總吞吐量受到網絡瓶頸點剩余帶寬的限制。瓶頸路由器會將這些同源同目的的流作為同質的流聚合為一條流進行轉發,因此其吞吐量受到嚴重限制。
P2P用戶同時和多個節點進行數據交換和傳輸,每個節點之間存在不同的路徑,因此網絡瓶頸點的單一性轉變為分布性,消除了P2P流之間的相互干擾,提高了P2P流的總吞吐量,從而能夠更好地利用網絡資源,提高網絡利用率。
(4) 從RTT的異構分布來看
TCP機制對于不同RTT流存在不公平性,RTT較小的連接將得到更高的吞吐量。在傳統的C/S架構中,客戶端和服務器之間僅存在一條路徑,即使有多個連接,其傳播時延也是確定的,當網絡擁塞時,流將在網絡瓶頸點排隊,導致RTT增大,從而降低了流的吞吐量。而P2P用戶和節點之間存在多條路徑,每條路徑存在不同的傳播時延。RTT小的流會盡其最大能力傳輸數據,從而提高P2P流的總吞吐量。如果某個網絡瓶頸點發生擁塞,導致RTT增大,P2P用戶可以去選擇從性能更好的節點取得數據。因此P2P機制將具有更大的靈活性和高效性。
1.2 P2P文件共享業務和P2P流媒體
業務比較分析
P2P文件共享業務通常并發啟用多個TCP連接同時從多個P2P節點進行雙向數據傳輸。目前P2P文件共享業務數據主要包括大的數據文件、影音文件等,P2P用戶并不在意業務的實時性、時效性以及最低可接受帶寬,通常幾小時、幾天甚至幾周長時間地任其傳輸。
在基于P2P結構的視頻組播系統中,只有少數節點從服務器直接獲取數據,更多的節點一方面從其它節點處獲得數據,一方面也向其它節點提供數據。整個系統的體系結構為樹狀結構或者網狀結構。這種以對等方式構建的視頻組播系統充分利用了系統中節點的能力、節點之間的可用帶寬,在接受服務的同時向其他節點提供服務,從而使系統的可擴展性大為提高。基于結構的P2P流媒體系統,其視頻服務器和應用層組播節點有策略地放置于Internet網絡中,例如組播樹流媒體系統[2]。這種集中式的算法非常有效,但對于功能強大的根節點的具有強依賴性,樹結構中節點的離開或崩潰,將嚴重影響后代節點[3]。數據驅動的P2P流媒體系統[3-4]一般采用Gossip機制進行節點管理和頻道發現等。一般采用TCP協議作為P2P流媒體傳輸。Coolstreaming[3]和PPlive[4]是基于數據塊(Chunk)的P2P流媒體系統中的典型范例,均采用TCP協議作為P2P流媒體傳輸。P2P流媒體用戶與各個節點建立多個TCP連接,優先獲取當前需要播放的視頻文件Chunk,以保證視頻回放的連續性和實時性。很多研究[5-7]通過修改和完善BitTorrent協議來使其支持流媒體傳輸,修改了BitTorrent協議中的Rarest-first下載策略,采用優先下載最近要回放的Piece;或修改Tit-for-tat的鄰居選擇策略,采用鄰居的隨機選擇機制,在數據傳輸過程中才啟用Tit-for-tat策略來防止搭便車行為。
P2P文件共享系統和P2P流媒體系統在數據傳輸過程中呈現出許多不同的特性:
P2P文件共享業務具有強大的網絡資源侵略性,盡其所能的占用網絡帶寬資源。P2P流媒體系統更關注于速率的平滑性,需要一個最小帶寬保證。
P2P文件共享業務對實時性、時效性以及最小帶寬要求不敏感,可以將文件持續傳輸幾小時、幾天甚至幾周。而P2P流媒體業務則是在用戶有觀看需求時才進行業務傳輸,視頻回放對每一個Chunk有時限要求,數據傳輸具有實時性要求。
如果將下載一個文件或收看一個頻道作為一個任務,P2P文件共享業務一般會同時執行多個任務,且多個任務并發傳輸時間長。P2P流媒體用戶一般僅收看一個頻道,即執行一個任務。
相對于P2P文件共享業務,P2P流媒體用戶在線耐心度低,具有更高的用戶擾動率[8]。
P2P文件共享業務和P2P流媒體業務存在很大的差異。終端系統在動態特性以及有限的帶寬資源,均影響了系統的健壯性和有效傳輸。針對P2P流媒體業務特性,深入研究P2P流媒體業務行為模式,提出保證P2P流媒體業務QoS的傳輸機制以及P2P流媒體系統架構,從而保證業務的實時性、最小帶寬以及業務質量,提供高性能高QoS的流媒體業務。
2 P2P流量對Web業務流量
的影響分析
2.1 P2P流量對Internet的影響
相對于傳統的Internet網絡,P2P業務是通過在各個節點之間建立多個TCP連接來實現分布式的數據傳輸,提高了吞吐量和網絡利用率,優化了業務流量性能,實現了流量的分布化。從原來C/S架構造成的負載繁重的服務器中解脫出來,通過訪問與其之間網絡性能更好的節點來實現相應業務,消除了因服務器性能問題而產生的服務瓶頸。
由于電信運營商是根據傳統的C/S架構制定建網原則:骨干網絡采用高帶寬,接入網絡采用低帶寬,如圖1所示。而P2P技術的傳輸特性及其帶寬侵略性根本性地改變了網絡中的流量大小及流量分布,導致接入網絡或部分骨干網絡產生了嚴重擁塞,甚至于崩潰,因此原有的網絡架構已不再適應現有Internet流量結構。
相對于傳統的Internet應用,P2P業務為了提高數據獲取速率,通常并發啟用多個TCP連接同時從多個P2P節點進行雙向數據傳輸。當P2P應用和傳統基于單TCP應用(大部分基于C/S、B/S架構的應用)競爭時,P2P應用將占據絕對優勢。因為在互聯網的盡力而為機制下,各個流獲得的吞吐量近似與發送速率成正比,因此一個應用建立的TCP連接愈多,這個應用占用的網絡資源也愈多,從而使得基于單TCP應用的性能將嚴重惡化。
相對于ISP和非P2P用戶,P2P流量消耗了巨大的網絡帶寬,使網絡擁塞,增加了運營成本,網絡基礎設施不堪重負。P2P流量影響了傳統Internet業務的性能。從而對于使用傳統Internet業務的非P2P用戶,其所能享用的服務性能嚴重下降,甚至于服務不可用,導致用戶投訴和退網,使得ISP維護成本增大甚至于流失大量客戶。P2P流量增加了網絡運營成本,引起了非P2P用戶的不滿,且仍未給ISP帶來新的利潤,其已成為ISP最頭疼的難題之一。
2.2 P2P流和Web流的集成模型
各大電信運營商為了緩和P2P流量對網絡的影響,從網絡的角度出發,通過P2P業務識別和控制手段來實現對P2P流量的封殺和限速。采用的主要P2P控制手段是通過各種方式如隨機丟包或拆TCP連接等,采用不同的策略如總速率限制或上行控制等,在網絡測量點對P2P流量限速。只有深入理解P2P技術具有帶寬侵略性的根本原因,了解P2P流量對傳統Internet流量的影響以及基于TCP機制的P2P流和傳統Internet流之間的業務比例關系,才能更有效地增強P2P流量的友好性和可控性,使其更好地融合到傳統的Internet網絡中來。
根據P2P技術的特性,本文提出一種P2P流量和Web業務流量的混合傳輸性能模型,量化分析P2P流對Web流的影響。量化的結果將為網絡運營商進行P2P流量控制、優化網絡瓶頸點P2P連接數提供依據,為P2P應用軟件調整其與各節點之間的連接數提供參考,以優化和控制P2P流量并使其更好地融合到Internet網絡和傳統的Internet應用中,最終使電信運營商、內容提供商以及Internet用戶利益最大化,實現三方共贏的局面。
2.2.1 P2P流量模型和Web流量模型
TCP流的吞吐量模型[9]是作為丟包率和RTT函數的TCP穩態吞吐量模型,可以較精確地預測TCP流穩態情況下的吞吐量,此公式考慮了3次重復的ACK和重傳超時(TO)兩種丟包原因。其公式為:
p為瓶頸鏈路上的丟包率;RTTP 2P 為P2P流的往返時間;T0為初始超時值;b為接收到一次應答所確認的分組數。
Web流數據傳輸的總延遲Latency(即Web傳輸時間)包括連接建立時間Ttwks、慢啟動時間Tss、出現分組丟包Tloss和剩余數據傳輸時間Trest。根據文獻[10-11]中的Short-lived TCP模型,可得Short-lived TCP各階段所需的時間。根據文獻[10],可得:
其中g,C 1,E [dss],Q ss,ZTO以及E [nt]的計算公式請參考文獻[10-11]。
綜合公式(2)(3)(4)(5)以及因分組丟包而使ACK延遲的時間Tdelay (BSD環境為100 ms,Windows環境為150 ms),可得Web流的總的傳輸時間TLatency:
由此可得:
2.2.2 P2P流和Web流的集成模型
將這兩種數學模型和在瓶頸路由器隨機早期丟棄算法(RED)上的排隊模型結合起來,可以得到n個P2P流和m 個Web流的集成模型。本文的網絡環境是擁塞的瓶頸鏈路,因此從穩態角度來看網絡的瓶頸路由器總是處于繁忙狀態,即n個P2P流和m個Web流的吞吐量之和等于瓶頸點的容量u。
u≈n×B (p )P 2P +m×B (p )Web (8)
TCP的平均往返時間等于路徑的傳播時間與在瓶頸路由器的排隊時間之和。僅考慮在瓶頸路由器中流的轉發策略是一樣的情況,即P2P流和Web流的排隊等待時間是一致的,均為Twait。設兩個流的路徑傳播時間分別為τP 2P 和τWeb 。可得二者的平均往返時間:
RTTP 2P =τP 2P +Twait ;
RTTWeb =τWeb +Twait (9)
本文在瓶頸路由器上采用RED算法[12]。根據RED的基本思想,可得:
其中B為路由器的緩存大小,而qmin、qmax以及Pmax為RED的控制參數。
至此,結合公式(1) (6) (7)(8) (11)可以得到B( p )P 2P、( p )Web、Tlatency、RTTP 2P和RTTWeb。
2.3 模型分析及仿真驗證
為了驗證所得到的集成模型的有效性,本文用Matlab對集成模型作了數學計算,用NS2實現相應的仿真,并對兩個結果作了比較和分析。
仿真主要考慮了瓶頸帶寬分別為1 Mb/s、10 Mb/s和100 Mb/s的用戶接入網絡環境,且僅存在一個瓶頸點。圖2為仿真的拓撲圖,左邊為用戶接入網,L為瓶頸鏈路。Web業務是由接入網內的客戶端向Web服務器 Web Server 2i和Web Server3i發起的;根據圖2中所示,P2P業務為接入網內Host和Peer 2i或Peer 3i之間實現的大量雙向數據傳輸的文件傳輸協議(FTP)業務。本文考慮的是同一國家范圍內兩節點之間的路徑,根據光的傳播速度和兩節點的平均距離,設置τP2P和τWeb均為20 ms,平均分組大小為500 bytes;采用了延遲確認機制,即TCP接收端每收到兩個數據包發送一個ACK確認包;RED網關的控制參數的設置參考了文獻[13]。
整個仿真過程中始終存在n個連接的P2P業務,在某一時刻觸發m個Web業務,待d=10 Kbytes大小的Web頁傳送完畢后,記錄下開始和結束的時間差作為Web傳輸時間,并與Matlab計算所得結果作比較和分析。在第一組仿真實驗中,本文按照n個P2P流和1個Web流的比例,將最終結果和Matlab結果進行比較以驗證集成模型的有效性,并根據得到的結果確定P2P連接數的上限值;將第二組實驗分為3部分:第一部分是當瓶頸帶寬為1 Mb/s,P2P和Web總連接數為50的仿真環境;第二部分是當瓶頸帶寬為10 Mb/s,總連接數為600的仿真環境;第三部分為100 Mb/s瓶頸帶寬,總連接數為5 000的仿真環境。從這組實驗中可以看到隨著P2P流量比例的增大,Web性能隨之惡化;在第三組實驗中設定了幾種P2P和Web比例n :m,隨著連接總數變化時,比較這幾種比例情況下的Web傳輸時間,可以看到P2P業務的比例越大,對Web流量的影響越大。
2.3.1 確定P2P流的最大連接數
通過這組仿真分析了n個P2P流和1個Web流共存時,P2P流對Web流傳輸時間的影響。分別考慮了瓶頸帶寬為1 Mb/s、10 Mb/s和100 Mb/s的情況。3種情況下Web連接數均為m =1,在1 Mb/s瓶頸帶寬的仿真和Matlab計算中,P2P連接數n在(0,90)范圍內變化;在10 Mb/s瓶頸帶寬的仿真環境中,n在(300,650)內變化;在100 Mb/s瓶頸帶寬的仿真環境中,n則在
(2 500,8 000)范圍內變化。所得結果分別見圖3、圖4和圖5。
從仿真結果中可以看出,仿真和Matlab計算的集成模型的Web傳輸時間曲線是基本吻合。如果假設Web傳輸時間的性能較好的閾值為5 s,可得在瓶頸帶寬為1 Mb/s時,P2P的最大連接數為22個;在瓶頸帶寬為10 Mb/s時,P2P的最大連接數為530個;而在瓶頸帶寬為100 Mb/s時,P2P的最大連接數為4 300個。當然這個閾值會隨著網絡中某個參數的變化而產生相應的變化。如果將Web性能分為不同的等級,根據上述方法和過程,計算可得相應的P2P連接上限值,如表1。
如果在網絡瓶頸點存在m個Web流時,為保證這m個Web流的某個性能級別,可確定出P2P流的最大連接數。根據該值來限制和調整網絡瓶頸點的P2P連接數,可以緩解P2P流量對其他Internet業務的影響。
2.3.2 Web性能與P2P流和Web流連接
數比例的關系
本節分析了u =1 Mb/s、10 Mb/s以及100 Mb/s時,P2P流和Web流的總連接數分別為50、600和5 000個的3種網絡環境(在這一數量級上,Web傳輸時間均在5 s左右)。在總的連接數不變,不斷改變P2P流和Web流的連接數比例情況下,進行了NS2仿真和集Matlab計算。
如圖 6、圖7和圖8,在u =1 Mb/s, 10 Mb/s, 100 Mb/s時,總連接數不變,P2P流的連接數不斷增大時,Web業務的總傳輸時間不斷增大,即Web性能不斷降低。從計算和仿真結果來看,如果要保證Web傳輸時間小于5 s,u 分別為1 Mb/s、 10 Mb/s、100 Mb/s時P2P和Web的連接數比例分別不能大于17:33、225:375和3 000:2 000。從圖中可看出仿真結果和集成模型的計算結果基本吻合的。當網絡瓶頸點中連接數相對穩定,即總連接數變化不大的情況下,網絡運營商可以根據此量化值來調整P2P流量的連接數,從而優化兩種流的業務比例關系,改善P2P業務對Web業務的影響。
3 結束語
本文將P2P文件傳輸流量簡化為具有大量連接數、采用雙向數據傳輸以及進行大數據塊傳輸的TCP流,并提出了一種新的P2P流和Web流的集成模型,來量化和分析P2P業務對Internet傳統業務(Web業務)的影響。在仿真實驗和分析中,驗證了集成模型的有效性,并詳細描述了集成模型所能解決的問題。通過集成模型,可以得到的量化值包括以下幾個方面:當網絡瓶頸點存在m 個Web流量時,在保證Web流的某個性能等級的前提下,可得與m 個Web流共存的P2P流的最大連接數。根據集成模型計算的這一理論值來調整和優化網絡瓶頸點的P2P連接數,緩解P2P流對Internet網絡和其他Internet業務的影響;在網絡瓶頸點總連接數相對穩定的情況下,網絡運營商可以根據集成模型量化的P2P流和Web流的連接數比例值,來優化兩種流的業務比例關系,從而達到優化流量分布的目的。
綜上所述,網絡運營商在識別出P2P業務后,可以根據實際的網絡運行環境以及本文提出的集成模型,量化分析P2P流量對Internet傳統業務的影響,在網絡瓶頸點進行P2P連接數的調整和優化,從而緩解網絡瓶頸點的擁塞狀況以及減少對其他Internet業務的影響。同時可為P2P應用軟件調整與其節點之間的連接數提供依據,為網絡運營商進行P2P流量控制提供參考,以優化和控制P2P流量并使其更好地融合到Internet網絡和傳統的Internet應用中,最終使電信運營商,內容提供商以及Internet用戶利益最大化,實現三方共贏的局面。
4 參考文獻
[1] [Cache Logic Research. The true pictures of P2P file sharing [EB/OL].http://cachelogic.com/research/slide1.php, 2004.
[2] CHU Y, RAO S G, ZHANG H. A case for end system multicast[C]// Proceedings of the 2000 ACM SIGMETRICS International Conference on Measurement and modeling of Computer Systems (SIGMETRICS 2000), Jun 18-21, 2000, Santa Clara, CA,USA. New York, NY, USA: ACM Press. 2000: 1—12.
[3] ZHANG X, LIU J, LI B, et al. DONet/CoolStreaming: A data-driven overlay network for peer-to-peer live media streaming[C]// Proceedings of 24th Annual Joint Conference of the IEEE Computer and Communications Societies(INFOCOM 2005): Vol 3, Mar 13-17, 2005, Miami, FL, USA. Piscataway, NJ, USA: IEEE, 2005: 2102—2111.
[4] PPLive [EB/OL]. http://www.pplive.com.
[5] Vlavianos a, Iliofotou m, Faloutsos m. BiToS: Enhancing BitTorrent for Supporting Streaming Applications[C]// Proceedings of 25th Annual Joint Conference of the IEEE Computer and Communications Societies (INFOCOM 2006), Apr 23-29, 2006, Barcelona, Spain. Piscataway, NJ, USA: IEEE, 2006: 1-6.
[6] Carlsson N, Eager d l. Peer-assisted on-demand streaming of stored media using BitTorrent-like protocols[C]// Proceedings of IFIP/TC6 Networking ,May 14-18,2007,Atlanta, GA, USA. 2007:570-581.
[7] Shah p, P?ris j f. Peer-to-peer multimedia streaming using BitTorrent[C]// Proceedings of Performance, Computing, and Communications Conference (IPCCC 2007), Apr 11-13, 2007, New Orleans, LA, USA. Piscataway, NJ, USA: IEEE, 2007: 340-347.
[8] HEI X, LIANG C, LIANG J,et al. Insights into PPLive: A measurement study of a large-scale P2P IPTV system[C]// Proceedings of Workshop on Internet Protocol TV (IPTV) Services over World Wide Web in Conjunction (WWW2006), May 22-26, 2006,Edinburgh, UK.2006.
[9] Padhye J, Firoiu V, Towsley D F, et al. Modeling TCP throughput: A simple model and its empirical validation[C]// Proceedings of Symposium on Communication Architectures and Protocols (SIGCOMM’88), Aug 16-18, 1988, Stanford, CA, USA. New York, NY, USA:ACM Press, 1988: 303-314.
[10] Savage n s, Anderson t. Modeling TCP latency[C]// Proceedings of the Conference on Computer Communications (IEEE Infocom): Vol 3, Mar 26-30, 2000, Tel Aviv, Israel. Piscataway, NJ, USA: IEEE, 2000: 1742-1751.
[11] Zheng d, Lazarou g y, Hu r. A stochastic model for short-lived TCP flows[C]//Proceedings of IEEE International Conference on Communications (ICC’03): Vol 1, May 11-15, 2003, Anchorage, AK, USA, Piscataway, NJ, USA: IEEE, 2003: 76- 81.
[12] Floyd s, Jacobson v. Random early detection gateways for congestion avoidance[J]. IEEE/ACM Transactions on Networking, 1993, 1(4): 397-413.
[13] Floyd S. RED: Discussions of setting parameters [EB/OL]. http://www.icir.org/floyd/RED/ parameters.txt, 1997.
收稿日期:2007-09-23
劉雅寧,北京郵電大學在讀博士研究生,主要研究方向為IP網絡測量及P2P計算。
王洪波,博士,北京郵電大學計算機科學與技術學院講師。主要研究領域為互聯網網絡測量、網絡管理與安全,P2P技術等。
程時端,北京郵電大學教授,博士生導師。長期從事通信網與計算機網絡的研究開發,1992—1999擔任國家“863”通信主題網絡與交換專業專家組組長,北京郵電大學網絡與交換技術國家重點實驗室主任。現擔任北京通信學會理事、中國通信標準化協會專家咨詢委員會委員。目前的研究方向是互聯網的服務質量控制與測量技術、P2P技術。