999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

分層存儲:一種經(jīng)濟的存儲方式

2012-08-29 01:33:04于耳
中國教育網(wǎng)絡(luò) 2012年11期

文/于耳

根據(jù)數(shù)據(jù)局部性原理,往往被頻繁訪問的數(shù)據(jù)是局部而有限的。為了應(yīng)對部分這樣的數(shù)據(jù)而全采用高速存儲實在是過于奢侈。如果我們針對這部分?jǐn)?shù)據(jù)另開小灶來解決不是更好?分層存儲在這里可以發(fā)揮很大作用。

分層存儲(Tiered Storage)稱為層級存儲管理(Hierarchical Storage Management),廣義上講,就是將數(shù)據(jù)存儲在不同層級的介質(zhì)中,并在不同的介質(zhì)之間進行自動或者手動的數(shù)據(jù)遷移,復(fù)制等操作。同時,分層存儲也是信息生命周期管理的一個具體應(yīng)用和實現(xiàn)。

傳統(tǒng)的存儲分層技術(shù)在磁盤介質(zhì)管理上基本沿襲了若干年前的“靜態(tài)”技術(shù),從而使得很多用戶在部署實施分層技術(shù)后發(fā)現(xiàn),整體IOPS性能依然與傳統(tǒng)架構(gòu)相當(dāng),即磁盤吞吐能力并未獲得大幅提升。鑒于此問題,本文結(jié)合目前最新發(fā)布的塊級并發(fā)架構(gòu)存儲分層技術(shù),通過對實驗測得數(shù)據(jù)分析,著重比較兩者在磁盤介質(zhì)管理上的不同以及后者的優(yōu)勢體現(xiàn)。

技術(shù)概要及分析

從計算機系統(tǒng)角度來說,最上層的存儲層應(yīng)該是CPU內(nèi)的各類型寄存器,其次是CPU內(nèi)的緩存,再其次是系統(tǒng)內(nèi)存。因為從分層存儲的定義上,此類型存儲器是符合定義規(guī)則的。因為這些存儲器速度與容量都有差別,越靠近CPU的存儲器成本越高,速度越快,容量越小,并且在CPU的控制下,數(shù)據(jù)在這些不同類型的存儲器中間進行自動的轉(zhuǎn)存。我們將此類型的分層存儲稱為易失性存儲分層,或者內(nèi)部存儲器分層存儲。

而另外一種分類,則是非易失性分層存儲,或者叫外部分層存儲。此類型的存儲介質(zhì)一般包括固態(tài)硬盤(SSD)、機械式硬盤、光盤、閃存盤(包括外置硬盤)、磁帶庫等等。而此類的存儲介質(zhì)分層正是我們所要關(guān)注的,在沒有特殊的說明情況下,在本文中所說的分層存儲都是指外部分層存儲。一般來說,作為第0層的存儲介質(zhì)通常為 RAM 磁盤(隨機訪問存儲磁盤,其速度與內(nèi)存同速,但是價格昂貴,使用環(huán)境基本上是特殊計算環(huán)境)以及 SSD,第1層可能有 FC類型的15K硬盤或者SAS類型的 15K硬盤,或者相應(yīng)的10K硬盤。第2層可能有SATA類型的7.2K硬盤或其他類型的低轉(zhuǎn)速磁盤。第3層,可能是如磁帶庫以及光盤庫這樣的離線介質(zhì)。當(dāng)然這樣的分層不是標(biāo)準(zhǔn),但在實際應(yīng)用中,是常用的分層策略。

傳統(tǒng)存儲分層技術(shù)實現(xiàn)原理

在計算機系統(tǒng)中,CPU 的運行速度往往要比內(nèi)存速度快上好幾百倍甚至更多,為了更多地獲取CPU的計算能力,就需要在訪問數(shù)據(jù)的速度上進行提升,否則內(nèi)存的速度將成為整個系統(tǒng)的性能短板。因此在這樣的思想下,CPU慢慢發(fā)展出來1級或者2級這樣的存儲緩存。實際也表明,緩存的存在確實對于系統(tǒng)性能的提升起到了巨大的推動作用。

相應(yīng)的,內(nèi)存的訪問速度又是硬盤訪問速度的幾百倍甚至更多,也是基于CPU類似的指導(dǎo)思想,我們能不能在存儲之間也進行這樣的分層(或者說緩存)以期提高系統(tǒng)的I/O性能,以滿足應(yīng)用對系統(tǒng)提出的更多高I/O的需求呢?

從某種意義上說,內(nèi)存其實也就是充當(dāng)了CPU與外部存儲之間的另一個級別的緩存。作為用戶來講,我們當(dāng)然希望所有需要用到的數(shù)據(jù)都最好是存在最高速的存儲當(dāng)中。但是這樣的理想,至少在當(dāng)前來說是不現(xiàn)實的。在技術(shù)上的難度不說,成本的壓力就會讓用戶止步不前,再一個就是有沒有必要的問題,因為有的數(shù)據(jù)根本都不需要一直存于這樣的存儲中。在計算機界中有一個很有名的理論,就是說,加上一個中間層,就可以解決計算機中許多的問題。而這個“中間層”也正是我們所尋求的,實際也證明這樣的中間層確實取得了非常好的效果。

據(jù)IDC數(shù)據(jù)預(yù)測,到2012年,信息數(shù)據(jù)的增長將會達(dá)到50%的復(fù)合年增長率,這個增長主要源于越來越來多數(shù)據(jù)內(nèi)容生成并存儲,經(jīng)濟全球化使商業(yè)各個部門及與商業(yè)伙伴之間需要保持連接,使得更多的數(shù)據(jù)被生成,復(fù)制及保存。法規(guī)遵從及管理,還有容災(zāi)與備份都使得數(shù)據(jù)的增長持續(xù)上升。我們需要根據(jù)不同的數(shù)據(jù)存儲需求,設(shè)計不同的存儲方案。在具備存儲分層功能的主存儲中,需要頻繁訪問的實時數(shù)據(jù),我們可以放在內(nèi)存或者SSD(固態(tài)硬盤)設(shè)備中,而對于海量、低訪問頻度的數(shù)據(jù)以及快照產(chǎn)生的源數(shù)據(jù)副本,我們可以使用大容量低成本的存儲來應(yīng)對(如圖1所示)。這樣的做法,目的是希望把資金投向更能產(chǎn)生效益的存儲上。

除了需要滿足不同的存儲需求,還有出于對高性能高吞吐量應(yīng)用的支持。因為有的應(yīng)用需要這樣的存儲系統(tǒng),特別是現(xiàn)在如火如荼的虛擬化技術(shù)。為了在一臺設(shè)備上支持更多的虛擬應(yīng)用,就需要系統(tǒng)支持更大的吞吐量以及更高的性能。全部采用高速介質(zhì)在成本上現(xiàn)在依然不是可行的,也不是必須的。因為我們把高頻率訪問的數(shù)據(jù)放在高速存儲介質(zhì)上,而其他的數(shù)據(jù)放在速度較慢一些的介質(zhì)上,這實際上就是提高了系統(tǒng)的吞吐量。

傳統(tǒng)存儲分層的技術(shù)瓶頸

傳統(tǒng)的存儲分層技術(shù)從存儲系統(tǒng)底層優(yōu)化了應(yīng)用數(shù)據(jù)的存放成本,使得更多需要高存取性能的數(shù)據(jù)能夠存放在讀寫性能最高的磁盤介質(zhì),海量的低訪問頻度數(shù)據(jù)存放在低成本大容量的低轉(zhuǎn)速磁盤。但是,傳統(tǒng)的存儲分層技術(shù)依然沿用了基于物理磁盤為最小管理顆粒的介質(zhì)管理機制(如圖2所示),要受到以下幾方面的約束。

1. 物理磁盤為最小管理單元,RAID組創(chuàng)建于一定數(shù)量的磁盤之上;RAID組中,磁盤數(shù)量有一定限制,最多可實施的RAID組為16塊磁盤。

圖2 傳統(tǒng)磁盤管理機制

表1 不同磁盤類型的理論IOPS值

2. 應(yīng)用數(shù)據(jù)卷(LUN)與RAID組形成映射關(guān)系,RAID組中磁盤的性能表現(xiàn)決定了該數(shù)據(jù)卷的數(shù)據(jù)存取性能。

3. 數(shù)據(jù)卷一旦創(chuàng)建,所有歸屬于該卷的數(shù)據(jù)RAID架構(gòu)即被固定,不能改變。

由此我們不難發(fā)現(xiàn),基于傳統(tǒng)的磁盤管理機制存在以下幾方面的性能瓶頸:

1. 應(yīng)用數(shù)據(jù)卷對應(yīng)于RAID組,而RAID組則又對應(yīng)于一定數(shù)量的物理磁盤。如果應(yīng)用數(shù)據(jù)卷所對應(yīng)的物理磁盤呈現(xiàn)繁忙狀態(tài),那么在一套存儲系統(tǒng)中即使有再多的空閑磁盤,也不能改善該應(yīng)用數(shù)據(jù)卷的存取性能。

2. RAID組的RAID類型在一旦創(chuàng)建后便不能改變,將嚴(yán)重影響數(shù)據(jù)寫入性能。

通常情況下,我們在部署存儲系統(tǒng)過程中,為了達(dá)到最高的磁盤空間利用率,通常會將每個RAID組創(chuàng)建為RAID5,如6個數(shù)據(jù)盤加一個校驗盤組成的RAID5(6+1)。但RAID5對于寫入操作的懲罰是眾所周知的,也就是說在一個6+1的RAID組中,對一個數(shù)據(jù)塊的寫入或更新將導(dǎo)致額外的5個讀操作,1個異或操作和另一個寫操作。

3. 我們知道,任何一套存儲系統(tǒng)中,存取速度最快的是存儲控制器的處理器緩存,其次是控制器緩存,而最容易成為存取性能瓶頸的,則是靠機械臂轉(zhuǎn)動實現(xiàn)數(shù)據(jù)存取的磁盤。傳統(tǒng)的存儲系統(tǒng)依然沿用磁盤這種粗顆粒度的管理機制,無法從根本上改善磁盤的性能表現(xiàn),而我們則急需一種更高效的存儲架構(gòu)來徹底解放數(shù)據(jù)卷與物理磁盤之間的一一對應(yīng)關(guān)系,希望借以更細(xì)化的介質(zhì)管理機制大幅提升存儲系統(tǒng)的性能。

傳統(tǒng)存儲分層技術(shù)與磁盤IOPS

傳統(tǒng)的存儲分層技術(shù)其磁盤介質(zhì)管理是靜態(tài)的方式,局限在于將單個物理磁盤作為管理的最小單元。不能從根本上消除RAID、Striping等各種數(shù)據(jù)管理操作局限于有限個磁盤體的瓶頸。在靜態(tài)介質(zhì)管理機制下,按照業(yè)界公認(rèn)的測試方法,各種類型的物理硬盤能處理的IOPS(每秒IO數(shù)量)是有限制的,見表1。

所以,在靜態(tài)磁盤介質(zhì)管理方式下,如果一個陣列有60塊15K rpm的SAS硬盤,那么,它能撐起的最大IOPS為60x180=10800,這個為硬件限制的理論值,如果超過這個值,硬盤的響應(yīng)可能會變得非常緩慢而不能正常提供業(yè)務(wù)。

考慮到RAID產(chǎn)生的額外開銷,我們假定一個場景,業(yè)務(wù)的IOPS需求是10000,讀Cache命中率是30%,讀IOPS為60%,寫IOPS為40%,磁盤個數(shù)為120,那么在RAID5的情況下,每個磁盤的IOPS為:單塊盤的IOPS=[10000×(1-0.3)×0.6+4×(10000x0.4)]/120=(4200+16000)/12=168,這里的10000×(1-0.3)×0.6表示是讀的IOPS,比例是0.6,除掉Cache命中,實際只有4200個IOPS落到磁盤體。而4×(10000×0.4)表示寫的IOPS,因為每一個寫,在RAID5中,實際發(fā)生了4個IO,所以寫的IOPS為16000個。計算出來單個盤的IOPS為168個,基本達(dá)到15k轉(zhuǎn)速SAS磁盤極限。

從上面的分析,我們可以看到這樣一個事實,靜態(tài)磁盤介質(zhì)管理方式究其本質(zhì),依舊是拘泥于物理磁盤的RAID保護機制。應(yīng)用數(shù)據(jù)在寫入磁盤介質(zhì)后,數(shù)據(jù)在后端物理磁盤的分布依然受限于RAID組所涉及的磁盤數(shù)量;對于任何一個應(yīng)用系統(tǒng),RAID組內(nèi)包含的磁盤數(shù)量決定了該應(yīng)用系統(tǒng)所能獲得的后端磁盤并發(fā)讀寫性能。由此我們可以看到,這種介質(zhì)管理機制極大地阻礙了存儲系統(tǒng)的整體并發(fā)性能。

為了最大化地獲得后端磁盤的所有并發(fā)讀寫能力,我們急需一種新的存儲介質(zhì)管理機制。借助這種新型的技術(shù),我們希望任何一個部署于存儲系統(tǒng)上的應(yīng)用能夠獲得后端磁盤所有的并發(fā)訪問性能,同時又具備跨介質(zhì)的分層功能從而實現(xiàn)更好的投資回報和用戶體驗,由此才有了塊級并發(fā)存儲分層技術(shù)。

塊級并發(fā)存儲分層技術(shù)及其優(yōu)勢

我們先來闡述塊級并發(fā)存儲分層技術(shù)概念、原理、特點,然后我們通過實驗室實驗采集的數(shù)據(jù)來分析并檢驗該技術(shù)是否具有明顯的優(yōu)勢。

塊級并發(fā)存儲分層技術(shù)概念及原理

是指在實現(xiàn)存儲分層的同時,為克服單個磁盤設(shè)備的物理限制,最大限度地提升存儲后端磁盤并發(fā)性能,同時不影響用戶的存儲架構(gòu)視圖及應(yīng)用部署方式。在塊級并發(fā)架構(gòu)里,磁盤介質(zhì)的管理不再是按照傳統(tǒng)的以物理磁盤為最小管理單元,我們將整個存儲系統(tǒng)中的所有磁盤空間統(tǒng)一規(guī)劃,按照一定的顆粒度(通常以KB為單位)來進行劃分,對于每一個顆粒度單元采用類似傳統(tǒng)磁盤管理的機制進行管理、RAID保護和資源調(diào)度。

表2 塊級并發(fā)架構(gòu)IOPS實測

圖3 塊級并發(fā)架構(gòu)示意

其原理是在塊級并發(fā)架構(gòu)里,我們將每塊物理磁盤空間以4~8K為單元進行劃分,劃分后的單元通過元數(shù)據(jù)管理算法實現(xiàn)RAID,鏡像等一系列數(shù)據(jù)管理策略。塊級并發(fā)架構(gòu)記錄并跟蹤關(guān)于每一個數(shù)據(jù)塊的特定信息,從而提供數(shù)據(jù)塊是如何被使用的等一系列系統(tǒng)管理信息。數(shù)據(jù)塊信息在無系統(tǒng)額外開銷的情況下被收集,包括寫入時間、所在的磁盤驅(qū)動器類型、數(shù)據(jù)存儲類型、RAID級別已及更多信息。所有這些元數(shù)據(jù)(或稱作“描述數(shù)據(jù)的數(shù)據(jù)”)確保了存儲可以提供更豐富和智能的存儲服務(wù)實現(xiàn)數(shù)據(jù)的存儲、恢復(fù)和管理。通過塊級并發(fā)數(shù)據(jù)管理,利用元數(shù)據(jù),動態(tài)數(shù)據(jù)塊架構(gòu)可在數(shù)據(jù)塊級別智能地優(yōu)化數(shù)據(jù)移動和訪問(如圖3所示)。

塊級并發(fā)架構(gòu)特點

1. 應(yīng)用數(shù)據(jù)卷脫離與RAID的映射關(guān)系,數(shù)據(jù)卷中的數(shù)據(jù)在存儲后端分布于所有物理磁盤,數(shù)據(jù)卷可以獲得存儲系統(tǒng)中所有物理磁盤的存取性能。

2. RAID保護以劃分后的磁盤塊單元為最小單位,RAID組脫離與物理磁盤的映射關(guān)系,RAID組由相應(yīng)的磁盤塊組成。

3. 磁盤塊單元由元數(shù)據(jù)表述,元數(shù)據(jù)管理基于非易失性緩存以獲得最佳性能。

4. 任何一個磁盤塊單元的RAID方式可按需要隨時改變,RAID方式的改變記錄于元數(shù)據(jù)。若當(dāng)前某磁盤數(shù)據(jù)塊為RAID5保護方式,應(yīng)用系統(tǒng)需要寫入或更新該數(shù)據(jù)塊時,存儲系統(tǒng)自動將該數(shù)據(jù)塊的RAID保護由RAID5 轉(zhuǎn)為RAID1以避免寫懲罰。反之,則自動由RAID1轉(zhuǎn)為RAID5以獲得更高的磁盤空間。

塊級并發(fā)存儲分層技術(shù)的優(yōu)勢

為了說明這個問題,我們建立了實驗環(huán)境,對塊級并發(fā)架構(gòu)下IOPS進行實測(見表2),將所測的數(shù)值(這里限于篇幅,省略了不同磁盤類型下的IOPS對應(yīng)La-tency測試數(shù)值表3),我們抽出其中60塊15K SAS磁盤下的IOPS和Latency的測試結(jié)果值來作圖(見圖3),得出的實測結(jié)果并分析如下:

在制定測試計劃中,考慮到磁盤陣列緩存帶來的正面影響,所以采用了Oracle數(shù)據(jù)庫的測試工具Orion產(chǎn)生大量的隨機并發(fā)IO,以確保每個IO均最終落到物理盤體。通過測得的數(shù)據(jù),計算出在塊級并發(fā)存儲分層環(huán)境下,單塊盤的IOPS值,IOPS = 19918/60≈332個。而傳統(tǒng)存儲分層技術(shù)下15k單塊磁盤理論值IOPS僅有180個(實際上前面計算出IOPS極限值最多有168個)。由此可見,[(332-180)/180]×100%≈84%,即在塊級并發(fā)存儲分層環(huán)境下單塊盤的IOPS的性能至少提升80%。

由以上測試可以看到,傳統(tǒng)的存儲分層技術(shù)解決了海量數(shù)據(jù)存儲系統(tǒng)中熱點數(shù)據(jù)在各種磁盤介質(zhì)間動態(tài)調(diào)度問題,從而提升了數(shù)據(jù)存儲效率,降低了采購成本。但從根本上,傳統(tǒng)的存儲分層技術(shù)依然沿用早前的介質(zhì)管理策略,使得后端磁盤性能不能獲得最大程度的并發(fā)。塊級并發(fā)存儲分層技術(shù)則不僅解決了存儲效率問題,同時在根本上消除了后端磁盤的靜態(tài)管理方式,大幅提升了存儲系統(tǒng)的整體性能。

圖4 60塊15K硬盤情況下的IOPS和Latency測試結(jié)果

趨勢與發(fā)展

塊級并發(fā)存儲分層技術(shù)是存儲技術(shù)發(fā)展的趨勢,諸多廠家在提供類似方案時,通常也會結(jié)合用戶的實際應(yīng)用和數(shù)據(jù)庫等環(huán)境特性作一定的客戶化集成。以下是筆者認(rèn)為在部署塊級并發(fā)存儲架構(gòu)項目中需要注意的要點,供參考。

數(shù)據(jù)一致性

如果不同的數(shù)據(jù)在不同的存儲層級之間存在,數(shù)據(jù)的改寫必然導(dǎo)致數(shù)據(jù)不一致的問題。在內(nèi)部分層存儲時,可以采用通寫策略或者回寫策略。而不同的方法也有各自優(yōu)缺點,這里就不再贅述。但是外部分層存儲與內(nèi)部分層存儲有一個最大的不同是,內(nèi)存儲最終數(shù)據(jù)需要寫到內(nèi)存中,而外分層存儲中,則不是必須的。當(dāng)然也可以設(shè)計成這樣的實現(xiàn)方案,但這樣的話,分層存儲的性能優(yōu)勢則必定會受到影響。數(shù)據(jù)在不同層級之間的連續(xù)性可以由一個虛擬層來保證。

命中率

如何設(shè)計一套算法或者實現(xiàn)策略來提高數(shù)據(jù)系統(tǒng)的命中率是分層存儲是否能起到其相應(yīng)作用的關(guān)鍵。這個與CPU的緩存機制完全一樣。不過,CPU的緩存機制已經(jīng)有一套非常成熟的算法設(shè)計。而外部分層存儲與內(nèi)部分層存儲有其不同的特性,因此,CPU中的緩存機制不能全部照拿過來用。特別是CPU的緩存機制還主要是硬件設(shè)計方面的問題。而外部存儲層可能還與一些邏輯設(shè)計相關(guān),比如文件系統(tǒng),文件等。從這點上說,外部分層存儲的軟件設(shè)計上比起CPU緩存的設(shè)計可能要更復(fù)雜。

分層介質(zhì)的選擇

上面也提過,不同層級之間的介質(zhì)應(yīng)該是有差別的,否則就失去了分層的意義。一般來說,高速介質(zhì)應(yīng)該是小容量、高成本,隨著層級的往下走,其成本容量曲線應(yīng)該呈現(xiàn)如下的形式:

圖5 存儲成本容量曲線圖

即容量越大的單位成本越低,速度越慢,因此應(yīng)該放到更低的層級中,反之亦然。因此,在存儲介質(zhì)的配置上如何找到一個合適的點,使得成本與效益最優(yōu)化則是在分層介質(zhì)選擇及策略制定上需要考慮的問題。

數(shù)據(jù)分層的級別

對于數(shù)據(jù)的描述有字節(jié)級、塊級(包括扇區(qū)及簇)、文件級及文件系統(tǒng)級。當(dāng)然不同的級別有不同的應(yīng)用場合,并不是哪種級別好于哪個級別。對于文件級的分層,對于歸檔,法規(guī)遵從則比較適合。對于文件系統(tǒng)級的則多用于容災(zāi)及備份系統(tǒng)中。對于塊級則可能用在虛擬化中較為合適。因此需要根據(jù)不同的需求制定不同的分層級別。

主站蜘蛛池模板: 亚洲国产91人成在线| 无遮挡一级毛片呦女视频| 91久久夜色精品国产网站| 国产成人禁片在线观看| 97视频精品全国在线观看| 久久国产亚洲欧美日韩精品| 国产成人亚洲毛片| 99热精品久久| 777国产精品永久免费观看| 久久黄色免费电影| 高清视频一区| 中文字幕日韩视频欧美一区| 欧美啪啪精品| 精品国产一区二区三区在线观看 | 在线观看亚洲国产| 久草国产在线观看| 欧美无专区| 91蜜芽尤物福利在线观看| 免费毛片a| 亚洲天堂网在线观看视频| 亚洲精品男人天堂| 欧美日韩精品一区二区视频| 成人精品午夜福利在线播放| 久久伊人久久亚洲综合| 国产精品免费p区| 亚洲 欧美 偷自乱 图片 | 亚洲国产欧美国产综合久久 | 色综合五月婷婷| 精品综合久久久久久97| 另类重口100页在线播放| 人人妻人人澡人人爽欧美一区| 久久亚洲国产视频| 精品人妻无码中字系列| 91久久青青草原精品国产| 亚洲视频一区在线| 亚洲香蕉在线| 精品久久蜜桃| 亚洲二三区| 久久不卡国产精品无码| 美女高潮全身流白浆福利区| 久久频这里精品99香蕉久网址| 国产香蕉一区二区在线网站| 欧美一级专区免费大片| 国产午夜看片| 国产人碰人摸人爱免费视频| 色噜噜狠狠狠综合曰曰曰| 精品福利视频导航| 国产性爱网站| 欧美综合激情| 国产男女免费视频| 999国内精品久久免费视频| 色婷婷亚洲十月十月色天| 国产丰满大乳无码免费播放| 欧美精品一二三区| 国产成人欧美| 国产欧美日韩精品综合在线| a毛片在线播放| 精品综合久久久久久97超人该 | 欧美A级V片在线观看| 亚洲欧美日韩色图| 国产成人精品一区二区秒拍1o| 一级全免费视频播放| 偷拍久久网| 国产精品美女免费视频大全| 99re免费视频| 精品欧美一区二区三区在线| 国产制服丝袜91在线| 久久综合伊人 六十路| 国产一级毛片在线| 日韩精品视频久久| 99久久无色码中文字幕| 操美女免费网站| 日本高清成本人视频一区| 日韩欧美中文字幕在线韩免费| 久久精品国产999大香线焦| 日本91视频| 在线一级毛片| 88av在线| 欧美啪啪视频免码| 欧美国产另类| 国产美女主播一级成人毛片| 国产草草影院18成年视频|