孔春偉 柳秀秀



摘 ? 要:災(zāi)備系統(tǒng)是保障業(yè)務(wù)連續(xù)性和防御系統(tǒng)風(fēng)險(xiǎn)的關(guān)鍵環(huán)節(jié),確保關(guān)鍵業(yè)務(wù)數(shù)據(jù)安全并及時(shí)恢復(fù)故障系統(tǒng)是信息安全領(lǐng)域的研究熱點(diǎn)。文章針對(duì)中國人民銀行西寧中心支行(簡稱西寧人行)信息化建設(shè)過程中數(shù)據(jù)安全問題日益突出的現(xiàn)狀,分析了西寧人行建設(shè)災(zāi)備系統(tǒng)的必要性,根據(jù)西寧人行數(shù)據(jù)中心特點(diǎn),設(shè)計(jì)了詳細(xì)可行的災(zāi)備方案,建成了基于SAN存儲(chǔ)和EMC Vplex Metro存儲(chǔ)虛擬化技術(shù)的存儲(chǔ)雙活系統(tǒng)。經(jīng)過實(shí)施部署和應(yīng)用測試,西寧人行存儲(chǔ)雙活系統(tǒng)具有較高的可用性,可以有效地保障重要業(yè)務(wù)系統(tǒng)可靠性和數(shù)據(jù)安全性。
關(guān)鍵詞:災(zāi)備;數(shù)據(jù)中心;存儲(chǔ)雙活;可用性;可靠性
中圖分類號(hào):TP309.3 ? ? ? ? ?文獻(xiàn)標(biāo)識(shí)碼:B
Abstract: Disaster preparedness is a key link in guaranteeing business continuity and defending system risks. Ensuring the security of key business data and timely recovering the failure system are the research hotspots in the field of financial information. In view of the increasingly prominent data security problems during the information construction of Xining Sub-branch, the necessity of constructing disaster preparedness system is analyzed, then based on the characteristics of Xining Sub-branch, a detailed and feasible disaster preparedness solution is designed, and a dual-live storage system is implemented with SAN storage and EMC Vplex Metro storage virtualization technology. The test experiment is carried out and the result of test showed that dual-live storage system possesses high available, the reliability and data security of important business systems are effectively guaranteed.
Key words: disaster preparedness; data center; dual-live storage; available; reliability
1 引言
隨著金融科技的快速發(fā)展,數(shù)據(jù)安全問題日益突出,國家對(duì)金融信息系統(tǒng)數(shù)據(jù)的可靠性、安全性要求越來越高。2002年8月,中國人民銀行下發(fā)了《關(guān)于加強(qiáng)銀行數(shù)據(jù)集中安全工作的指導(dǎo)意見》,要求為了保障銀行業(yè)務(wù)連續(xù)性,確保系統(tǒng)穩(wěn)健運(yùn)行,銀行在實(shí)施數(shù)據(jù)集中時(shí)必須建立對(duì)應(yīng)的災(zāi)備中心,銀行的業(yè)務(wù)連續(xù)性計(jì)劃需在中國人民銀行備案。2005年4月,國信辦制定并發(fā)布了《重要信息系統(tǒng)災(zāi)難恢復(fù)指南》,強(qiáng)調(diào)重要信息系統(tǒng)要具備抗毀和災(zāi)備能力[1]。2007年7月,信安標(biāo)委發(fā)布了災(zāi)備與恢復(fù)領(lǐng)域第一個(gè)國家標(biāo)準(zhǔn)《信息系統(tǒng)災(zāi)難恢復(fù)規(guī)范》(GB/T 20988-2007),該標(biāo)準(zhǔn)明確了信息系統(tǒng)進(jìn)行災(zāi)備建設(shè)的目標(biāo)和內(nèi)容。2016年11月,全國人大常委會(huì)發(fā)布了《中華人民共和國網(wǎng)絡(luò)安全法》(簡稱《網(wǎng)絡(luò)安全法》),《網(wǎng)絡(luò)安全法》從法律角度規(guī)定了關(guān)鍵信息基礎(chǔ)設(shè)施的運(yùn)營者,必須履行重要信息系統(tǒng)和數(shù)據(jù)的災(zāi)備義務(wù)[2]。2019年5月,《信息安全技術(shù) 網(wǎng)絡(luò)安全等級(jí)保護(hù)基本要求》(GB/T 22239-2019)也要求重要信息系統(tǒng)須通過備份方式保證數(shù)據(jù)的完整性和安全性。一系列的國家舉措表明開展災(zāi)備建設(shè)具有重要意義。
實(shí)際上,數(shù)據(jù)中心的傳統(tǒng)災(zāi)備方式是本地備份和異地備份,兩種備份方式優(yōu)缺點(diǎn)各不相同。本地備份方式恢復(fù)速度較快,但難以抵御火災(zāi)、停電、地震等災(zāi)難。異地備份方式可以抵御上述災(zāi)難,但存在數(shù)據(jù)恢復(fù)速度較慢,災(zāi)備資源長期閑置問題[3]。以上兩種方式,已不能滿足數(shù)據(jù)中心信息系統(tǒng)對(duì)數(shù)據(jù)可靠性、安全性的要求,因此引入新的災(zāi)備技術(shù)已迫在眉睫。
2 ?研究現(xiàn)狀分析
災(zāi)備技術(shù)起源于20世紀(jì)70年代美國,在銀行、保險(xiǎn)、證券等行業(yè)對(duì)災(zāi)備技術(shù)的促進(jìn)下,《國際災(zāi)難備份標(biāo)準(zhǔn)Share 78》《業(yè)務(wù)持續(xù)性規(guī)劃者實(shí)踐指南》[4]成為主要的災(zāi)備技術(shù)規(guī)范。國外數(shù)據(jù)中心災(zāi)備大多采用兩地三中心模式,在德意志銀行的兩地三中心災(zāi)備架構(gòu)中,生產(chǎn)中心和同城災(zāi)備中心自行建設(shè)運(yùn)維,異地災(zāi)備中心外包模式運(yùn)維[5]。
中國在20世紀(jì)90年代開始關(guān)注災(zāi)備技術(shù),采用的災(zāi)備系統(tǒng)主要來于國外廠商,部分已正式運(yùn)行的災(zāi)備設(shè)備存在著投入成本高、恢復(fù)驗(yàn)證難、數(shù)據(jù)恢復(fù)單一等問題[6]。當(dāng)前,西寧人行已建成生產(chǎn)中心,同城轉(zhuǎn)接中心和異地備份中心。根據(jù)西寧人行生產(chǎn)中心和同城轉(zhuǎn)接中心特點(diǎn),設(shè)計(jì)了詳細(xì)可行的災(zāi)備方案,建設(shè)了基于SAN存儲(chǔ)和EMC Vplex Metro存儲(chǔ)虛擬化技術(shù)的存儲(chǔ)雙活系統(tǒng)。
3 ?相關(guān)技術(shù)
3.1 ?存儲(chǔ)技術(shù)
存儲(chǔ)技術(shù)包括磁盤陣列技術(shù)、DAS技術(shù)、NAS技術(shù)、SAN技術(shù)等。磁盤陣列由陣列控制器管理的若干硬盤組成,是一種具有容錯(cuò)功能的存儲(chǔ)系統(tǒng)[7]。DAS技術(shù)通過標(biāo)準(zhǔn)接口技術(shù)與服務(wù)器直接相連。在NAS技術(shù)結(jié)構(gòu)中,數(shù)據(jù)處理和存儲(chǔ)彼此分離,存儲(chǔ)設(shè)備獨(dú)立為節(jié)點(diǎn)提供服務(wù)[8]。SAN技術(shù)在服務(wù)器和存儲(chǔ)設(shè)備之間建立了專用的光纖通道存儲(chǔ)網(wǎng)絡(luò),具有較好的可靠性和可擴(kuò)展性[9]。
3.2 ?災(zāi)備技術(shù)
災(zāi)備技術(shù)是在兩個(gè)相距較遠(yuǎn)的數(shù)據(jù)中心,建立兩套及兩套以上功能相同的IT系統(tǒng),能夠進(jìn)行健康狀態(tài)監(jiān)視和功能切換。當(dāng)生產(chǎn)中心應(yīng)用系統(tǒng)遭受災(zāi)難(如地震、火災(zāi)、停電等)無法正常運(yùn)行時(shí),整個(gè)應(yīng)用系統(tǒng)切換到另一數(shù)據(jù)中心,保障應(yīng)用系統(tǒng)繼續(xù)正常工作[10]。
常用的災(zāi)備技術(shù)主要有三種。
(1)基于磁介質(zhì)的災(zāi)備技術(shù):通過定期備份方式,將數(shù)據(jù)拷貝至磁介質(zhì),并將磁介質(zhì)轉(zhuǎn)移到異地保存。磁介質(zhì)備份方式存在著系統(tǒng)數(shù)據(jù)量較大時(shí)介質(zhì)需求量大、容易損壞、恢復(fù)操作復(fù)雜等缺點(diǎn)[11]。
(2)基于數(shù)據(jù)庫的災(zāi)備技術(shù):采用數(shù)據(jù)庫系統(tǒng)的拷貝功能完成數(shù)據(jù)備份。常用的實(shí)現(xiàn)方案有GoldenGate、Oracle Data Guard等,數(shù)據(jù)庫災(zāi)備技術(shù)實(shí)現(xiàn)成本較高[12]。
(3)存儲(chǔ)雙活技術(shù):存儲(chǔ)雙活通過存儲(chǔ)虛擬化技術(shù)實(shí)現(xiàn)。在存儲(chǔ)層,不同存儲(chǔ)設(shè)備中的數(shù)據(jù)完全一致,與上層架構(gòu)無關(guān),具有通用性強(qiáng)的優(yōu)點(diǎn)[13]。
3.3 ?存儲(chǔ)雙活技術(shù)
存儲(chǔ)雙活采用存儲(chǔ)虛擬化技術(shù)實(shí)現(xiàn)。存儲(chǔ)虛擬化技術(shù)將物理存儲(chǔ)抽象成一個(gè)虛擬邏輯池,用戶操作邏輯存儲(chǔ)實(shí)現(xiàn)真實(shí)存儲(chǔ)變更,可以有效地屏蔽不同設(shè)備差異[14]。當(dāng)虛擬主機(jī)通過存儲(chǔ)虛擬化設(shè)備讀寫數(shù)據(jù)時(shí),數(shù)據(jù)同時(shí)寫入兩臺(tái)存儲(chǔ),任意一臺(tái)存儲(chǔ)出現(xiàn)故障時(shí),存儲(chǔ)雙活系統(tǒng)將保證業(yè)務(wù)系統(tǒng)正常運(yùn)行[15]。當(dāng)故障存儲(chǔ)被修復(fù)完成后,存儲(chǔ)雙活系統(tǒng)會(huì)把增量數(shù)據(jù)更新到修復(fù)好的存儲(chǔ)上,在虛擬主機(jī)層感知不到故障發(fā)生[16]。
4 ?存儲(chǔ)雙活系統(tǒng)方案選型
4.1 ?西寧人行數(shù)據(jù)中心現(xiàn)狀
當(dāng)前,西寧人行建有三個(gè)數(shù)據(jù)中心,即生產(chǎn)中心、同城轉(zhuǎn)接中心、異地備份中心。在生產(chǎn)中心,存儲(chǔ)資源由存儲(chǔ)1和存儲(chǔ)2提供,計(jì)算資源由主機(jī)虛擬化平臺(tái)提供,主機(jī)虛擬化平臺(tái)由5臺(tái)具有雙HBA卡的X86機(jī)架式服務(wù)器組成,其上運(yùn)行了VMware vSphere 5.5主機(jī)虛擬化軟件。生產(chǎn)中心存儲(chǔ)網(wǎng)絡(luò)設(shè)計(jì)成集中式SAN架構(gòu),5臺(tái)X86 服務(wù)器通過兩臺(tái)光纖交換機(jī)連接到兩臺(tái)存儲(chǔ)上,形成多鏈路冗余,拓?fù)淙鐖D1所示。
4.2 ?災(zāi)備需求分析
當(dāng)前,西寧人行數(shù)據(jù)中心災(zāi)備方式是本地備份和異地備份。本地備份恢復(fù)速度較快,但無法抵御火災(zāi)、停電、地震等災(zāi)難;異地備份可以抵御上述災(zāi)難,但恢復(fù)速度較慢,且存在災(zāi)備中心資源長期閑置問題。以上兩種方式已不能滿足西寧人行信息系統(tǒng)對(duì)數(shù)據(jù)可靠性、安全性的要求。因此,迫切需要引入新的災(zāi)備技術(shù)。
4.3 ?存儲(chǔ)資源需求分析
經(jīng)過分析,近年西寧人行數(shù)據(jù)中心擬上線信息系統(tǒng)需存儲(chǔ)空間10TB,但空閑存儲(chǔ)資源僅為6TB,遠(yuǎn)不能滿足需求。為了解決存儲(chǔ)資源不足問題,采用新技術(shù)整合現(xiàn)有存儲(chǔ)和新購存儲(chǔ),擴(kuò)大存儲(chǔ)資源池勢(shì)在必行。
4.4 ?存儲(chǔ)雙活系統(tǒng)方案選型
事實(shí)上,西寧人行數(shù)據(jù)中心機(jī)房竣工于1998年,但存儲(chǔ)雙活系統(tǒng)建設(shè)在2018年才開始實(shí)施。因此,存儲(chǔ)雙活系統(tǒng)方案的選定,需根據(jù)西寧人行當(dāng)前的機(jī)房環(huán)境、網(wǎng)絡(luò)環(huán)境、服務(wù)器、虛擬化軟件、應(yīng)用系統(tǒng)等因素統(tǒng)籌考慮。通過研究發(fā)現(xiàn),存儲(chǔ)雙活有兩種主要實(shí)現(xiàn)方法。
(1)基于磁盤陣列同步拷貝技術(shù)的存儲(chǔ)雙活方案。在該方案中,磁盤陣列的兩個(gè)控制器以主備模式分別部署在生產(chǎn)中心和同城轉(zhuǎn)接中心。數(shù)據(jù)中心服務(wù)器通過主控制器讀寫數(shù)據(jù),負(fù)載業(yè)務(wù)全部加載在主控制器,備控制器在主控制器故障時(shí)啟用。
(2)基于存儲(chǔ)虛擬化設(shè)備的存儲(chǔ)雙活方案。在該方案中,存儲(chǔ)虛擬化設(shè)備跨數(shù)據(jù)中心部署,當(dāng)數(shù)據(jù)中心的服務(wù)器通過虛擬卷讀寫數(shù)據(jù)時(shí),同時(shí)將數(shù)據(jù)寫入兩地存儲(chǔ)。服務(wù)器的訪問請(qǐng)求由本地存儲(chǔ)虛擬化設(shè)備優(yōu)先響應(yīng)。當(dāng)一端存儲(chǔ)發(fā)生故障時(shí),存儲(chǔ)雙活系統(tǒng)正常工作。存儲(chǔ)故障被消除后,存儲(chǔ)雙活系統(tǒng)同步增量數(shù)據(jù)至修復(fù)完成的存儲(chǔ)。
通過上述對(duì)比可得,基于存儲(chǔ)虛擬化設(shè)備的存儲(chǔ)雙活系統(tǒng)具有更高的性能、更好的災(zāi)備效果。因此,在本文中,存儲(chǔ)雙活系統(tǒng)建設(shè)采用了基于存儲(chǔ)虛擬化設(shè)備的方案。
5 ?存儲(chǔ)雙活系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)
5.1 ?存儲(chǔ)雙活系統(tǒng)設(shè)計(jì)原則
(1)Always Online原則。所有業(yè)務(wù)系統(tǒng)實(shí)施過程中保持連續(xù)運(yùn)行,不可停機(jī)。新加入設(shè)備以旁路形式融入到現(xiàn)有SAN 環(huán)境,不改變現(xiàn)有設(shè)備連接方式。存儲(chǔ)資源的遷移以底層傳輸方式完成,不借助第三方導(dǎo)入導(dǎo)出手段。
(2)先并行、再統(tǒng)一,迭代推進(jìn)。存儲(chǔ)虛擬化設(shè)備的引入,是對(duì)現(xiàn)有SAN 架構(gòu)的一次重構(gòu),重構(gòu)過程中創(chuàng)造出一個(gè)與現(xiàn)有存儲(chǔ)直連,和經(jīng)由存儲(chǔ)虛擬化設(shè)備間連兩種形式同時(shí)存在的并行階段。在并行階段完成業(yè)務(wù)系統(tǒng)的改造與遷移,遷移完成后,取消直連。在實(shí)際遷移過程中,由于存儲(chǔ)資源有限,采用多輪次遷移方法,逐輪迭代,層層推進(jìn)。
(3)及時(shí)備份原則。在線遷移理論上是對(duì)業(yè)務(wù)系統(tǒng)及數(shù)據(jù)的透明、無損傳輸,但是實(shí)際操作過程中,存在由于主觀或客觀的原因,造成業(yè)務(wù)系統(tǒng)及數(shù)據(jù)損壞的情況。因此,必須做好系統(tǒng)的及時(shí)備份與歸檔工作。
5.2 ?Vplex Metro存儲(chǔ)虛擬化架構(gòu)
通過分析西寧人行數(shù)據(jù)中心現(xiàn)狀,結(jié)合Vplex Metro存儲(chǔ)虛擬化架構(gòu)特點(diǎn),西寧人行存儲(chǔ)雙活系統(tǒng)建設(shè)采用Vplex Metro存儲(chǔ)虛擬化架構(gòu)方案,方案邏輯拓?fù)鋱D如圖2所示。
在西寧人行Vplex Metro架構(gòu)中,存儲(chǔ)虛擬化設(shè)備通過Extent、Device、Virtual Volume過程實(shí)現(xiàn)對(duì)存儲(chǔ)資源的組織。具體包括,存儲(chǔ)中劃分的LUN映射到Vplex后形成Extent,Extent 和LUN之間建立一一對(duì)應(yīng)關(guān)系,兩個(gè)Extent以RAID-1形式構(gòu)成一個(gè)Device,一個(gè)Device生成一個(gè)映射到主機(jī)的Virtual Volume。在Storage Views 中,主機(jī)HBA 卡上的每個(gè)端口生成一個(gè)Initiator,將對(duì)應(yīng)的Initiator和Virtual Volume 編到一個(gè)View 中,實(shí)現(xiàn)將Virtual Volume對(duì)應(yīng)的存儲(chǔ)資源映射到主機(jī)。
在西寧人行Vplex Metro架構(gòu)中,生產(chǎn)中心和同城轉(zhuǎn)接中心存儲(chǔ)的數(shù)據(jù)經(jīng)過實(shí)時(shí)同步鏡像后呈現(xiàn)給客戶機(jī)。在主機(jī)層,Vplex Metro架構(gòu)保證兩臺(tái)存儲(chǔ)上數(shù)據(jù)完全一致。當(dāng)兩臺(tái)存儲(chǔ)中一臺(tái)損壞時(shí),正常運(yùn)行的另一臺(tái)存儲(chǔ)獨(dú)立支撐業(yè)務(wù)應(yīng)用,不對(duì)生產(chǎn)系統(tǒng)的業(yè)務(wù)連續(xù)性產(chǎn)生影響。故障存儲(chǔ)恢復(fù)后,Vplex Metro架構(gòu)自動(dòng)將增量數(shù)據(jù)同步到修復(fù)好的存儲(chǔ)上。
5.3 ?存儲(chǔ)雙活系統(tǒng)實(shí)施過程
根據(jù)所述存儲(chǔ)雙活系統(tǒng)建設(shè)指導(dǎo)原則,西寧人行數(shù)據(jù)中心存儲(chǔ)雙活系統(tǒng)實(shí)施過程按照準(zhǔn)備階段、旁路階段、并行階段、鏡像階段和收尾階段進(jìn)行。
(1)準(zhǔn)備階段。在接入存儲(chǔ)虛擬化設(shè)備之前,完成對(duì)業(yè)務(wù)系統(tǒng)的清點(diǎn)和分級(jí)、確定SAN網(wǎng)絡(luò)配置(端口映射與Zone 劃分)、規(guī)劃存儲(chǔ)資源等。
(2)旁路階段。在不影響當(dāng)前設(shè)備和業(yè)務(wù)系統(tǒng)運(yùn)行的前提下,初始化Vplex Metro架構(gòu),然后將Vplex設(shè)備以旁路形式加入到SAN 網(wǎng)絡(luò)。
(3)并行階段。在確保生產(chǎn)中心現(xiàn)有SAN設(shè)備與以旁路方式接入的Vplex設(shè)備之間互不干擾、同時(shí)運(yùn)行情況下,對(duì)擬遷移的業(yè)務(wù)系統(tǒng),先同時(shí)掛載在原有SAN設(shè)備和Vplex設(shè)備上,然后利用在線系統(tǒng)遷移方法,將原業(yè)務(wù)系統(tǒng)遷移至新購存儲(chǔ)。
(4)Metro鏡像階段。將所有業(yè)務(wù)系統(tǒng)遷移到新存儲(chǔ)后,拆除原存儲(chǔ)1,同時(shí)從主機(jī)邏輯刪除存儲(chǔ)2,并回收存儲(chǔ)2資源,將其加入到Vplex管理。通過Vplex Metro實(shí)現(xiàn)新購存儲(chǔ)3與存儲(chǔ)2之間的數(shù)據(jù)鏡像,西寧人行存儲(chǔ)雙活系統(tǒng)架構(gòu)如圖3所示。
(5)收尾階段。Metro鏡像階段完成后,拆除多余連線及Zone配置,監(jiān)控系統(tǒng)運(yùn)行,整理相關(guān)手冊(cè)和資料。
6 ?存儲(chǔ)雙活系統(tǒng)性能測試及結(jié)果分析
6.1 ?存儲(chǔ)雙活系統(tǒng)環(huán)境
存儲(chǔ)雙活系統(tǒng)中采用的主要設(shè)備為Vplex Metro存儲(chǔ)虛擬化設(shè)備、磁盤陣列、光纖交換機(jī)等,存儲(chǔ)雙活系統(tǒng)生產(chǎn)中心設(shè)備外觀如圖4所示。
6.2 ?存儲(chǔ)雙活系統(tǒng)高可用性測試
為了驗(yàn)證存儲(chǔ)雙活系統(tǒng)的高可用性,進(jìn)行如下測試。
(1)將生產(chǎn)中心的存儲(chǔ)與后端光纖交換機(jī)斷開連接,觀察鏡像卷和業(yè)務(wù)系統(tǒng)運(yùn)行狀態(tài)。通過實(shí)際測試,發(fā)現(xiàn)當(dāng)生產(chǎn)中心的存儲(chǔ)斷開與后端光纖交換機(jī)的連接時(shí),Vplex Metro架構(gòu)的存儲(chǔ)虛擬化設(shè)備無法訪問生產(chǎn)中心存儲(chǔ),但生產(chǎn)中心和同城轉(zhuǎn)接中心存儲(chǔ)在Vplex Metro存儲(chǔ)虛擬化設(shè)備中組成的Virtual Volume依然可用。
(2)將同城轉(zhuǎn)接中心對(duì)應(yīng)的Vplex Metro存儲(chǔ)虛擬化設(shè)備關(guān)閉電源,觀察集群運(yùn)行狀況。通過測試,發(fā)現(xiàn)當(dāng)關(guān)閉同城轉(zhuǎn)接中心對(duì)應(yīng)的Vplex Metro存儲(chǔ)虛擬化設(shè)備的電源時(shí)集群出現(xiàn)告警,但仍然能通過生產(chǎn)中心Vplex Metro存儲(chǔ)虛擬化設(shè)備提供服務(wù),業(yè)務(wù)系統(tǒng)運(yùn)行正常。
(3)將生產(chǎn)中心前端光纖交換機(jī)關(guān)閉電源,觀察主機(jī)虛擬化平臺(tái)運(yùn)行狀況。通過測試發(fā)現(xiàn)當(dāng)關(guān)閉生產(chǎn)中心前端光纖交換機(jī)關(guān)閉電源時(shí),主機(jī)虛擬化平臺(tái)依然能夠訪問存儲(chǔ)。
測試結(jié)論是西寧人行數(shù)據(jù)中心磁盤陣列、Vplex Metro架構(gòu)存儲(chǔ)虛擬化設(shè)備、光交換機(jī)中任意單臺(tái)設(shè)備故障時(shí),存儲(chǔ)雙活系統(tǒng)能夠有效降低數(shù)據(jù)丟失風(fēng)險(xiǎn),較好地保障了業(yè)務(wù)系統(tǒng)的連續(xù)性運(yùn)行。
6.3 ?存儲(chǔ)雙活系統(tǒng)存儲(chǔ)資源監(jiān)控
事實(shí)上,存儲(chǔ)雙活系統(tǒng)建成后,I/O得到有效集中,在存儲(chǔ)雙活系統(tǒng)管理界面,系統(tǒng)運(yùn)行總體狀況被有效呈現(xiàn),存儲(chǔ)雙活系統(tǒng)總體運(yùn)行狀況展示如圖5所示。
在系統(tǒng)健康界面,Vplex Metro存儲(chǔ)雙活系統(tǒng)各物理模塊與邏輯組件的詳細(xì)健康狀況被清晰展示,系統(tǒng)健康界面如圖6所示。
在性能監(jiān)測界面,存儲(chǔ)資源I/O情況可被實(shí)時(shí)監(jiān)控,監(jiān)控內(nèi)容包括前后端帶寬、吞吐量、延遲等,存儲(chǔ)雙活系統(tǒng)性能監(jiān)測界面如圖7(a)(b)所示。
通過Vplex Metro架構(gòu)的存儲(chǔ)雙活系統(tǒng)監(jiān)控系統(tǒng)整體運(yùn)行情況、物理模塊與邏輯組件健康狀況、前后端帶寬、吞吐量、延遲、隊(duì)列深度等,直觀掌握了系統(tǒng)運(yùn)行現(xiàn)狀、為快速定位風(fēng)險(xiǎn)點(diǎn)提供了決策支持,重要業(yè)務(wù)系統(tǒng)連續(xù)性得到較好保障。
7 ?結(jié)束語
本文針對(duì)基層央行信息化建設(shè)過程中,數(shù)據(jù)安全問題日益突出的現(xiàn)狀,以西寧人行數(shù)據(jù)中心為例,分析了進(jìn)行災(zāi)備系統(tǒng)建設(shè)的必要性。根據(jù)西寧人行生產(chǎn)中心和同城轉(zhuǎn)接中心特點(diǎn),設(shè)計(jì)了有效可行的災(zāi)備方案,建成了存儲(chǔ)雙活系統(tǒng)。存儲(chǔ)雙活系統(tǒng)采用SAN存儲(chǔ)和EMC Vplex Metro存儲(chǔ)虛擬化技術(shù),實(shí)現(xiàn)了生產(chǎn)中心和同城轉(zhuǎn)接中心存儲(chǔ)雙活,數(shù)據(jù)中心經(jīng)過存儲(chǔ)虛雙活改造后,存儲(chǔ)資源實(shí)現(xiàn)實(shí)時(shí)高可用,RPO近似等于零,省級(jí)私有云統(tǒng)一管理存儲(chǔ)資源,重要業(yè)務(wù)系統(tǒng)可靠性及數(shù)據(jù)安全性得到較好保障。下一步西寧人行將積極推進(jìn)存儲(chǔ)雙活系統(tǒng)向應(yīng)用雙活的改造。
基金項(xiàng)目:
1. 賽爾網(wǎng)絡(luò)下一代互聯(lián)網(wǎng)技術(shù)創(chuàng)新項(xiàng)目(項(xiàng)目編號(hào):NGll20151101);
2. 中國人民銀行西寧中心支行重點(diǎn)課題(項(xiàng)目編號(hào):QHJR201808);
3. 2017年度青海師范大學(xué)青年基金項(xiàng)目(項(xiàng)目編號(hào):17ZR16)。
參考文獻(xiàn)
[1] 任平泉.山西省網(wǎng)絡(luò)信息系統(tǒng)災(zāi)備體系研究[J].網(wǎng)絡(luò)空間安全, 2017, 8(4): 63-66.
[2] 王永超,魯鳴鳴.面向金融行業(yè)的大數(shù)據(jù)遷移的研究與實(shí)現(xiàn)[J].計(jì)算機(jī)工程與應(yīng)用, 2018, 54(13): 93-99.
[3] 宋文功,蔣新華.高校數(shù)據(jù)中心容災(zāi)技術(shù)的探討[J].華東師范大學(xué)學(xué)報(bào)(自然科學(xué)版), 2015, (S1): 309-312.
[4] Suguna S, Suhasini A. Overview of Data Backup and Disaster Recovery in Cloud[C]// International Conference on Information Communication and Embedded Systems. 2015. India: IEEE, 2014: 153-158.
[5] 呂仲濤.構(gòu)建“兩地三中心”運(yùn)行體系[J].中國金融, 2016, (23): 57-58.
[6] Sengupta S, Annervaz K M. Multi-site Data Distribution for Disaster Recovery——A Planning Framework[J]. Future Generation Computer Systems, 2014, (41): 53-64.
[7] 王良清,王玉齋,李愛勤.測繪地理信息成果檔案異地災(zāi)備系統(tǒng)的研建[J]. 測繪通報(bào), 2017, (6): 133-136.
[8] Alshammari M M, Alwan A A, Nordin A, et al. Disaster Recovery with Minimum Replica Plan for Reliability Checking in Multi-Cloud[J]. Procedia Computer Science, 2018, (130): 247-254.
[9] 許冠軍.基于虛擬化的應(yīng)用容災(zāi)平臺(tái)探索[J].計(jì)算機(jī)科學(xué), 2014, 41(11): 426-429.
[10] Praveen S. Challagidad, Ambika S. Dalawai, Mahantesh N. Birje. Efficient and Reliable Data Recovery Technique in Cloud Computing[J]. Internet of Things and Cloud Computing, 2017, 5(1): 13-18.
[11] Wei Chen, Yu Tingshang. Disaster Recovery of Online System Based on Cloud Computing[J]. Applied Mechanics and Materials. 2017, (865): 636-641.
[12] Li T, Huang Y, Chen S C, etal. Data-Driven Techniques in Disaster Information Management[J]. ACM Computing Surveys, 2017, 50(1): 1-45.
[13] Yu Jun, Yang Lihong. The Cloud Technology Double Live Date Center Information System Research and Design based on Disaster Recovery Platform[J]. Procedia Engineering, 2017, (174): 1356-1370.
[14] Kokkinos P, Kalogeras D, Levin A, et al. Survey: Live Migration and Disaster Recovery over Long-Distance Networks[J]. ACM Computing Surveys, 2016, 49(2): 1-36.
[15] Andrade E, Nogueira B, Matos R, etal. Availability Modeling and Analysis of a Disaster-Recovery-as-aService Solution[J]. Computing, 2017, 23(6): 34-40.
[16] Anderson J, Meling H, Rasmussen A, etal. Local Recovery for High Availability in Strongly Consistent Cloud Services[J]. IEEE Transactions on Dependable and Secure Computing, 2015, 99(2): 1-2.