厲天威 阮江軍 杜志葉 黃道春
(1. 廣西電力工業(yè)勘察設(shè)計(jì)研究院 南寧 530023 2. 武漢大學(xué)電氣工程學(xué)院 武漢 430072)
合成絕緣子相對(duì)于玻璃和瓷絕緣子具有重量輕、強(qiáng)度高、耐污性能好、便于運(yùn)輸和安裝、運(yùn)行維護(hù)方便等優(yōu)點(diǎn),在國(guó)內(nèi)外得到了廣泛的應(yīng)用[1]。但在運(yùn)行過程中有出現(xiàn)芯棒脆斷的情況,分析表明主要是高壓端部電場(chǎng)強(qiáng)度較高,電暈嚴(yán)重,產(chǎn)生電腐蝕并加劇酸腐作用的結(jié)果[2],所以必須降低高壓端的電壓分布。隨著電網(wǎng)超高壓的發(fā)展,在線路上發(fā)生污閃事故的絕緣子幾乎都損壞了均壓環(huán)、端部金具及金具附近的傘裙、護(hù)套。這些被損壞的絕緣子有很多是由于絕緣子端部區(qū)域的場(chǎng)強(qiáng)過高引起的,給電網(wǎng)的安全運(yùn)行帶來極大的危害。計(jì)算合成絕緣子串的電位分布以及金具表面的電場(chǎng)強(qiáng)度并以此來采取防護(hù)措施勢(shì)在必行。文獻(xiàn)[1]和文獻(xiàn)[3]用三維有限元法計(jì)算高壓輸電線路的絕緣子串的電位分布,由于單機(jī)計(jì)算速度和內(nèi)存大小的限制,網(wǎng)格剖分?jǐn)?shù)量有限,因此計(jì)算結(jié)果會(huì)存在一定的誤差。本文通過并行計(jì)算進(jìn)行分析及對(duì)比,來得到復(fù)合絕緣子串電位分布和金具表電場(chǎng)強(qiáng)度,以確定絕緣子串屏蔽環(huán)的最優(yōu)位置并降低絕緣子串端部電場(chǎng)強(qiáng)度。
有限元并行計(jì)算已經(jīng)成為解決大規(guī)模數(shù)值計(jì)算問題的最重要手段之一[4-6]。有限元并行最直接和最初的實(shí)現(xiàn)是利用數(shù)值并行求解器對(duì)傳統(tǒng)有限元最耗時(shí)的線性方程組求解過程進(jìn)行并行化求解以加快整個(gè)分析過程[7-11],即線性方程組的求解是并行過程,而單元分析和線性方程組的形成是串行過程。為進(jìn)一步提高并行效率,本文提出采用區(qū)域分解法[12-15]“分而治之”的并行策略在分布式存儲(chǔ)的并行環(huán)境下實(shí)現(xiàn)有限元并行計(jì)算,即將有限元求解區(qū)域劃分成若干大小近似相等的分區(qū),然后將這些分區(qū)信息映射到各個(gè)處理器上并行地進(jìn)行計(jì)算。每個(gè)處理器負(fù)責(zé)該分區(qū)的全部計(jì)算,通過消息傳遞方式與其他處理器交換分區(qū)邊界數(shù)據(jù)信息。該并行策略在單元級(jí)上實(shí)施有限元并行求解,避免形成總體剛度矩陣,其優(yōu)點(diǎn)在于計(jì)算高度并行化和數(shù)據(jù)通信量少。
本文建立了500kV高壓輸電線路合成絕緣子串的三維有限元模型,運(yùn)用基于非重疊型區(qū)域分解的并行計(jì)算技術(shù)對(duì)絕緣子串的電位分布以及金具表面的電場(chǎng)強(qiáng)度進(jìn)行計(jì)算來優(yōu)化屏蔽環(huán)位置,確定并降低絕緣子端部電場(chǎng)強(qiáng)度。
根據(jù)分區(qū)是否重疊,區(qū)域分解法分為重疊型區(qū)域分解法和非重疊型區(qū)域分解法。兩種分區(qū)方法如圖1所示。

圖1 重疊型和非重疊型區(qū)域分解Fig.1 The overlapping and non-overlapping domain decomposition
以Schwarz交替法[12]為基礎(chǔ)的重疊型區(qū)域分解算法的基本思想是把求解區(qū)域Ω 分解為兩個(gè)或多個(gè)較小的相互重疊的分區(qū)Ω1,Ω2,…,Ωn,然后在這兩個(gè)或多個(gè)分區(qū)之間交替求解,最終得到整個(gè)求解區(qū)域的解。Schwarz交替法的邊值問題為

其中,aij為對(duì)稱正定矩陣,a0≥0。把求解區(qū)域Ω 分解為 M個(gè)分區(qū),當(dāng)Ωk與Ωm相鄰時(shí),Ωk∩ Ωm≠ ? 。選擇初始近似 u0∈(Ω ),n=0,則并行計(jì)算各分區(qū)上邊值問題為

再令n=n+1繼續(xù)迭代,直至收斂。
基于Schwarz交替法的重疊型區(qū)域分解法,各分區(qū)與其他分區(qū)有重疊,重疊區(qū)域中的未知量與多個(gè)分區(qū)相關(guān)聯(lián),因而計(jì)算量相對(duì)較大。其計(jì)算效率取決于重疊區(qū)域的大小,當(dāng)分區(qū)個(gè)數(shù)增多時(shí)迭代收斂速度減慢,特別對(duì)于三維問題,增加重疊區(qū)域嚴(yán)重制約了計(jì)算速度的提高。
對(duì)于橢圓形偏微分方程的邊值問題,非重疊型區(qū)域分解算法的邊值問題為


如何在減少重疊區(qū)域的同時(shí)不降低迭代收斂速度成為本文所關(guān)注的問題。對(duì)于非重疊型區(qū)域分解,只有區(qū)域之間的邊界上的變量與多個(gè)分區(qū)相關(guān)聯(lián),迭代計(jì)算速度更快。因此,本文采用非重疊型區(qū)域分解法來進(jìn)行并行求解。
對(duì)于有限元網(wǎng)格如圖2a所示,利用METIS(分區(qū)軟件)對(duì)該網(wǎng)格劃分了3個(gè)分區(qū)。分區(qū)結(jié)果如圖2b所示。其中各分區(qū)的單元的尖點(diǎn)(部分節(jié)點(diǎn))都在與之相鄰的分區(qū)上,在實(shí)行有限元并行求解時(shí)需要利用消息傳遞的方式來更新這些節(jié)點(diǎn)的值。在圖2c中,處理器Proc 0在進(jìn)行計(jì)算時(shí),除了包括該分區(qū)里的所有節(jié)點(diǎn)和單元外,還必須包括與這些節(jié)點(diǎn)相關(guān)聯(lián)的外邊界單元的信息,如虛線所示的單元。因此,在圖2b的單元分區(qū)結(jié)果的基礎(chǔ)上,進(jìn)行的分區(qū)后處理的結(jié)果如圖2d所示。對(duì)于圖2d中的三個(gè)分區(qū),各處理器需要計(jì)算的節(jié)點(diǎn)在圖中的分界線以內(nèi),各分區(qū)相關(guān)聯(lián)的相鄰分區(qū)中的節(jié)點(diǎn)在分界線以外并靠近分界線,各分區(qū)的單元為標(biāo)有同樣標(biāo)記的節(jié)點(diǎn)構(gòu)成的所有單元之和,如圖打點(diǎn)標(biāo)記。

圖2 非結(jié)構(gòu)化網(wǎng)格分區(qū)示意圖Fig.2 The sketch map of unstructured mesh partition
有限元分區(qū)的鄰接圖如圖3所示,整個(gè)求解區(qū)域被劃分成3個(gè)分區(qū),分別分配給3個(gè)處理器Proc 0、Proc 1和Proc 2進(jìn)行并行計(jì)算。

圖3 鄰接圖Fig.3 The adjacency graph
若用單處理器對(duì)整個(gè)求解區(qū)域進(jìn)行求解,需要形成總體剛度矩陣。而在各分區(qū)內(nèi)單獨(dú)形成剛度矩陣時(shí),各分區(qū)剛度矩陣分別對(duì)應(yīng)于總體剛度矩陣的多行,如圖4所示。如Proc 0、Proc 1和Proc 2分別對(duì)應(yīng)總體剛度矩陣的{0,1,3}行、{4}行和{2,5}行。

圖4 分布式系數(shù)矩陣的形成Fig.4 The formation of distributed coefficient matrices
MPI[16](消息傳遞函數(shù)庫(kù))提供了與C、Fortran和C++語言的綁定,適用于分布內(nèi)存的并行計(jì)算機(jī)系統(tǒng)。MPI程序采用的是SPMD(單程序多數(shù)據(jù)流)執(zhí)行模式,即一個(gè)程序同時(shí)形成多個(gè)獨(dú)立的進(jìn)程,各進(jìn)程由獨(dú)立操作系統(tǒng)調(diào)度,享有獨(dú)立的CPU和內(nèi)存資源。進(jìn)程間通過消息傳遞互相交換信息,消息傳遞快可以減少各處理器間的等待時(shí)間,從而提高并行度和并行計(jì)算效率。
為了充分利用主節(jié)點(diǎn)的高計(jì)算性能,并且考慮到利用相同的數(shù)值計(jì)算方法在單機(jī)上計(jì)算結(jié)果有助于對(duì)比分析并行計(jì)算的效率,本文采用對(duì)等模式來替代主從模式,對(duì)等模式基本框架如圖5所示。對(duì)等模式即程序中各進(jìn)程(包括控制部分)地位相同,只是處理的數(shù)據(jù)不同,且程序可以利用單個(gè)進(jìn)程運(yùn)行。由圖可知,進(jìn)程0除了發(fā)送和接受數(shù)據(jù)外還承擔(dān)著計(jì)算的任務(wù)。

圖5 對(duì)等模式并行程序基本框架Fig.5 The basic frame of equal mode parallel program
各處理器間的數(shù)據(jù)交換主要表現(xiàn)為:在前處理階段,主處理器把各分區(qū)的單元節(jié)點(diǎn)信息發(fā)送到各從處理器,數(shù)據(jù)量較大,只需要傳遞一次;在迭代開始后,各主、從處理器把新的邊界節(jié)點(diǎn)值傳遞到相鄰處理器來更新邊界節(jié)點(diǎn)值,數(shù)據(jù)量相對(duì)較小。這些處理器之間的數(shù)據(jù)交換通過調(diào)用MPI庫(kù)函數(shù)來實(shí)現(xiàn),采用非阻塞通信的方式來減少數(shù)據(jù)交換時(shí)間,以提高數(shù)據(jù)傳輸效率。網(wǎng)格分區(qū)后的各個(gè)分區(qū)的單元和節(jié)點(diǎn)數(shù)據(jù)均存儲(chǔ)在各處理器所在存儲(chǔ)器中,實(shí)現(xiàn)存儲(chǔ)局部化,這樣每個(gè)分區(qū)可以很方便存取需要的數(shù)據(jù)。各分區(qū)的剛度矩陣、荷載向量、分區(qū)的邊界節(jié)點(diǎn)值和中間計(jì)算結(jié)果都存儲(chǔ)在處理器所在存儲(chǔ)器中,這樣大大降低各處理器之間通信。
本文采用并行預(yù)處理共軛梯度法等對(duì)各分區(qū)線性方程組進(jìn)行迭代求解,每一步迭代都要與相鄰的分區(qū)交換更新數(shù)據(jù),調(diào)用 MPI函數(shù)庫(kù)中提供的MPI_Send,MPI_Recv等函數(shù)可以方便地實(shí)現(xiàn)數(shù)據(jù)交換。
輸電線路通電情況下其周圍工頻電場(chǎng)變化頻率很低,屬準(zhǔn)靜態(tài)場(chǎng)范疇。當(dāng)電場(chǎng)的變化頻率很低時(shí),庫(kù)侖電場(chǎng)遠(yuǎn)大于感應(yīng)電場(chǎng),即0Bt??≈,于是有

若只考慮電場(chǎng),則用電流連續(xù)性方程代入式(5),且不考慮式(7),則準(zhǔn)靜態(tài)電場(chǎng)的控制方程可表示為

而J=σE,D= ε E,且有E =-?φ ,故

其復(fù)數(shù)形式為

假設(shè)電介質(zhì)都為均勻介質(zhì),于是本文計(jì)算靜態(tài)電磁場(chǎng)的泊松方程可表示為

為了給合成絕緣子的設(shè)計(jì)運(yùn)行提供參考,本文運(yùn)用有限元并行計(jì)算方法來計(jì)算 500kV高壓輸電線路合成絕緣子串上的電壓分布。絕緣子型號(hào)為FXBW2—500/160,大傘43片,小傘42片,結(jié)構(gòu)高度為 4450mm,絕緣子介電常數(shù)為 3.5,兩端金具長(zhǎng)度分別為150mm,屏蔽環(huán)外徑280mm;采用4分裂導(dǎo)線LGJ—400/50,分裂間距為450mm,導(dǎo)線長(zhǎng) 20m;橫擔(dān)寬、高各 0.8m,長(zhǎng) 16m。考慮到實(shí)際線路結(jié)構(gòu)的對(duì)稱性和計(jì)算機(jī)的計(jì)算能力有限,以導(dǎo)線側(cè)芯棒端部中心為坐標(biāo)原點(diǎn),只對(duì)絕緣子串、金具、導(dǎo)線和橫擔(dān)的1/4部分建立三維模型進(jìn)行分析,最后用空氣包圍起來,模擬無窮大區(qū)域。圖6a為合成絕緣子串的三維模型,圖6b為該模型外包空氣層后的1/4模型。為驗(yàn)證本文算法正確性,對(duì)圖6b的三維模型采用4節(jié)點(diǎn)的四面體單元分別剖分為27 868和115 291個(gè)節(jié)點(diǎn),基于區(qū)域分解法的思想,對(duì)該單元網(wǎng)格進(jìn)行分區(qū),來進(jìn)行并行求解。

圖6 合成絕緣子串三維分析模型Fig.6 The 3D model of composite insulator string under the transmission line and the rung
在本研究室的機(jī)群環(huán)境下(6節(jié)點(diǎn),F(xiàn)edora core 2.0操作系統(tǒng)),并行計(jì)算程序采用MPI消息傳遞的并行編程的對(duì)等模式,數(shù)值求解方法用C++語言編寫實(shí)現(xiàn),本文在芯棒中間位置均勻選取40個(gè)有代表性的點(diǎn),精確計(jì)算得到各點(diǎn)的值作為參考。圖7為各絕緣子的耐受電壓百分比,橫坐標(biāo)1~40是絕緣子串上依次從高壓端到低壓端上點(diǎn)的編號(hào),可以看出并行計(jì)算和單機(jī)計(jì)算的結(jié)果能夠很好地吻合,從而驗(yàn)證了本文運(yùn)用以上并行求解算法計(jì)算的正確性。

圖7 并行計(jì)算與單機(jī)計(jì)算結(jié)果比較Fig.7 Comparison between sequential and parallel computation
運(yùn)用各種線性方程組并行求解器PCG(預(yù)處理共軛梯度法)和 GMRES(廣義最小余量法)等分別對(duì)各分區(qū)內(nèi)形成的線性方程組進(jìn)行并行求解,求解器的計(jì)算時(shí)間與處理器數(shù)目之間的對(duì)比如圖8所示。可以看出,隨著處理器數(shù)目增加,各求解器計(jì)算時(shí)間在不斷減少。在求解精度相同的情況下,BICGSTAB(穩(wěn)定雙共軛梯度法)法計(jì)算時(shí)間最少,CGS(復(fù)共軛梯度平方法)法和 GMRES法次之,CG(共軛梯度法)法計(jì)算時(shí)間最長(zhǎng)。

圖8 各求解器計(jì)算時(shí)間與處理器數(shù)目的對(duì)比Fig.8 Time comparison for the number of processors
并行計(jì)算加速比和效率是衡量并行計(jì)算機(jī)系統(tǒng)和并行算法優(yōu)劣的兩個(gè)基本指標(biāo)。圖9a為利用GMRES計(jì)算得到的并行計(jì)算加速比和效率。可以看出,當(dāng)計(jì)算量較小時(shí),六處理器加速比為2.2。因?yàn)閿?shù)據(jù)量較少,數(shù)據(jù)交換時(shí)間在整個(gè)計(jì)算過程中占的比重較大,導(dǎo)致加速比不高。計(jì)算量增大時(shí),隨著處理器數(shù)目的增多,計(jì)算時(shí)間不斷地減少,出現(xiàn)了超線性加速情況,即 s(n)>n(s(n)為加速比,n為處理器數(shù))。超線性加速是由于在機(jī)群中每個(gè)處理器可以訪問的內(nèi)存容量與單處理器擁有的內(nèi)存容量相同,因此,在任何時(shí)刻總能保存更多的數(shù)據(jù),減少了對(duì)工作速度相對(duì)較慢的硬盤的訪問。從圖9b可以看出,并行計(jì)算效率隨著處理器的增加有減小的趨勢(shì)。根據(jù)以上分析,適當(dāng)增大處理器數(shù)目可以減少計(jì)算時(shí)間,并保證較高的求解效率。因算法特點(diǎn)不同,各求解器迭代次數(shù)也不同,迭代次數(shù)越多,處理器間數(shù)據(jù)交換越頻繁,對(duì)于27 868自由度規(guī)模的問題,各求解器迭代次數(shù)見下表。

圖9 并行計(jì)算加速比和求解效率Fig.9 The efficiency of parallel computation

表 各求解器迭代次數(shù)比較Tab. The iterative numbers of the solvers
基于4.2節(jié)并行算法正確性的驗(yàn)證,現(xiàn)以500kV高壓輸電線路復(fù)合絕緣子為例,考慮桿塔、導(dǎo)線和屏蔽環(huán)等因數(shù)的影響,對(duì)金具表面的電場(chǎng)強(qiáng)度進(jìn)行并行計(jì)算。根據(jù)對(duì)稱性建立有桿塔的四分之一模型,采用4分裂導(dǎo)線,如圖10a所示,網(wǎng)格剖分如圖10b~圖10c所示,高壓端電位分布如圖10d所示。本文首先對(duì)整體網(wǎng)格模型進(jìn)行分區(qū),分區(qū)數(shù)目為2~6個(gè),然后分別利用 2~6個(gè)處理器來進(jìn)行計(jì)算。其中,6個(gè)分區(qū)的分區(qū)結(jié)果如圖11所示,分區(qū)過程綜合考慮了負(fù)載平衡等因素,各分區(qū)計(jì)算量大致相等。
首先對(duì)絕緣子周圍電場(chǎng)分布進(jìn)行計(jì)算,研究對(duì)象的取值點(diǎn)如圖12右,在每片絕緣子的大小兩個(gè)傘裙之間、小傘的下方處取點(diǎn),共42個(gè)。由圖12左可知單機(jī)和并行求解的結(jié)果能夠很好地吻合,在上、下屏蔽環(huán)附近,電場(chǎng)強(qiáng)度有急劇增大的趨勢(shì),可知絕緣子周圍電場(chǎng)強(qiáng)度的最大值在下屏蔽環(huán)附近,大約為920kV/m,未達(dá)到均勻電場(chǎng)中擊穿場(chǎng)強(qiáng)的峰值(3000kV/m)。隨后,本文依次對(duì)絕緣子上、下鐵帽和導(dǎo)線周圍線夾表面電場(chǎng)強(qiáng)度分別進(jìn)行了計(jì)算,計(jì)算結(jié)果和取值點(diǎn)分別如圖13所示,為進(jìn)一步分析電暈特性等提供了依據(jù)。在上鐵帽和下鐵帽周圍0.09m處取21個(gè)點(diǎn)。在離線夾所在平面0.02m處分裂導(dǎo)線周圍取21個(gè)點(diǎn),這些點(diǎn)均勻分布在以分裂導(dǎo)線中心為圓心,半徑為1.2R的半圓上,R為四分裂導(dǎo)線分裂半徑。

圖10 500kV輸電線路模型及網(wǎng)格圖Fig.10 The model of 500kV transmission lines and the mesh

圖11 六個(gè)分區(qū)網(wǎng)格圖Fig.11 The six partitions mesh graph

圖12 絕緣子串周圍電場(chǎng)分布Fig.12 The electric field around the insulator

圖13 金具表面電場(chǎng)分布Fig.13 The electric field intensity distribution on the surface of hardware fittings
本文利用多臺(tái) PC機(jī)構(gòu)建的并行計(jì)算機(jī)系統(tǒng),基于非重疊型區(qū)域分解法,采用消息傳遞的并行編程對(duì)等模式,對(duì)三維有限元計(jì)算的數(shù)學(xué)模型開發(fā)了SPMD的并行程序,實(shí)現(xiàn)了對(duì)500kV高壓輸電線路的絕緣子串電位分布和金具表面電場(chǎng)強(qiáng)度的并行計(jì)算。計(jì)算結(jié)果表明并行計(jì)算系統(tǒng)相對(duì)于單機(jī)計(jì)算可以加快計(jì)算速度,獲得良好的加速比。以合成絕緣子串電位分布的結(jié)果為依據(jù)來優(yōu)化屏蔽環(huán)位置,通過計(jì)算復(fù)合絕緣子串金具表面電場(chǎng)強(qiáng)度,以確定并降低絕緣子端部電場(chǎng)強(qiáng)度。
[1]司馬文霞, 楊慶, 孫才新, 等. 基于有限元和神經(jīng)網(wǎng)絡(luò)方法對(duì)超高壓合成絕緣子均壓環(huán)結(jié)構(gòu)優(yōu)化的研究[J]. 中國(guó)電機(jī)工程學(xué)報(bào), 2005, 25(17): 115-120.Sima Wenxia, Yang Qing, Sun Caixin, et al.Optimization of corona ring design for EHV composite insulator using finite element and neural network method[J]. Proceedings of the CSEE, 2005,25(17): 115-120.
[2]張鳴, 陳勉. 500kV羅北甲線合成絕緣子芯棒脆斷原因分析[J]. 電網(wǎng)技術(shù), 2003, 27(12): 51-53.Zhang Ming, Chen Mian. Anlysis on core brittle fracture of composite insulators in a certain 500kV transmission line[J]. Power System Technology, 2003,27(12): 51-53.
[3]沈鼎申, 張孝軍, 萬啟發(fā), 等. 750kV線路絕緣子串電壓分布的有限元計(jì)算[J]. 電網(wǎng)技術(shù), 2003, 27(12):54-57.Shen Dingshen, Zhang Xiaojun, Wan Qifa, et al.Calculation of voltage distribution along insulator strings of 750kV by finite element method[J]. Power System Technology, 2003, 27(12): 54-57.
[4]謝德馨, 唐任遠(yuǎn), 王爾智, 等. 計(jì)算電磁學(xué)的現(xiàn)狀與發(fā)展趨勢(shì)——第14屆COMPUMAG會(huì)議綜述[J].電工技術(shù)學(xué)報(bào), 2003, 18(5): 1-4.Xie Dexin, Tang Renyuan, Wang Erzhi, et al. Major achievements and future trends of computational electromagnetics—summary of the 14th conference of compumag[J]. Transactions of China Electrotechnical Society, 2003, 18(5): 1-4.
[5]鐘建英, 林莘, 何榮濤. 自能式 SF6斷路器熄弧性能的并行計(jì)算仿真[J]. 中國(guó)電機(jī)工程學(xué)報(bào), 2006,26(20): 154-159.Zhong Jianying, Lin Xin, He Rongtao. The parallel computation simulation of the extinguishing arc performance in the self-extinguished SF6circuit breaker[J]. Proceedings of the CSEE, 2006, 26(20):154-159.
[6]Butrylo B, Musy F, Nicolas L, et al. A survey of parallel solvers for the finite element method in computational electromagnetics[J]. The International Journal for Computation and Mathematics in Electrical and Electronic Engineering, 2004, 23(2):531-546.
[7]劉洋, 周家啟, 謝開貴, 等. 基于 Beowulf 集群的大規(guī)模電力系統(tǒng)方程并行 PCG 求解[J]. 電工技術(shù)學(xué)報(bào), 2006, 21(3): 105-111.Liu Yang, Zhou Jiaqi, Xie Kaigui, et al. Parallel PCG solution of large scale power system equations based on Beowulf cluster[J]. Transactions of China Electrotechnical Society, 2006, 21(3): 105-111.
[8]Watanabe K, Igarashi H. A parallel PCG method with overlapping domain decomposition[C]. 12th Biennial IEEE Conference on Electromagnetic Field Computation,2006: 49.
[9]Ito F, Amemiya N. Application of parallelized SOR method to electromagnetic field analysis of superconductors[J]. IEEE Transactions on Applied Superconductivity, 2004, 14(2): 1874-1877.
[10]Vollaire C, Nicolas L. Preconditioning techniques for the conjugate gradient solver on a parallel distributed memory computer[J]. IEEE Transactions on Magnetics, 1998, 34(5): 3347-3350.
[11]吉興全, 王成山. 電力系統(tǒng)并行計(jì)算方法比較研究[J]. 電網(wǎng)技術(shù), 2003, 27(4):22-26.Ji Xingquan, Wang Chengshan. A comparative study on parallel processing applied in power system[J].Power System Technology, 2003, 27(4): 22-26.
[12]呂濤, 石濟(jì)民, 林振寶, 等. 區(qū)域分解算法—偏微分方程數(shù)值解新技術(shù)[M]. 北京: 科學(xué)出版社,1999.
[13]Imre Sebestyén. Electric-field calculation for HV insulators using domain-decomposition method[J].IEEE Transactions on Magnetics, 2002, 38(2): 1213-1216.
[14]Liu Peng, Jin Yaqiu. The finite-element method with domain decomposition for electromagnetic bistatic scattering from the comprehensive model of a ship on and a target above a large-scale rough sea surface[J].IEEE Transaction on Geoscience and Remote Sensing,2004, 42(5): 950-956.
[15]Liu Y Q, Yuan J S. A finite element domain decomposition combined with algebraic multigrid method for large-scale electromagnetic field computation[J]. IEEE Transactions on Magnetics, 2006,42(4): 655-658.
[16]都志輝. 高性能計(jì)算并行編程技術(shù): MPI并行程序設(shè)計(jì)[M]. 北京:清華大學(xué)出版社, 2001.