產(chǎn)小紅,滕國偉,王國中,趙海武,李國平
(上海大學(xué) 通信與信息工程學(xué)院,上海 200444)
?
AVS2幀間預(yù)測模式快速判決方法
產(chǎn)小紅,滕國偉,王國中,趙海武,李國平
(上海大學(xué) 通信與信息工程學(xué)院,上海 200444)
新一代國家自主音視頻編碼標(biāo)準(zhǔn)AVS2已制定完成,相對于上一代標(biāo)準(zhǔn)其具有更高的編碼效率,但同時(shí)編碼復(fù)雜度大幅度增加。為了降低編碼器的編碼復(fù)雜度以達(dá)到實(shí)時(shí)應(yīng)用性能,針對編碼單元的預(yù)測單元?jiǎng)澐诌M(jìn)行深入研究,提出了一種幀間預(yù)測模式快速判決方法,該方法利用編碼單元時(shí)域與空域的信息再結(jié)合編碼單元的紋理信息來預(yù)測其劃分方式,從而在幀間編碼過程中避免遍歷所有劃分模式。實(shí)驗(yàn)表明,該算法可以使編碼時(shí)間平均下降38%,并且對編碼效率影響很小。
AVS2;幀間預(yù)測模式;時(shí)空域相關(guān)性;紋理特征
新一代國家自主音視頻編碼標(biāo)準(zhǔn)(以下簡稱AVS2)已經(jīng)制定完成,其壓縮效率相比上一代標(biāo)準(zhǔn)(簡稱AVS1)和國際標(biāo)準(zhǔn)H.264/AVC提高了約一倍,特別在場景視頻編碼方面有更高的性能提升。AVS2能獲得如此優(yōu)異的壓縮性能是因?yàn)樗捎昧烁嘞冗M(jìn)的編碼技術(shù),最具代表性的是靈活的四叉樹劃分結(jié)構(gòu)和多樣化的預(yù)測模式。其中在幀內(nèi)預(yù)測方面,亮度有30個(gè)方向預(yù)測模式及3個(gè)非方向預(yù)測模式;在幀間預(yù)測方面則添加了雙前向預(yù)測等幀間預(yù)測模式[1]。
先進(jìn)的編碼技術(shù)使編碼效率提高了,但是編碼過程更加復(fù)雜了。例如在采用四叉樹劃分結(jié)構(gòu)進(jìn)行編碼時(shí),如果最小編碼單元的尺寸為8×8,則每個(gè)64×64的塊共有1+174=83 522種可能的劃分方式。而AVS1,每個(gè)宏塊有4種劃分方式,16個(gè)宏塊是相加的關(guān)系,編碼一個(gè)64×64的圖像塊只需要64種可能的方式。相比之下,其編碼復(fù)雜度提高了許多倍數(shù),其他新技術(shù)也有類似情況。因此,研究如何降低AVS2的編碼復(fù)雜度,是非常有必要的。
1.1 AVS2的編碼塊結(jié)構(gòu)
為了更加靈活、高效地劃分視頻場景中的不同紋理細(xì)節(jié)的視頻內(nèi)容或者視頻對象,AVS2采用了基于編碼單元(Coding Unit,CU)、預(yù)測單元(Prediction Unit,PU)和變換單元(Transform Unit,TU)的編碼結(jié)構(gòu)[2]。用CU代替了AVS1中的宏塊,并賦予其更多靈活的功能。CU基于四叉樹結(jié)構(gòu)進(jìn)行劃分,過程如圖1所示。最大編碼單元LCU (Largest Coding Unit)大小為64×64,深度為0,LCU可以劃分為4個(gè)32×32的CU,深度為1,每個(gè)32×32的CU又可以劃分為4個(gè)16×16的CU,如此遞歸劃分直到CU的大小為8×8,也就是最小編碼單元SCU(Smallest Coding Unit)。在編碼過程中每幅圖像都可被劃分為多個(gè)LCU,然后按照上述過程遞歸劃分。

圖1 CU分層
PU是進(jìn)行預(yù)測(包括幀內(nèi)和幀間預(yù)測)的基本單元,由CU劃分而得到。在AVS2中,對于一個(gè)大小為2N×2N的CU來說,它可以被劃分成多個(gè)PU,AVS2幀間PU的劃分模式如圖2所示。圖2列出了8種幀間CU劃分為PU的模式,其中NO_SPLIT,HOR_SYM,VER_SYM和CROSS_SPLIT是對稱劃分,而HOR_UP,HOR_DOWN,VER_LEFT和VER_RIGHT是非對稱劃分,它們都是幀間的預(yù)測模式[2]。除此之外幀間還有與NO_SPLIT劃分尺寸相同的SKIP預(yù)測模式,一共有9種幀間預(yù)測模式。

圖2 CU與幀間PU的關(guān)系
1.2 AVS2幀間預(yù)測過程
AVS2進(jìn)行幀間預(yù)測編碼時(shí),將一幅圖像分成若干個(gè)LCU。對每個(gè)LCU采用類似樹的后續(xù)遍歷順序進(jìn)行編碼,過程如圖1所示。要確定一個(gè)LCU的編碼模式需要遍歷LCU下各個(gè)深度的CU的所有預(yù)測模式。如果最小編碼單元的尺寸為8×8,則每個(gè)64×64的LCU理論上需要嘗試預(yù)測模式計(jì)算:13×(1+4+42+43)=1 105次。對一幅1 920×1 080分辨率的視頻圖像進(jìn)行率失真模式選擇計(jì)算,大約需進(jìn)行1 105×1 920×1 080÷64÷64≈559 406次,而每種幀間模式需要遍歷參考圖像,進(jìn)行運(yùn)動(dòng)估計(jì)和運(yùn)動(dòng)補(bǔ)償?shù)扔?jì)算,可見AVS2的幀間編碼過程極其復(fù)雜和耗時(shí),因此優(yōu)化AVS2的幀間編碼算法對于其實(shí)時(shí)應(yīng)用有重大意義。
目前已有一些降低視頻編碼復(fù)雜度的算法。如文獻(xiàn)[3]提出一種幀內(nèi)預(yù)測模式快速?zèng)Q策算法來減小幀內(nèi)預(yù)測模式的數(shù)量。文獻(xiàn)[4]提出了一種AVS2幀內(nèi)快速算法,該算法利用已編碼CU預(yù)測上層CU的模式。文獻(xiàn)[5]提出的算法利用相鄰PU的相關(guān)性避免遍歷所有的參考圖像,從而提高編碼效率。
2.1 AVS2的模式選擇算法
以往對編碼塊的幀間預(yù)測模式研究,較多的是利用時(shí)域和空域相關(guān)性,如把周圍已編碼圖像塊的預(yù)測模式作為候選模式對當(dāng)前正在編碼的塊進(jìn)行預(yù)測,雖然這些方法對減小當(dāng)前塊的模式計(jì)算有一定效果,但是往往因?yàn)樾畔⒗玫貌蝗a(chǎn)生誤差,而且誤差會(huì)對預(yù)測下一編碼單元產(chǎn)生影響。有的算法還會(huì)設(shè)定一個(gè)閾值用于判斷是否進(jìn)行預(yù)測,該閾值設(shè)定的精確性非常關(guān)鍵,其精確度直接影響模式選擇的效果。本文所提出的算法除利用時(shí)域和空域中相鄰的編碼塊,還利用紋理信息進(jìn)行快速模式判決,可降低外部因素導(dǎo)致的誤差。
相鄰塊與待編碼塊存在很多相似特征,所以編碼塊的預(yù)測模式和時(shí)域、空域相鄰的編碼塊的預(yù)測模式存在很強(qiáng)的相關(guān)性。而就一個(gè)編碼塊而言,各種幀間預(yù)測模式被選擇的概率存在很大差異。為了分析各幀間預(yù)測模式的分布情況,本文選取了幾個(gè)序列進(jìn)行實(shí)驗(yàn)以統(tǒng)計(jì)每種預(yù)測模式的使用概率。為保證實(shí)驗(yàn)的普適性,所選取的序列擁有不同的分辨率和紋理特征,Catus,BasketballDrive,City序列的分辨率分別為1 920×1 280,1 280×720,832×480。實(shí)驗(yàn)結(jié)果如表1所示。

表1 各預(yù)測模式使用的概率
從表1可以看出,編碼塊的預(yù)測模式中各種模式被選為最佳模式的概率差異很大,其中SKIP模式被選為最佳模式的概率最大,平均達(dá)到了70%多。而且對于不同的序列而言,每種預(yù)測模式被選為最佳模式的概率差異也較大。從表中還可以看出,當(dāng)序列中的水平(垂直)對稱模式使用的概率較大時(shí),水平(垂直)非對稱模式也使用得更多。從這些實(shí)驗(yàn)結(jié)果不難推斷,編碼塊選擇何種預(yù)測模式和序列本身的紋理特性有很大的關(guān)系。
AVS2在幀間預(yù)測過程中,并沒有考慮序列的紋理特征,都是遍歷嘗試所有的預(yù)測模式以找到最佳模式。本文綜合利用預(yù)測模式的時(shí)域、空域相關(guān)性以及編碼塊的紋理特征,提出快速方法加快幀間預(yù)測模式判決,同時(shí)保證編碼效率。
2.2 時(shí)空域相關(guān)性以及紋理特征分析
本節(jié)在對當(dāng)前CU進(jìn)行模式預(yù)測之前,可以選取多個(gè)時(shí)域、空域相鄰塊作為參考塊,并且從參考塊中選取一個(gè)和當(dāng)前編碼塊紋理最接近的參考塊作為最佳參考塊。接著分析當(dāng)前CU的紋理特性,根據(jù)紋理特性判斷進(jìn)行水平對稱劃分還是進(jìn)行垂直對稱劃分,同時(shí)將最佳參考塊的預(yù)測模式作為對比,避免產(chǎn)生差錯(cuò)。在確定了水平還是垂直劃分之后,進(jìn)一步分析CU的紋理特征,決定是否進(jìn)行非對稱劃分。通過該算法可以使幀間預(yù)測的復(fù)雜度大大減小,而且最佳參考塊的存在保證了算法的準(zhǔn)確性。
目前已有較多方法用于檢驗(yàn)一幅圖片的紋理信息,如文獻(xiàn)[6]使用圖像熵值來判定紋理特征;文獻(xiàn)[7]使用歸一化后的直流交流系數(shù)比AC_DC_ratio來表征圖像的紋理復(fù)雜度;文獻(xiàn)[8]則使用灰度直方圖的自相關(guān)函數(shù)來判斷紋理;文獻(xiàn)[9]則采用MAD分析待編碼宏塊水平和垂直方向上的紋理復(fù)雜度。
最小均方誤差MSE可以有效反映一組數(shù)據(jù)的變化程度。如果圖像某個(gè)方向上像素的MSE較小,也就是起伏程度較小,那么這個(gè)方向上的像素屬于同一對象的概率就較大。因此本文就用MSE來表述圖像的紋理特征。
根據(jù)MSE的定義,可以利用式(1)和(2)計(jì)算CU垂直方向和水平方向的均方誤差,即
(1)
(2)
式中:MSEVer和MSEHor表示CU垂直方向和水平方向的均方誤差;W和H分別是待編碼CU的寬度和高度(以像素點(diǎn)為單位);α和β是系數(shù)值,用于調(diào)整不同劃分模式下的水平與垂直方向上的像素點(diǎn)數(shù),計(jì)算MSEVer和MSEHor時(shí),α和β的值都為1;p(x,y)表示CU像素點(diǎn)的值;mx和my在計(jì)算MSEVer和MSEHor時(shí)分別表示當(dāng)前CU的第x+1行像素點(diǎn)的平均值和第y+1列像素點(diǎn)的平均值。
兩個(gè)編碼塊紋理特征的相似度,可以利用水平均方誤差MSEHor和垂直均方誤差MSEVer的絕對誤差的和來表示,如式(3)。abs越小就表示兩個(gè)編碼塊的紋理特征越接近。
(3)
若一組像素具有較小的MSE則表明這些像素值比較接近,劃分到同一塊的可能性就比較大。所以如果MSEHor 當(dāng)然也要考慮一些特殊情況,比如由于光線等其他外部因素的影響可能導(dǎo)致一些并不屬于同一個(gè)對象的像素點(diǎn)具有比較接近的像素值。所以本文在進(jìn)行紋理分析之前選擇一個(gè)最佳參考塊,根據(jù)最佳參考塊的預(yù)測模式就能避免因?yàn)橥獠恳蛩囟a(chǎn)生差錯(cuò)。例如若根據(jù)紋理特征判斷應(yīng)該計(jì)算當(dāng)前CU的水平對稱模式HOR_SYM并且舍棄垂直對稱模式VER_SYM,而最佳參考塊的預(yù)測模式是3種垂直劃分模式VER_SYM,VER_LEFT,VER_RIGHT中的1種,這時(shí)就有必要計(jì)算垂直對稱模式VER_SYM。 由于水平和垂直方向上還有4種非對稱模式,即水平和垂直各有2個(gè)非對稱模式,如圖1所示。所以水平對稱模式或垂直對稱模式被確定之后,對水平方向或垂直方向的紋理進(jìn)一步分析,仍使用式(1)和式(2)對當(dāng)前深度下非對稱劃分的PU的均方誤差求值。分析水平非對稱的兩種模式HOR_UP和HOR_DOWN時(shí),使用式(2),并用MSEUpUp和MSEUpDown分別代表HOR_UP模式下的上下塊的MSE,α的值都為1,β的值分別為0.25和0.75;用MSEDownUp和MSEDownDown分別代表HOR_DOWN模式下的上下塊的MSE,α的值都為1,β的值分別為0.75和0.25。計(jì)算這4個(gè)PU的MSE時(shí)mx表示當(dāng)前PU的第x+1行像素點(diǎn)的平均值。分析垂直非對稱的兩種模式VER_LEFT和VER_RIGHT時(shí),使用式(1),并用MSELeftLeft和MSELeftRight分別代表VER_LEFT模式下的左右塊的MSE,α的值分別為0.25和0.75,β的值都為1;用MSERightLeft和MSERightRight分別代表VER_RIGHT模式下的左右塊的MSE,α的值為0.75和0.25,β的值都為1。計(jì)算這4個(gè)MSE時(shí)my表示當(dāng)前PU第y+1列像素點(diǎn)的平均值。 對于水平和垂直方向上的4種非對稱模式,如果小尺寸PU的均方誤差小于大尺寸PU的均方誤差,那么小尺寸PU中的像素點(diǎn)屬于同一個(gè)對象的概率較大,則計(jì)算該模式的代價(jià)。如對于VER_LEFT模式而言,若MSELeftLeft 2.3 算法流程 根據(jù)上述分析,本文提出了一種基于時(shí)域空域相關(guān)性以及紋理特征的幀間預(yù)測模式快速判決方法,算法流程如圖3所示。算法的具體步驟如下: 1)對當(dāng)前CU進(jìn)行編碼前,選取前一幀對應(yīng)位置相同深度的CU,以及同一幀左邊和上邊相鄰位置同一深度的CU作為參考CU。計(jì)算當(dāng)前CU以及3個(gè)參考CU的水平均方誤差MSEHor和垂直均方誤差MSEVer。利用式(3)將3個(gè)參考CU的紋理與當(dāng)前CU的紋理進(jìn)行比較,選擇紋理最接近的CU作為當(dāng)前CU的最佳參考塊,并且獲得最佳參考塊的預(yù)測模式Mode0。 2)計(jì)算NO_SPLIT模式的率失真代價(jià),并將當(dāng)前CU的最佳預(yù)測模式BestMode設(shè)為NO_SPLIT模式。 3)比較當(dāng)前CU水平均方誤差MSEHor和垂直均方誤差MSEVer。若MSEHor 4)若Mode0為3種垂直劃分模式VER_SYM、VER_LEFT、VER_RIGHT中的1種,則計(jì)算水平對稱模式HOR_SYM和垂直對稱模式VER_SYM的率失真代價(jià),并且與當(dāng)前最佳模式相比,選擇代價(jià)最小的模式作為最佳預(yù)測模式BestMode;否則只計(jì)算水平對稱模式HOR_SYM的率失真代價(jià),并與當(dāng)前最佳模式比較得到最佳模式BestMode。 圖3 算法流程圖 5)若Mode0為3種水平劃分模式HOR_SYM、HOR_UP、HOR_DOWN中的1種,則計(jì)算垂直對稱模式VER_SYM和水平對稱模式HOR_SYM的率失真代價(jià),并且與當(dāng)前最佳模式相比,選擇代價(jià)最小的模式作為最佳預(yù)測模式BestMode;否則只計(jì)算垂直對稱模式VER_SYM的率失真代價(jià),并與當(dāng)前最佳模式比較得到最佳模式BestMode。 6)若經(jīng)過步驟4)或步驟5)之后最佳模式BestMode為NO_SPLIT模式,則結(jié)束后續(xù)非對稱模式計(jì)算, 跳轉(zhuǎn)到步驟9)。 7)若經(jīng)過步驟4)或步驟5)之后最佳模式BestMode為水平對稱模式HOR_SYM,則計(jì)算水平非對稱模式HOR_UP(HOR_DOWN)上方位置PU的水平均方誤差MSEUpUp(MSEDownUp)和下方位置PU的水平均方誤差MSEUpDown(MSEDownDown)。若MSEUpUp 8)若經(jīng)過步驟4)或步驟5)之后最佳模式BestMode為垂直對稱模式VER_SYM,則計(jì)算垂直非對稱模式VER_LEFT(VER_RIGHT)左側(cè)位置PU的垂直均方誤差MSELeftLeft(MSERightLeft)和右側(cè)位置PU的垂直均方誤差MSELeftRight(MSERightRight)。若MSELeftLeft 9)比較其他剩余模式。 由算法的流程圖和具體步驟可知該算法最多可以減少5種模式計(jì)算,最少也可以減少3種模式計(jì)算,使幀間編碼復(fù)雜度大大減小。更重要的是,該算法不需要設(shè)定閾值,這樣產(chǎn)生誤差的概率就很小,而且在利用紋理特征進(jìn)行模式判決時(shí),利用最佳參考塊作比較,這樣進(jìn)一步保證了算法的準(zhǔn)確性。 利用AVS2參考軟件RD12.0作為實(shí)驗(yàn)平臺測試本文提出算法的性能,并且與遍歷所有模式的算法進(jìn)行比較,實(shí)驗(yàn)條件如表2所示。本文通過式(4)~(6)進(jìn)行數(shù)據(jù)分析,測試不同量化參數(shù)(QP)、不同序列下的編碼時(shí)間time、峰值信噪比PSNR及編碼比特率Bit-rate的變化,從而對算法進(jìn)行綜合評價(jià)。式(4)中,timereference是原始算法在RD12.0上的編碼時(shí)間,timeproposed是使用本文提出的快速算法在RD12.0上的編碼時(shí)間,Δtime即表示兩種算法編碼時(shí)間上的變化。式(5)和(6)中各變量的意義與式(4)類似。 (4) (5) (6) 表2 實(shí)驗(yàn)條件 為了驗(yàn)證算法的通用性,本文選擇具有不同分辨率、紋理及運(yùn)動(dòng)特征的視頻序列進(jìn)行測試。測試序列的分辨率如下:BasketballDrive與Kimonol為1 920×1 080,City與Crew為1 280×720,PartyScene與RaceHorses為832×480。表3為本文算法與遍歷所有預(yù)測模式的算法編碼時(shí)間及BD-PSNR和BD-Rate的實(shí)驗(yàn)比較結(jié)果。 表3 本文算法與遍歷所有模式方法的實(shí)驗(yàn)比較結(jié)果 從表3中可以看出,本文提出的基于時(shí)域、空域相關(guān)性以及紋理特征的幀間預(yù)測模式判決方法,可顯著降低幀間編碼時(shí)間,而且編碼性能只有極小的損失。不同QP下平均編碼時(shí)間都超過34%的下降,QP為45時(shí),平均編碼時(shí)間下降44.67%。特別的對于運(yùn)動(dòng)比較平緩的Kimonol序列,下降的編碼時(shí)間最多,在QP為45時(shí)達(dá)到55.11%,而紋理復(fù)雜的City序列,其編碼時(shí)間平均下降也達(dá)到30%多。因?yàn)樵撍惴ú捎孟噜徸罴褏⒖級K作比較,進(jìn)一步降低判斷誤差,對編碼比特率以及PSNR影響非常小。 本文針對AVS2的幀間預(yù)測過程中多劃分模式帶來的編碼復(fù)雜度增加問題,通過利用時(shí)域、空域相關(guān)性以及CU的紋理信息,確定PU的最可能劃分方式,選擇可能性較大的模式進(jìn)行計(jì)算,從而避免遍歷計(jì)算所有模式。實(shí)驗(yàn)結(jié)果表明,本文提出的算法應(yīng)用于AVS2參考軟件中,可降低編碼時(shí)間平均約38%,而編碼性能基本保持不變,有助于其實(shí)時(shí)實(shí)現(xiàn),可促進(jìn)AVS2視頻編碼在高清、超高清視頻領(lǐng)域的應(yīng)用。 [1]黃鐵軍.AVS2標(biāo)準(zhǔn)及未來展望[J]. 電視技術(shù),2014,38(22):7-10. [2]周蕓.AVS2視頻編碼關(guān)鍵技術(shù)[J]. 廣播電視信息,2015,9(2):18-21. [3]SHEN X, YU L, CHEN J. Fast coding unit size selection for HEVC based on Bayesian decision rule[C]//Proc. Picture Coding Symposium(PCS). California,[s.n.],2012:453-456. [4]趙超,趙海武,王國中,等.快速AVS2幀內(nèi)預(yù)測選擇算法[J]. 計(jì)算機(jī)應(yīng)用,2015,35(11):3284-3287. [5]林琪,趙海武,王國中,等.面向AVS2的快速幀間預(yù)測算法[J]. 電視技術(shù),2014,38(17):76-84. [6]鄭簫楨.AVS視頻提案AVS_M3012:AMP快速?zèng)Q策機(jī)制[EB/OL].[2016-03-10].http://www.avs.org.cn/index.asp?meetingid=65&filetype=proposal. [7]孟慶磊,姚春蓮,宋建斌,等.一種面向H.264/AVC的快速幀內(nèi)預(yù)測選擇算法[J]. 北京航空航天大學(xué)學(xué)報(bào),2007,33(2):219-223. [8]LIN Y K, CHANG T S. Fast block type decision algorithm for intra prediction in H.264 [C]//Proc. International Conference on Image Processing(ICIP).Genova,Italy:[s.n.], 2005:54-58. [9]沈禮權(quán),張兆揚(yáng),劉志,等.一種結(jié)合全零塊檢測和紋理特征的快速幀內(nèi)預(yù)測模式選擇算法[J]. 四川大學(xué)學(xué)報(bào),2007,39(1):134-139. 產(chǎn)小紅(1990— ),碩士生,主研視頻編碼標(biāo)準(zhǔn)、新媒體技術(shù); 滕國偉(1975— ),碩士生導(dǎo)師,主研數(shù)字音視頻編解碼技術(shù)、智能視頻分析等; 王國中(1962— ),博士生導(dǎo)師,主研視頻編解碼與多媒體通信、圖像處理等; 趙海武(1973— ),碩士生導(dǎo)師,主研數(shù)字視頻編解碼技術(shù)、轉(zhuǎn)碼技術(shù)等; 李國平(1974— ),碩士生導(dǎo)師,主研數(shù)字音視頻編解碼技術(shù)、復(fù)用技術(shù)、網(wǎng)絡(luò)傳輸技術(shù)等。 責(zé)任編輯:薛 京 Fast decision algorithm for AVS2 inter prediction mode CHAN Xiaohong, TENG Guowei, WANG Guozhong, ZHAO Haiwu, LI Guoping (SchoolofCommunicationandInformationEngineering,ShanghaiUniversity,Shanghai200444,China) The new generation of the national independent audio and video coding standard AVS2 has been finalized. It has higher coding efficiency relatives to the previous generation, but it also increases a substantial the encoding complexity. In order to reduce AVS2 encoding complexity to achieve real-time application performance, this paper makes in-depth research on prediction unit of encoding unit and proposes a fast decision algorithm of inter prediction mode. The algorithm utilizes spatio-temporal correlation and the texture feature of coding unit to forecast coding unit’s partition mode, which can avoid iterating over all partition modes. Experiments show that the algorithm can reduce encoding time by 38% on average and the algorithm has only a little impact on encoding efficiency. AVS2; inter prediction mode; spatio-temporal correlation; texture feature 產(chǎn)小紅,滕國偉,王國中,等.AVS2幀間預(yù)測模式快速判決方法[J]. 電視技術(shù),2016,40(11):1-6. CHAN X H, TENG G W, WANG G Z, et al.Fast decision algorithm for AVS2 inter prediction mode[J]. Video engineering,2016,40(11):1-6. TN919.81 A 10.16280/j.videoe.2016.11.001 上海市自然科學(xué)基金項(xiàng)目(14ZR1415200);上海市“科技創(chuàng)新行動(dòng)計(jì)劃”項(xiàng)目(14511105602) 2016-04-11
3 實(shí)驗(yàn)結(jié)果


4 結(jié)語