999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于條件生成式對抗網(wǎng)絡(luò)的數(shù)據(jù)增強方法

2018-12-14 05:32:16陳文兵管正雄陳允杰
計算機應(yīng)用 2018年11期
關(guān)鍵詞:分類模型

陳文兵,管正雄,陳允杰

(南京信息工程大學(xué) 數(shù)學(xué)與統(tǒng)計學(xué)院,南京210044)(*通信作者電子郵箱zhengxguan@163.com)

0 引言

卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network, CNN)是一種有監(jiān)督學(xué)習(xí)模型,在視覺處理和圖像分類中性能優(yōu)越[1-7]。 LeCun等[1]提出的LeNet-5網(wǎng)絡(luò)是CNN的最初模型,該模型采用基于梯度的反向傳播(Back Propagation, BP)算法對網(wǎng)絡(luò)進行有監(jiān)督的訓(xùn)練;經(jīng)過訓(xùn)練的網(wǎng)絡(luò)通過交替連接的卷積層和下采樣層將原始圖像轉(zhuǎn)換成一系列的特征圖,再通過全連接層實現(xiàn)對圖像特征圖分類或識別,卷積層中的卷積核發(fā)揮人類視覺的感受野功能,卷積核將圖像的低級局部區(qū)域信息轉(zhuǎn)換成人類視覺的更高級形式。Krizhevsky等[2]提出一種AlexNet網(wǎng)絡(luò)架構(gòu),該架構(gòu)在大小為1 400萬張樣本、涵蓋2萬個類別的圖像數(shù)據(jù)集ImageNet上參加圖像分類競賽,它以準(zhǔn)確度超越第二名 11%的巨大優(yōu)勢奪得了2012年冠軍,這一驚人的成績引起了研究人員的普遍關(guān)注, 并使得CNN成為近年的研究熱點。Simonyan等[3]基于AlexNet針對CNN深度進行了專門研究,并提出了VGGNet網(wǎng)絡(luò)架構(gòu),該網(wǎng)絡(luò)架構(gòu)的各卷積層均采用3×3的卷積核,通過對比基于不同深度網(wǎng)絡(luò)架構(gòu)的圖像分類性能,證明了增加網(wǎng)絡(luò)架構(gòu)的深度有助于提升圖像分類的準(zhǔn)確度。近年來,對CNN模型架構(gòu)的研究及應(yīng)用仍然在迅速發(fā)展之中,在模型架構(gòu)研究方面, GoogLeNet[4]、ResNet[5]等受到廣泛關(guān)注; 另一方面,由前述模型的訓(xùn)練、測試及分類應(yīng)用可以看出,良好性能的取得依賴于大規(guī)模圖像數(shù)據(jù)集的支撐,如LeNet-5采用的訓(xùn)練集是樣本數(shù)為60 000、分類標(biāo)簽個數(shù)為10的MNIST(Modified National Institute of Standards and Technology)數(shù)據(jù)集, AlexNet、VGGNet等均采用訓(xùn)練集大小為1 400萬張、涵蓋2萬個類別的ImageNet數(shù)據(jù)集進行訓(xùn)練、測試。由此可見,訓(xùn)練集的規(guī)模對CNN性能發(fā)揮著至關(guān)重要的影響。

然而,在現(xiàn)實世界中由于受自然因素的影響和數(shù)據(jù)記錄條件的限制,得到大尺度有標(biāo)簽的數(shù)據(jù)集通常是不現(xiàn)實的,往往僅有少量的、帶標(biāo)簽的數(shù)據(jù)樣本。如某地區(qū)為了建立基于濃霧天氣形勢場的智能預(yù)報模型,由于天氣形勢場實際上就是一些等高線組成的紋理圖,霧型與紋理之間具有高度的關(guān)聯(lián)性,因此,利用CNN建模是解決這一問題的最佳選擇。然而,該地區(qū)僅記錄了2010年以來的天氣形勢圖及其對應(yīng)的出霧記錄,樣本集收集了386個樣本,對應(yīng)的霧型12類(即分類標(biāo)簽數(shù)12個)。若直接采用該樣本集訓(xùn)練CNN模型,則訓(xùn)練出的模型必然缺少泛化性[8],因此缺乏可信性及可靠性。 因此,在建立可信性及可靠性CNN模型之前,需要尋找一種可靠的擴展數(shù)據(jù)樣本及多樣性的方法,即所謂的數(shù)據(jù)增強(Data Augmentation)方法。

在數(shù)據(jù)增強研究方面,Bjerrum等[9]通過使用仿射變換生成新樣本,將樣本和新樣本混合作為訓(xùn)練集輸入到神經(jīng)網(wǎng)絡(luò)中,訓(xùn)練完成后模型的分類結(jié)果誤差控制在0.35%以下。 Goodfellow等[10]提出的生成式對抗網(wǎng)絡(luò)(Generative Adversarial Net, GAN)是一種生成式模型, 其主要思想如下: 在結(jié)構(gòu)上受博弈論中的二人零和博弈 (即二人的利益之和為零, 一方的所得正是另一方的所失) 的啟發(fā), 由一個生成器G和一個判別器D構(gòu)成。G捕捉真實數(shù)據(jù)樣本的數(shù)學(xué)分布模型, 并由學(xué)習(xí)到的分布模型生成新的數(shù)據(jù)樣本;D是一個二值分類器,用處是判別輸入是真實數(shù)據(jù)還是生成的樣本。 二者不斷學(xué)習(xí),提高各自的生成能力和判別能力。Mirza等[11]提出條件生成式對抗網(wǎng)絡(luò)(Conditional Generative Adversarial Network, CGAN)模型,該模型是有條件控制的GAN,通過對生成器和判別器添加相同的條件Y(例如數(shù)據(jù)的標(biāo)簽),從而實現(xiàn)對GAN模型控制條件。目前有很多研究自動編碼器(AutoEncoder, AE)、變分自動編碼器(Variational AutoEncoder, VAE)結(jié)合GAN的工作[12-14],目的在于提升GAN生成圖像的真實性和多樣性。

將現(xiàn)有的數(shù)據(jù)增強算法如仿射變換、GAN等應(yīng)用于天氣形勢圖,實驗顯示生成的新數(shù)據(jù)集出現(xiàn)重復(fù)率高、多樣性低等問題,利用生成的數(shù)據(jù)集訓(xùn)練CNN模型,所訓(xùn)練模型分類的正確率仍不理想。 綜上,為了更好地解決天氣形勢圖問題,提出一種集成高斯混合模型(Gaussian Mixture Model, GMM)及CGAN模型的數(shù)據(jù)增強方法,該方法不僅生成類似樣本的新圖像,在提升生成樣本的多樣性方面與傳統(tǒng)方法相比有顯著改進。

1 相關(guān)數(shù)據(jù)增強算法

1.1 仿射變換

仿射變換是一種二維坐標(biāo)(x,y)到二維坐標(biāo)(u,v)的線性變換,其數(shù)學(xué)表達式如式(1):

(1)

式(1)中的系數(shù)矩陣被稱為仿射變換矩陣。其中:θ為圖像旋轉(zhuǎn)的角度,a為圖像平移的橫坐標(biāo)移動距離,b為圖像平移的縱坐標(biāo)移動距離。

Bjerrum等[9]提出了基于仿射變換(Affine Transformation)的數(shù)據(jù)增強方法,通過對樣本圖像進行放大、縮小、平移、旋轉(zhuǎn)以實現(xiàn)生成類似樣本。實驗中,隨機生成x軸的位移為a,y軸的位移為b和旋轉(zhuǎn)角度為θ的仿射變換矩陣A,作用在輸入圖像x上,變換后的新圖像為Ax。 由于仿射變換是一種全局圖像變換,因而在聚焦于局部區(qū)域的多樣性方面該變換無法實現(xiàn)。

1.2 GAN及衍生模型

事實上,這個學(xué)習(xí)優(yōu)化過程是一個極小極大博弈(Minimax game)問題,即尋找二者之間的一個平衡點,如果達到該平衡點,D無法判斷數(shù)據(jù)來自G還是真實樣本,此時G達到最優(yōu)狀態(tài)。大量的實踐已經(jīng)證明可利用GAN解決訓(xùn)練集中樣本數(shù)量過少的問題,如Gurumurthy等[15]利用改進的GAN增強小數(shù)據(jù)集以提升訓(xùn)練器的分類精度;王坤峰等[16]提出多個GAN衍生模型以增強數(shù)據(jù)集。

GAN的結(jié)構(gòu)如圖1所示,D和G分別表示判別器和生成器,它們的結(jié)構(gòu)都為CNN。D的輸入為真實數(shù)據(jù)x,輸出為1或0;G的輸入是一維隨機噪聲向量z,輸出是G(z)。訓(xùn)練的目標(biāo)是使得G(z)的分布盡可能接近真實數(shù)據(jù)的分布pdata。D的目標(biāo)是實現(xiàn)對輸入數(shù)據(jù)的二值分類,若輸入來源于真實樣本,則D的輸出為1;若輸入為G(z),則D的輸出為0。G的目標(biāo)是使自己生成的數(shù)據(jù)G(z)在D上的表現(xiàn)D(G(z)) 和真實數(shù)據(jù)x在D上的表現(xiàn)D(x)盡可能一致,G的損失函數(shù)按式(2)計算:

(2)

式(2)描述的是,G在不斷對抗學(xué)習(xí)的過程中,生成的數(shù)據(jù)G(z)越來越接近真實樣本,D對G(z)的判別也越來越模糊。D的損失函數(shù)按式(3)計算:

Ez~pz(ln (1-D(z))))

(3)

綜上,G和D的總體損失函數(shù)可以描述如式(4)所示:

Ez~pz(ln (1-D(z))))

(4)

傳統(tǒng)的GAN模型一次只能學(xué)習(xí)一類數(shù)據(jù),對于包含多個類的數(shù)據(jù)樣本集,需逐類學(xué)習(xí)及生成相應(yīng)類的被增強樣本集,因此,效率低是模型的主要缺陷。為了解決以上問題,Mirza等[11]提出了CGAN模型,CGAN的結(jié)構(gòu)如圖2所示。該模型通過對生成器和判別器添加相同的條件Y(例如:數(shù)據(jù)的標(biāo)簽),從而使GAN模型具有多類數(shù)據(jù)的生成能力。

圖1 GAN結(jié)構(gòu)示意圖

與傳統(tǒng)GAN對比,CGAN模型僅對前者的總體損失函數(shù)進行了修改,新的總體損失函數(shù)如式(5):

Ez~pz(ln (1-D(z|Y))))

(5)

然而, GAN及CGAN在訓(xùn)練樣本過少的情況下,均存在G和D過早達到平衡點現(xiàn)象,致使G生成的數(shù)據(jù)重復(fù)度高,數(shù)據(jù)多樣性不足。

圖2 CGAN結(jié)構(gòu)示意圖

2 GMM-CGAN

如前所述,生成器G通過單一分布描述訓(xùn)練數(shù)據(jù)樣本的分布,不難理解單一分布對樣本數(shù)據(jù)特征多樣性難以反映,其直接后果是訓(xùn)練的生成器G生成的數(shù)據(jù)樣本特征單一,難以達成樣本數(shù)據(jù)集增強的目的。而高斯混合模型(GMM)的實質(zhì)是利用m(m≥3)個正態(tài)分布來刻畫樣本整體的多樣性特征,通過訓(xùn)練學(xué)習(xí)后,建立由m個組件(即m個正態(tài)分布)構(gòu)成的混合分布模型。一方面多組件構(gòu)成的混合模型能夠更好地刻畫樣本的多樣性特征,另一方面這種數(shù)據(jù)特征的多樣性又受到每個組件的約束,使得混合模型生成的新樣本既具有多樣性又保持與原樣本之間特征的相似性。基于此,為了解決上述存在的問題,將GMM集成到CGAN模型進而提出一種全新的GMM-CGAN數(shù)據(jù)增強框架,這個框架在理論上是可行的。

GAN中的生成器G的目標(biāo)是使得pdata(G(z))盡可能接近樣本分布,其中pdata(G(z))是描述G(z)的分布。 根據(jù)概率的乘法公式,pdata(G(z),z)可寫成一個已知的先驗分布密度函數(shù)pz(z),乘以pdata(G(z)|z),如式(6)所描述。 結(jié)合前面的分析,通過提升先驗分布的多樣性,從而提升G(z)的多樣性,達到生成樣本多樣性的目的。 首先,假設(shè)先驗分布的密度函數(shù)pz(z)是有m個組件GMM,如式(7),同時假設(shè)每個高斯組件的協(xié)方差矩陣為對角陣。

(6)

(7)

其中N(x;μi,σi)表示高斯混合模型的概率密度函數(shù),具體形式如式(8),在GAN訓(xùn)練的過程中,由于參數(shù)πi不能被優(yōu)化,設(shè)πi=1/m以簡化計算:

(8)

接著,利用Kingma等[12]提出的重復(fù)調(diào)參技術(shù)(Reparameterization trick)生成服從先驗分布的一維隨機噪聲向量z,z如式(9)計算:

z=μi+σiδ;δ~N(0,1)

(9)

其中:μi、σi為第i個高斯組件的均值和標(biāo)準(zhǔn)差。 重復(fù)調(diào)參技術(shù)優(yōu)點在于:可將高斯組件的參數(shù)看作為網(wǎng)絡(luò)參數(shù)的一部分進而與網(wǎng)絡(luò)參數(shù)一起訓(xùn)練及優(yōu)化。

綜合式(6)、(7)、(9),可導(dǎo)出式(10):

(10)

式(10)中,u=[u1,u2,…,uN]T,σ=[σ1,σ2,…,σN]T,m為高斯組件個數(shù),N為z的維度。高斯組件個數(shù)與生成樣本多樣性密切相關(guān),實驗分析表明,當(dāng)m在[20,30]內(nèi)變化時,生成的樣本效果較好。為了防止在實驗中σ的值變?yōu)?,在生成器G的損失函數(shù)中添加關(guān)于σ的L2正則化項,修改后的生成器損失函數(shù)如式(11):

(11)

GMM-CGAN模型結(jié)構(gòu)如圖3所示。 GMM-CGAN的參數(shù)需初始化,由于對應(yīng)于不同Y條件(樣本的標(biāo)簽)的數(shù)據(jù)分布不相同的,因此,對于每一Y條件需要對μ,σ向量初始化,令μi~U(-1,1),σi∈(0,1),其中U(-1,1)表示區(qū)間(-1,1)上的均勻分布,標(biāo)準(zhǔn)差(0,1)區(qū)間上隨機選取。

圖3 GMM-CGAN結(jié)構(gòu)示意圖

參數(shù)μ、σ按上述方法初始化后,令z=μk+σkδ,δ~N(0,1),k按照順序從1到m取值,將z輸入G進入CGAN的訓(xùn)練程序,從而達到逐個訓(xùn)練、優(yōu)化高斯組件參數(shù)μk、σk,k∈(1,m)的目的。

在CGAN被訓(xùn)練后,利用G生成新的樣本,步驟如下:

1)選定需生成樣本的標(biāo)簽;

2)在該標(biāo)簽下從μ、σ向量中任選一對分量μh、σh,h∈(1,m),并計算z=μh+σhδ,δ~N(0,1);

3)將z輸入生成器G后,即為生成的新樣本G(z);

重復(fù)1)~3),即可生成需要更具多樣性的被增強的數(shù)據(jù)樣本集。

3 實驗分析與評價

3.1 原始數(shù)據(jù)集

3.1.1 濃霧天氣形勢圖

江蘇省氣象科學(xué)研究所整理收集了自2010年以來所有霧型天氣形勢圖,霧型個例77個,每個霧型個例由記錄一個完整成霧過程的若干幅天氣形勢圖組成,一般由4~5張紋理類似、尺寸為1 600×1 500圖像組成。氣象工作人員根據(jù)霧型將這77個例分為12類別。然而,深入分析這12個霧型類別對應(yīng)的天氣形勢圖發(fā)現(xiàn),即使兩個個例同屬于一個類別,不同個例的形勢圖紋理間的差異性卻很大,故樣本的標(biāo)簽不能以類別進行標(biāo)記,而以個例標(biāo)記更為適當(dāng),采用77個分類的one-hot編碼編制樣本標(biāo)簽。在這樣的編碼機制下,每個類中有至少4張形勢圖,由于在首個歷時及最后的歷時天氣形勢圖未入型,故剔除首尾歷時未入型圖后構(gòu)成對應(yīng)個例的樣本集。通過這樣的預(yù)處理后,樣本數(shù)據(jù)集中樣本數(shù)為386,標(biāo)簽類別數(shù)為77。對樣本集按標(biāo)準(zhǔn)的70%對30%隨機劃分,分割后訓(xùn)練集樣本個數(shù)為231,測試集樣本個數(shù)為155。

3.1.2 MNIST

MNIST[1]是機器學(xué)習(xí)的常用數(shù)據(jù)集,它由數(shù)字0~ 9共計10類別6 000張手寫數(shù)字圖像組成。從每個類別中隨機抽取50張,可以得到樣本數(shù)為500的子集。對這樣的數(shù)據(jù)集按標(biāo)準(zhǔn)的70%對30%隨機分割,將樣本個數(shù)為350的數(shù)據(jù)集作為訓(xùn)練集,樣本個數(shù)為150的數(shù)據(jù)集作為測試集。

3.1.3 CIFAR 10

CIFAR 10是另外一個機器學(xué)習(xí)的常用數(shù)據(jù)集, 它由10個類別,每個類別6 000張圖,共計60 000張彩色圖像組成。實驗中將所有圖像進行灰度化預(yù)處理,從每個類別中隨機抽取50張圖像,可以得到樣本數(shù)為500張灰度圖像的子集。對樣本數(shù)為500張圖像的子集,按70%對30%隨機分割,將樣本個數(shù)為350的數(shù)據(jù)集作為訓(xùn)練集,樣本個數(shù)為150的數(shù)據(jù)集作為測試集。

3.2 數(shù)據(jù)預(yù)增強

將樣本中影響CNN分類的關(guān)鍵區(qū)域稱為核心區(qū)域。在樣本個數(shù)較少時,通過滑動圍繞核心區(qū)域的窗口反復(fù)重采樣以實現(xiàn)數(shù)據(jù)的初步增強。

如圖5所示,設(shè)在長為a、寬為b的樣本圖像上取長為l、寬為h的區(qū)域為核心區(qū)域,該核心區(qū)域左下角坐標(biāo)為(x,y)。再設(shè)滑動窗口長為α、寬為β(l<α

第1步 隨機生成參數(shù)δ∈[0,a-α],ξ∈[0,b-β]。

第3步 若滿足第2步,則輸出截取的窗口圖像;否則返回第1步。

將滑動窗口法應(yīng)用于樣本集中的每個樣本,可得到一個以核心區(qū)域為主導(dǎo)的、被初步增強的樣本集,圖4展示了該方法的演化過程。

圖4 窗口滑動法

具體到濃霧天氣形勢圖數(shù)據(jù)集,由于圖像的經(jīng)緯度及大小均一樣,這里設(shè)定圖像中心的800×800正方形區(qū)域為核心區(qū)域。 在滑動窗口法中設(shè)窗口長a=1 000,寬為b=1 000并應(yīng)用該方法,對每一張樣本作用100次,可使得樣本個數(shù)擴展100倍,圖5所示是部分預(yù)處理結(jié)果,訓(xùn)練集及測試集的樣本數(shù)分別達到23 100、15 500,總38 600張。 隨機抽取的MNIST和CIFAR 10子集無需預(yù)增強操作,直接進入GMM-CGAN處理階段。

圖5 滑動窗口法生成圖

LeNet-5、AlexNet等CNN模型,為了保證網(wǎng)絡(luò)學(xué)習(xí)的效率以及限制參數(shù)的數(shù)量級在可控范圍內(nèi),在保持原有圖像特征不丟失的情況下盡可能壓縮輸入圖像的尺寸,使CNN的參數(shù)在可訓(xùn)練的范圍內(nèi)。 例如,LeNet-5的輸入圖片尺寸為28×28;AlexNet的輸入圖片尺寸為224×224。 濃霧天氣形勢圖經(jīng)過前面的預(yù)增強,其尺寸由1 600×1 500轉(zhuǎn)化為1 000×1 000,仍需進一步壓縮處理。 對比多種壓縮算法的處理結(jié)果后,最優(yōu)的壓縮方法為下采樣法,在保留紋理的情況下圖像的尺寸由1 000×1 000壓縮到56×56,如圖6所示。

3.3 基于GMM-CGAN模型的數(shù)據(jù)增強

3.3.1 實驗采用的CGAN結(jié)構(gòu)

實驗中使用的CGAN,生成器G和判別器D為CNN,具體的結(jié)構(gòu)如表1~2所示。

表1 CGAN的生成器結(jié)構(gòu)

CGAN的其他訓(xùn)練參數(shù)如下,輸入、輸出圖像尺寸為56×56,條件信息Y為數(shù)據(jù)集的標(biāo)簽,訓(xùn)練批次為50個樣本一組,最大迭代次數(shù)設(shè)置為1 000,梯度優(yōu)化算法選擇的是Adam優(yōu)化器。 CGAN的結(jié)構(gòu)圖如圖7所示。由于CGAN的生成器和判別器的結(jié)構(gòu)都被設(shè)置為淺層卷積神經(jīng)網(wǎng)絡(luò),而且卷積核尺寸較小,通道數(shù)量較少,CGAN需要學(xué)習(xí)的參數(shù)規(guī)模不大。GMM為非神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),計算量小,故GMM-CGAN訓(xùn)練的計算復(fù)雜度與CGAN相比變化不大。

表2 CGAN的判別器結(jié)構(gòu)

圖7 CGAN的實例結(jié)構(gòu)

3.3.2 基于GMM-CGAN模型生成的樣本

濃霧天氣形勢圖數(shù)據(jù)集已通過滑動窗口法進行了預(yù)增強,得到新樣本集。以預(yù)增強的濃霧天氣形勢圖新樣本集,隨機抽取的MNIST和CIFAR 10子集作為訓(xùn)練集,按照上述步驟訓(xùn)練GMM-CGAN模型。訓(xùn)練后模型中的生成器生成的3個數(shù)據(jù)集上的新樣本與原樣本對比如圖8所示。

圖8 GMM-CGAN的生成器生成結(jié)果

3.4 增強后數(shù)據(jù)集的CNN分類

3.4.1 CNN結(jié)構(gòu)參數(shù)設(shè)置及卷積操作可視化

GMM-CGAN模型的性能體現(xiàn)在其增強后的樣本集上,如增強后的樣本集訓(xùn)練出的CNN具有很高的分類準(zhǔn)確率,那么認為所提模型是高效的。CNN的結(jié)構(gòu)選擇是一個重要的問題,因為近年提出的一些高性能CNN模型,例如GOOGLE-NET、 VGG and ResNet等。與傳統(tǒng)的CNN相比,這些網(wǎng)絡(luò)的特殊模塊可以一定程度上減弱模型過度擬合數(shù)據(jù),例如:殘差模塊[5]、Incepetion模塊[4]、Dropout層[3]等。 如果使用以上提到的高性能CNN作為測試網(wǎng)絡(luò),在分析CNN分類效率時會產(chǎn)生困難,因為無法區(qū)分?jǐn)?shù)據(jù)增強算法增強對分類結(jié)果的影響還是這些網(wǎng)絡(luò)的結(jié)構(gòu)使然。

綜上,自定義了被稱為TestNet的CNN模型,結(jié)構(gòu)如圖9所示,可以更加精確比較和分析不同數(shù)據(jù)增強算法應(yīng)用到濃霧天氣形勢圖集的數(shù)據(jù)增強的效果。

圖9 TestNet的數(shù)據(jù)流圖

該模型共有3個卷積層,其中第一卷積層(C1層)中的卷積核尺寸為5×5,第二卷積層(C2層)和第三卷積層(C3層)的卷積核尺寸為3×3,卷積核選擇尺寸較小利于減小網(wǎng)絡(luò)的復(fù)雜度;三層卷積層的卷積核尺寸由大變小的目的是為了先總體后局部的學(xué)習(xí)樣本特征;設(shè)置多個不同的卷積核有利于網(wǎng)絡(luò)學(xué)習(xí)樣本圖像中不同的特征,卷積操作后生成的圖像被稱為特征圖,C1層共有96個特征圖, C2和C3分別有256和384個不同的特征圖, 網(wǎng)絡(luò)具體的結(jié)構(gòu)參數(shù)設(shè)置如表3所示。 選擇ReLu函數(shù)為網(wǎng)絡(luò)的非線性激活函數(shù),如式(12)所示:

fReLu=max(0,x)

(12)

ReLu函數(shù)與其他非線性激活函數(shù)[13]相比,具有計算簡便、不易發(fā)生梯度爆炸等特點;在卷積層后設(shè)置下采樣層,用于減少CNN整體的參數(shù)量。TestNet的其他訓(xùn)練參數(shù)如下,輸入圖像尺寸為56×56,訓(xùn)練批次(Batch)為50,最大迭代次數(shù)設(shè)置為1 000,損失函數(shù)為交叉熵,梯度優(yōu)化算法是Adam算法。 為了觀察逐層卷積后的特征圖,每一層卷積后圖像的輸出結(jié)果,如圖10所示。

表3 TestNet的結(jié)構(gòu)

3.4.2 對比實驗設(shè)計及評價指標(biāo)

為了對比所提GMM-CGAN模型與傳統(tǒng)數(shù)據(jù)增強算法的增強效果,設(shè)計了其他3個對比實驗,其中一個為空白對照組,即不使用數(shù)據(jù)增強算法(None),其余對比實驗的數(shù)據(jù)增強算法為僅使用仿射變換、僅使用CGAN。將在不同數(shù)據(jù)集上,實現(xiàn)這4個實驗。在相同數(shù)據(jù)集上,除各個實驗使用的數(shù)據(jù)增強算法不同,訓(xùn)練集、測試集中的樣本數(shù)量相同等其余控制變量均相同。實驗環(huán)境的配置如下,硬件方面:CPU是Intel Core i7 9280,內(nèi)存為16 GB DDR4,GPU采用的是NVIDIA GTX1080。軟件方面:操作系統(tǒng)是Windows 10 64 b版本,實現(xiàn)的平臺是基于Python的Tensorflow框架,其中有CUDA9.1以及CUDNN7加速包的支持。

圖10 各個卷積層的輸出結(jié)果

利用數(shù)據(jù)增強后的數(shù)據(jù)集訓(xùn)練TestNet,針對網(wǎng)絡(luò)的分類結(jié)果,以平均分類正確率和過擬合比評價數(shù)據(jù)增強算法的性能。對于數(shù)據(jù)集中某一類圖像的正確分類情況,定義了分類正確率如式(13):

Acc=images_correct/images

(13)

其中:images_correct表示在該類中網(wǎng)絡(luò)分類正確的圖像數(shù)量,images表示該類中圖像的總數(shù)。

對包含n類的樣本集,定義了平均分類準(zhǔn)確率如式(14):

(14)

其中Acci表示第i類的分類正確率。

反映CNN是否過擬合訓(xùn)練數(shù)據(jù)的指標(biāo)為過擬合比(OverfitRatio),其定義如式(15):

OverfitRatio=Train_AvgAcc/AvgAcc

(15)

其中OverfitRatio中的Train_AvgAcc表示用訓(xùn)練后的網(wǎng)絡(luò)測試原訓(xùn)練集的平均分類正確率。

3.5 實驗結(jié)果分析與評價

表4記錄了在3個數(shù)據(jù)集上分別實現(xiàn)4個實驗,共12個實驗的平均分類正確率及過擬合比。

圖11按數(shù)據(jù)集展示了在該數(shù)據(jù)集上實驗的平均分類正確率隨迭代次數(shù)增加的變化趨勢,未使用數(shù)據(jù)增強算法的實驗組,在各個數(shù)據(jù)集上平均分類正確率最低;使用所提GMM-CGAN的實驗組,在各個數(shù)據(jù)集上平均分類正確率最高。過擬合比是反映模型過擬合數(shù)據(jù)程度的指標(biāo),過擬合比越低模型的泛化性越好,反之泛化性越差。表4展示了12個實驗的過擬合比,因未使用數(shù)據(jù)增強算法的實驗組中訓(xùn)練樣本的相似度較高,所以過擬合比最高;其中使用所提的GMM-CGAN的實驗組過擬合比最低,說明所提模型提升數(shù)據(jù)的多樣性最高。

圖11 不同增強算法在各數(shù)據(jù)集上的正確率曲線

綜上所述,所提的GMM-CGAN模型具有收斂快,在相同迭代穩(wěn)定后平均正確率高的特點。 使用真實數(shù)據(jù)的實驗證明所提模型是可靠的、高效的。

表4 各數(shù)據(jù)集增強后的分類結(jié)果

4 結(jié)語

本文所提的GMM-CGAN模型,在原有濃霧天氣形勢圖基準(zhǔn)集的基礎(chǔ)上有效擴展了濃霧天氣形勢圖數(shù)量,解決了濃霧天氣形勢圖基準(zhǔn)集因數(shù)據(jù)量偏小無法有效訓(xùn)練CNN的問題。 GMM-CGAN方法生成的新數(shù)據(jù)集所訓(xùn)練的CNN, 其平均分類準(zhǔn)確率達到89.1%,證明GMM-CGAN方法及所訓(xùn)練的CNN架構(gòu)性能均高度可靠。未來工作將進一步研究其他類型小數(shù)據(jù)集場景(如數(shù)值型小數(shù)據(jù)集的增強)的增強模型。

猜你喜歡
分類模型
一半模型
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 色综合网址| 国产在线视频自拍| 97国产成人无码精品久久久| 色综合手机在线| 欧美亚洲欧美区| 欧美国产中文| 青青草欧美| 久久久久无码国产精品不卡| 亚洲国产精品美女| 欧美日韩亚洲综合在线观看 | 精品人妻一区二区三区蜜桃AⅤ| 九九热精品视频在线| 成人中文在线| 伊人久久综在合线亚洲91| 色婷婷综合激情视频免费看| 久久性视频| h网址在线观看| 久久这里只有精品23| 亚洲国产综合精品一区| 91视频区| 亚洲熟女中文字幕男人总站| 欧美综合区自拍亚洲综合天堂| 亚洲欧洲日产无码AV| 色AV色 综合网站| 91精品人妻互换| 九九热视频在线免费观看| a级毛片免费看| 国产欧美网站| 国产在线观看一区精品| 成年A级毛片| 国产丝袜丝视频在线观看| 国产高清又黄又嫩的免费视频网站| 亚洲欧洲日本在线| 三级欧美在线| 国产一二三区视频| 欧美A级V片在线观看| 久久精品国产精品青草app| lhav亚洲精品| 久久综合九九亚洲一区| 在线播放精品一区二区啪视频| 污视频日本| 久草性视频| 欧美日韩国产成人高清视频| 91九色国产porny| 99色亚洲国产精品11p| 亚洲综合色婷婷| 四虎影视无码永久免费观看| 伊在人亞洲香蕉精品區| 色窝窝免费一区二区三区| 欧美天天干| 91精品伊人久久大香线蕉| 国产成人高清在线精品| 久久久久久久蜜桃| 性色一区| 国产成人综合欧美精品久久| 国产一区二区影院| 国产成人免费高清AⅤ| 色噜噜综合网| 国产日产欧美精品| 国产精品男人的天堂| 午夜在线不卡| 成人午夜在线播放| 亚洲色图欧美在线| 欧美亚洲国产一区| 99热6这里只有精品| 亚洲国产AV无码综合原创| 国产精品手机在线播放| 日韩欧美视频第一区在线观看| 久久亚洲美女精品国产精品| 亚洲天堂免费| 国产99欧美精品久久精品久久| 亚洲a级毛片| 久久99国产视频| 精品剧情v国产在线观看| 国产精品蜜臀| 性视频久久| 六月婷婷综合| 全部毛片免费看| 国产成人91精品| 欧美成人午夜影院| 中文字幕免费播放| a毛片在线|