999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度學習模型TAGAN 在強對流回波臨近預報中的應用

2022-08-01 23:29:38胡家暉盧楚翰姜有山何婧
大氣科學 2022年4期
關鍵詞:模型

胡家暉 盧楚翰 姜有山 何婧

1 南京信息工程大學氣象災害教育部重點實驗室/氣候與環境變化國際合作聯合實驗室/氣象災害預報預警與評估協同創新中心,南京 210044

2 南京市氣象局, 南京 210009

1 引言

對流降水的臨近預報長期以來一直是天氣領域的一個重要研究課題。目前,制作0~3 小時內臨近天氣預報和發布災害性天氣警報的主要依據是天氣雷達觀測資料以及結合快速同化的數值模型,雷達回波的外推法是臨近預報的主要手段(俞小鼎等, 2012; 王國榮等, 2019)。 傳統的雷達回波外推法主要是質心跟蹤法、交叉相關法以及變分回波跟蹤算法(陳明軒等, 2007; 韓雷等, 2007; 吳劍坤等,2019),一些計算機視覺技術,如基于光流的方法也可以用于預測雷達回波圖(韓雷等, 2008; 曹春燕等, 2015)。但傳統的方法對長時間的預測效果不佳,且不能很好地推演出回波的生消情況。

近年來,深度學習模型在處理視頻預測任務上有較多應用(Oprea et al., 2020),基于雷達的臨近預報本質是一個時空序列預測任務,同樣也可看成一個視頻預測任務,以過去序列雷達回波圖作為輸入,預測未來的雷達回波圖,因而通過深度學習的技術來解決臨近預報問題是一個很好的思路。Shi et al.(2015)使用ConvLSTM模型(Convolutional Long-Short Term Memory)在降水臨近預報中獲得顯著效果,該模型的時空相關性更優于FC-LSTM(Graves, 2013),且模型相對于傳統的基于光流的模型有一定的優勢。在后續的改進中,Shi et al.(2017)考慮了雷達回波旋轉特性,通過動態改變隱狀態間的連接結構提出TrajGRU(Trajectory Gated Recurrent Unit),并為深度學習模型在臨近預報的應用提供了極具參考意義的基準對比試驗。韓豐等(2019)使用ST-LSTM 單元組成的循環神經網絡進行雷達臨近預報試驗,其預報結果比交叉相關法在各項指標上要表現的更好,但雷達強回波中心預報效果不太理想。施恩等(2018)使用動態卷積神經網絡模型在雷達回波外推任務中進行了嘗試,相對于傳統的外推方法有一定提升。郭瀚陽等(2019)的試驗表明深度學習模型較之傳統外推法在準確率上有明顯的提升。近年來,模型結構構建與改進的嘗試逐步得以開展,通常雷達回波外推模型采用多層編碼—解碼結構,而模型的改進一般分兩種。一種是對編解碼結構進行修改擴充,如在編碼解碼端連接處加入注意力模塊,或如Star-BridgeNet(Cao et al., 2019)在解碼端改造每個輸出時間步之間的連接方式。另外,也有對基本的循環神經網(RNN)模塊改造如針對回波的平穩和非平穩隨機過程建模的MIM(Wang et al., 2019)。

需指出的是,當前大部分深度學習模型結構主要基于RNN 和卷積神經網(CNN),受限于卷積核的大小,普通的卷積層只能提取到有限范圍且固定的信息,對于范圍較大的系統性回波刻畫能力往往受到限制。對于RNN模型,預測的效果往往隨時間變差,一方面由于大氣的混沌和高度非線性難以預測,另一方面RNN 的預測依賴于上一時間步的輸出,誤差將會增加和累積。生成式對抗網絡(GAN)是另一個在計算機視覺任務中常用的模型,它通過生成器和判別器的博弈學習數據真實的分布。而Woo et al.(2018)提出利用嵌入式的注意力模塊,可以提高神經網絡的不同尺度特征提取能力,關注重要的特征抑制不重要的特征。另一方面,盡管光流法對系統生消以及時效有其局限性,但其對已知時刻的回波系統的位置變化以及運行特征有較強的刻畫能力,因此能否在深度模型編碼階段(預報因子構建)融入光流法刻畫信息,從而提升模型的預報性能?為此,針對上述兩個問題本文嘗試使用雙流注意力生成對抗網(Two-stream Attention GAN,TAGAN),通過加入計算機視覺任務中常用的注意力模塊并且融入帶有運動信息的光流場,使用過去1 h 的雷達回波拼圖數據預測未來1 h 的回波演變,將此模型與Woo and Wong(2017)提出的Rover 變分光流法(Real-time Optical flow by Variational methods for Echoes of Radar)和基于3D 卷積原理的3D U-Net(簡稱3DUnet )模型進行對比檢驗,給出了測試集上的對比檢驗結果和回波過程個例可視化結果,并分析了導致預測效果差異的原因。

2 資料與方法

2.1 雷達資料選取及數據預處理

本文使用的數據集是深圳市氣象局與香港天文臺根據近年的雷達數據共同建立的“標準雷達數據集2018”(https://tianchi.aliyun.com/competition/entrance/231662/information [2021-01-05])。該 數據集由32 萬組連續雷達回波圖像組成。在本次實驗中取前1 h 間隔6 min 共10 幀的回波圖(反射率因子),預測后1 h 共10 幀回波圖,挑選出了具有明顯回波過程(即樣本中至少一個時次含有10 dBZ以上的數據占比20%以上)的樣本(共2.2 萬組序列樣本),將缺測值用相鄰四個不為缺測的格點數值取平均后填充,分別在數據集的訓練組和測試組上用長度為20、步長為10 的滑窗進行切割獲得輸入部分不相交的序列樣本,在訓練組上切割出本次試驗的訓練集和驗證集,在測試組上切出測試集。其中訓練集和驗證集一共2 萬組序列樣本比例為8:2,測試集一共2000 組序列樣本。為濾除回波噪聲,對訓練和測試數據進行中值濾波(即將每一個像素點的值設置為窗口內所有像素點的中值),濾波會對圖像有一定的模糊化。之后進行歸一化處理。整套所用數據中,10~20 dBZ、20~30 dBZ、30~40 dBZ和大于40 dBZ的格點頻率分別為28%、37%、29%、5.7%。

2.2 模型

2.2.1 TAGAN模型

在搭建TAGAN模型的過程中基本預測模型采用3 層編碼—解碼結構的RNN,RNN 基本單元使用Ballas et al.(2015)提出的ConvGRU(Convolutional Gated Recurrent Unit),ConvGRU 的公式如下:

其中,*表示卷積操作, ?表示哈達瑪積操作。Zt為GRU 單元的更新門,Rt為GRU 單元的重置門,σ為激活函數,為上一時刻的隱狀態、經重置門的數據、輸入數據Xt計算而成的。而最終輸出的Ht為經過更新門更新的隱狀態。ConvGRU 是基于門控的循環單元,將其進行堆疊可以擴大頂層的感受野捕捉到更大范圍的回波從而更好的學習到雷達回波演變特征。具體編碼解碼結構共有三層(如圖1),每一層都由RNN(ConvGRU 單元)、注意力模塊和卷積層組成,卷積層一方面用來對數據進行上、下采樣,從而讓模型訓練的顯存控制在可以接受的范圍內,另一方面可以提取到回波數據的低維到高維的信息。其中編碼端和解碼端ConvGRU 單元的卷積核數量分別為64、192、192。輸入數據在編碼端經過多層信息提取,被壓縮成隱狀態輸入到解碼端,經過解碼端解碼成預測的雷達回波數據,編碼解碼結構對稱,在編碼解碼連接端每一層的解碼器接受對應層編碼器輸出的隱狀態數據。

圖1 TAGAN模型生成器模型圖Fig. 1 TAGAN model generator model diagram

如圖2 所示模型訓練框架基于生成對抗網絡(Goodfellow et al., 2014),包括生成器(Generator)和判別器(Discriminator)兩部分,訓練過程中生成器與鑒別器交替訓練,最終達到平衡時生成器可以生成接近真實的數據。模型內部的卷積層均由2D 卷積層、批量歸一化層、LeaklyReLU(負斜率設置為0.2)激活函數組成。GAN 的原理如公式(5)所示:

圖2 TAGAN模型結構圖Fig. 2 TAGAN model structure diagram

其中,生成器的目的是生成更為真實的雷達回波序列從而騙過判別器,判別器的目的是盡可能地區分出來自生成器和來自真實的雷達回波序列。c表示輸入雷達回波序列,D(x|c)表示鑒別器對真實數據輸出的概率,D(G(x|c))表示鑒別器對生成器預測數據輸出的概率。

雷達回波的預測由生成器(編解碼結構)完成,以往的大多數模型試驗中輸入部分只有雷達回波數據,而TAGAN 在回波數據進入模型時加入了其對應時刻的光流圖,因此模型接受的數據不僅是過去時刻的回波圖。其目的一方面在于融入了預測因子(前序回波圖)的額外光流信息,另一方面光流圖又起到了約束的作用,使模型做預測的時候能在更小的范圍里進行選擇?;夭ㄐ蛄袌D和光流圖分別經過對應的卷積層(第一層)進行特征融合,之后數據流經過卷積層下采樣通過注意力模塊進入ConvGRU 單元,在訓練的過程中嘗試了在卷積層中加入若干殘差塊(He et al., 2016),提高卷積層提取信息的能力。判別器使用若干卷積層組成,后使用sigmoid 函數激活,數值范圍在0~1 之間。

此外,生成器的前兩層采用CBAM(Convlutional Block Attention Module)注意力模塊(圖3),該模塊是Woo et al.(2018)提出的輕量級注意力模塊,它可以自由地嵌入到卷積網絡中從而提高網絡的特征提取能力,對重要特征起突顯作用。例如,在不同種類貓圖像分類的任務中,對于分類結果影響最大的部分就是圖像中貓形態的特征而非背景,注意力模塊可以賦予圖中貓部分高權重和背景低權重。CBAM 包含通道注意力和空間注意力兩個部分,通道和空間注意力模塊采用全局平均池化和最大池化來計算注意的權重系數,將兩者順序組合成CBAM 后嵌入TAGAN 中,在數據流入CBAM模塊時可以學到相對整個過程中需要更加注意的區域。

圖3 CBAM模塊結構圖,包含通道注意力模塊(左部)和空間注意力模型(右部)Fig. 3 CBAM module structure diagram, including the channel attention module (left part) and the spatial attention model (right part)

最后,在模型的最后一層采用self-attention 自注意力模塊(Zhang et al., 2019),該模塊的結構圖如圖4 所示。該模塊與CBAM模塊的作用類似,其也是強調在原始特征中何處需要加強注意從而更好的提高網絡特征提取與變換的能力,模塊中原特征圖經過三個1×1 的卷積后分別得到三個特征圖,通過前兩個特征圖計算出attention 權重系數在與第三個特征圖作矩陣乘法運算得到注意力特征圖,最后將注意力特征圖與原特征圖相加得到最終輸出的特征圖,自注意力模塊可以學到任意位置的依賴關系。由于自注意力的計算開銷比較大,所以放在編碼和預測模塊的底層(最后一層)。

圖4 Self-attention模塊結構圖, ?表示矩陣乘法運算Fig. 4 Self-attention module structure diagram ( ?: matrix multiplication operation)

基于上述的模型,完整的回波數據進入模型到預測的過程如下:10 幀回波數據和對應光流場依次經過第一層卷積層融合后進入CBAM 注意力模塊接著進入ConvGRU 單元,繼而以相同方式進入第二層和第三層,但第三層的注意力模塊為Selfattention模塊。其中第一個時間步的ConvGRU 單元隱狀態初始化為0,數據在編碼端最終被壓縮成3 個張量(最后一個時間步3 層ConvGRU 輸出的隱狀態),這三個張量包含著從低維到高維10 幀回波圖像以及對應光流場演變的信息,以此作為初始化的隱狀態進入解碼端對應的ConvGRU 中,在解碼端的計算首先從第三層開始,第三層ConvGRU的輸入初始化為0,隱狀態來自對應層的編碼端ConvGRU,數據流方向與編碼端相反,卷積層使用轉置卷積進行上采樣將尺寸較小的特征圖重構為預測的回波圖像,在后續預測的時間步中計算依據上一時刻輸出的隱狀態,這種方式可以預測變長序列。最終解碼端將會輸出10 幀預測的回波圖像,接著預測的回波數據和真實回波數據分別拼接輸入回波數據交替進入判別器進行訓練,判別器反向傳播的梯度也會進入生成器(編碼解碼結構)幫助生成器更好的預測,理想的判別器輸出概率應為0.5,即生成器生成的回波數據達到了以假亂真的效果,使得判別器不能以較大的概率判定其是真是假,生成器和判別器達到納什平衡。

2.2.2 損失函數

在雷達回波預測的任務中,常用的損失函數有平均平方誤差(MSE)和平均絕對誤差(MAE),但該兩個損失函數容易造成預測圖像的模糊化,為了更好的生成圖像和更精確的預測還引入了圖像梯度差損失函數(GDL)和結構相似性損失函數(SSIM)。

SSIM 是計算兩張圖片的相似度的函數,其定義如下:

其中,l(x,y)為亮度相似度,c(x,y)為對比相似度,s(x,y)為結構相似度。μx和μy分別是x和y的平均值,而σx和σy則是x和y的方差,σxy是x和y的協方差。C1、C2、C3是維持數值計算穩定的常數。訓練過程中使用的SSIM 損失函數(Zhao et al.,2017)如下:

訓練過程中的圖像梯度差損失函數如下所示:

其中,i和j為坐標,在訓練過程中α取1。

對抗損失函數如下:

其中Lbce為二分類交叉熵損失函數,D為鑒別器。

最后本次試驗中使用的損失函數如下:

關于對抗損失函數Ladv的參數設置,訓練步驟請詳細參考Mathieu et al.(2016)和Isola et al.(2017),Lp是帶權重的MSE 和MAE,越高的回波值賦予越高的權重。

2.2.3 對比模型

U-Net 是圖像分割領域常用的模型,其多尺度融合的結構常用于高分辨率圖像分割任務。作為本次試驗的對比模型我們采用了圖5 基于三維卷積的3DUNet模型(?i?ek et al., 2016),在開源模型的基礎上對網絡深度,卷積核及步長進行修改以適用于本次試驗數據。較之于2D 卷積3DUnet模型的卷積操作全部采用3D 卷積,在提取時序信息的功能上更為強大。另一個對比模型是傳統的基于光流的Rover模型。

圖5 3DUnet模型概念示意圖Fig. 5 Conceptual schematic diagram of the 3DUnet model

3 試驗

3.1 試驗方案

TAGAN模型訓練使用Adam 優化器,初始學習率根據繪制不同學習率下的損失函數下降速率圖,選擇合適的學習率,學習率衰減采用每2 個輪次減0.7。在訓練過程中采用l2 正則約束,訓練策略采用早停策略,當驗證集損失函數值連續1 個epoch 不下降后停止訓練,在試驗過程中批量大小分別選擇2 進行訓練,效果在卷積層不使用批量歸一化層時較好。在訓練過程中嘗試了DCGAN(Radford et al., 2015),WGAN-GP(Gulrajani et al., 2017)等不同GAN 的損失函數和訓練方式,發現對抗損失的權重系數對訓練結果至關重要,單獨只使用對抗損失函數訓練時非常容易導致訓練失敗,需要模型訓練初期以MSE 與MAE 損失函數為主導損失函數,然后再將對抗損失函數作為主導損失函數進行訓練。作為基線對比模型3DUnet 只使用帶權重的平均平方誤差和平均絕對誤差作為損失函數,驗證集結果最優的TAGAN 迭代了10 萬次,3DUNet 迭代了6 萬次。

3.2 檢驗方法與結果

測試集上的檢驗指標采用氣象中常用的命中率(POD)、虛警率(FAR)也稱誤報率以及臨界成功指數(CSI),以及HSS(Heidke Skill Score)技巧評分(Hogan et al., 2010)。各檢驗指標的計算公式如下:

其中,TP 表示觀測回波大于閾值且預測回波大于閾值,FN 表示觀測回波大于閾值且預測回波小于閾值,FP 表示觀測回波小于閾值且預測回波大于閾值,TN 表示觀測回波小于閾值且預測回波也小于閾值。相應的混淆矩陣如表1 所示。根據不同閾值下的混淆矩陣,按上述公式計算檢驗指標。為了更全面的對比模型預測的效果還計算了MSE、MAE 以及空間相關系數。

表1 混淆矩陣Table 1 Confusion matrix

表2 的檢驗結果顯示,本文所設計的TAGAN模型在10~40 dBZ閾值下的臨界成功指數、命中率和HSS 評分基本高于傳統光流法,而對于虛警率FAR 這一指數兩種深度學習模型均低于傳統光流法。特別地,TAGAN模型在未來30 min 和60 min的預測評分上明顯優于3DUnet模型。另外,由表3顯示,深度學習模型尤其TAGAN模型在測試集上的6~60 min 整體平均的平方誤差和絕對誤差數值也明顯低于光流法,同時空間相關系數TAGAN模型也為最高,這表明TAGAN模型性能在本文的三種方法中最優。需指出的是,在40 dBZ閾值下三種模型的預測效果均很差,這可能與訓練樣本中強回波數據稀少有關,盡管在數據預處理時已經對數據集樣本進行過篩選,但受限于整個數據集里的強回波樣本稀少(5.7%),導致模型對強回波預測的能力欠佳。

表2 測試集檢驗對比Table 2 Test set comparison

表3 測試集檢驗對比Table 3 Test set comparison

為進一步顯示三種不同方法對于強降水過程的預測性能,圖6 分別給出了30 dBZ閾值樣本子集的三種模型FAR 和HSS 測試集平均得分在6~60 min的時間變化??梢郧逦目闯觯?0 dBZ閾值下三種方法的平均FAR 及其離散度均隨時間逐漸增加,平均FAR 由低至高依次為TAGAN、3DUnet 和光流法。三種方法的平均HSS 隨時間則逐漸降低,同時離散度隨時間而增加,TAGAN 平均HSS 評分最高,而3DUnet 在前30 min 優于光流法,但30 min后性能差于光流法??傮w看,TAGAN模型的強降水過程預測性能依然明顯好于其他兩種方法。

圖6 30 dBZ 閾值下三種模型FAR 和HSS 測試集平均得分隨時間變化(折線),陰影上下界代表測試集所有樣本得分的上下四分位數Fig. 6 Average scores of the False Alarm Rate and Heidke Skill Score test sets of the three models under 30 dBZ threshold change over time (broken line): the upper and lower bounds of the shade represent the upper and lower quartiles, respectively, of the scores of all samples in the test set

為了更加直觀和定量化的展示不同模型之間的差異,選取四組個例并對它們6~60 min 預測的效果作詳細分析。圖7 首先給出了這四組個例在最后一幀(60 min)的三種不同方法與真實場的回波分布情況,總體上三種方法能較好地預測這四個個例未來一小時的回波系統位置以及強度。從清晰度看,光流法的清晰度最高,但圖像有扭曲現象,其次為3DUnet,TAGAN 相對模糊。兩種深度方法的清晰度均弱于光流法,主要是由于深度學習模型預測過程中使用了平均平方誤差(MSE)和平均絕對誤差(MAE),這兩個損失函數容易造成預測圖像的模糊化,且圖像模糊情況隨著時間增加,它們更趨向一個“平均”的結果。但是,如果仔細對比這些個例的強回波區(如大于30 dBZ區域)的位置以及強度,會發現TAGAN 的預測情況較光流法和3DUnet 更接近真實的回波分布,即光流法和3DUnet 對于強回波的區域的預測存在部分偏移以及局部地區系統把握不準所致,導致FAR 偏高。而TAGAN模型的圖像更為平滑,回波形狀與真實形狀相符合,FAR 更低。為更細致地刻畫三種方法對強回波的預測效果,圖8 進一步給出了四組個例對預測的10 個時次逐次計算的FAR 和HSS 得分??梢钥吹?,TAGAN 在6~60 min時段預報的虛警率明顯低于光流法和3DUnet,與此同時TAGAN的HSS 評分也明顯高于其余兩種方法。并且,隨著時間的推移,其他兩種方法相對TAGAN 的性能差距進一步拉大。相對而言,光流法和3DUnet 對這四個個例的6~60 min 預測評分接近。

圖7 四組預測個例最后一幀對比。(a–d)分別為四組回波過程,每一列分別為真實過程、Rover、TAGAN、3DUnet 在四組預測個例中的最后一幀Fig. 7 Comparison of the last frame of the four sets of prediction cases, where (a–d) are the four sets of echo processes, and each column is the last frame of the real process, Rover, TAGAN, and 3DUnet in the four sets of process predictions

圖8 四組預測個例三種模型(紅色:3DUnet,綠色:Rover,藍色:TAGAN)6~60 min 30 dBZ 閾值的FAR(實線)和HSS(虛線)技巧評分Fig. 8 Four groups of prediction cases and three models (red: 3DUnet; green: Rover; and blue: TAGAN) under 6–60 min of 30 dBZ threshold FAR(solid line) and HSS (dashed line) skill scores

此外,為進一步對比三種方法個例中強回波區隨時間的演變,分別計算了四個個例大于30 dBZ強回波主體(圖9 紅框區域)質心在6~60 min 的變化(圖10),可以清晰地看出TAGAN模型對強回波主體隨時間變化的預測與真實情況更為接近。以個例4 為例(圖10d),TAGAN模型預測的強回波區移動以西南—東北向為主,與真實情況相接近,而光流法則是以西南—東北偏南為主,3DUnet 的偏移更大,以偏北移動為主。從這四個個例強回波質心的相對移速和60 min 的質心位置看,TAGAN模型仍然優于其它兩種方法。

圖9 四組預測個例第一幀回波圖真實值,其中紅框為計算質心的范圍(覆蓋未來9 幀回波主體范圍),藍線輪廓為回波值大于30 dBZ 的回波主體Fig. 9 True value of the first frame of the four groups of prediction cases: the red box represents the range of the calculated centroid covering the range of the echo subject of the next nine frames), while the blue line outline is the echo subject with an echo value greater than 30 dBZ

圖10 四組預測個例10 個時次回波值大于30 dBZ 回波主體的質心移動軌跡。其中,紅色:真實回波;棕色:3DUnet;灰色:Rover;綠色:TAGANFig. 10 Four groups of prediction cases during the 10 times the echo value is greater than 30 dBZ. Center of mass movement trajectory of the echo subject: real echo (red); 3DUnet (brown); Rover (gray); TAGAN (green)

其中雷達質心的計算方式如下:

式中,m(i,j)為橫縱坐標為(i,j)的網格上回波反射率大于30 dBZ的值。

因此,綜合以上四個個例的結果分析表明,TAGAN模型在三種方法中性能最優,盡管光流法和3DUnet 的圖像清晰度高于TAGAN,但更容易出現扭曲和偏差現象,導致誤報率明顯上升以及預報準確率的下降。另外,在TAGAN模型的訓練和預測過程中發現,對于TAGAN 在訓練過程中如果提高對抗損失函數的權重,生成的圖像也會相對更加“銳化”,但卻會出現圖像清晰后回波位置準確度明顯降低的現象,從而導致檢驗評分下降的情況,因此超參數的設置對最終預測圖像的效果至關重要。3DUnet 的預測性能相對較差可能與其模型參數量小有關,雖然3D 卷積在處理時空序列數據時比2D 卷積有強大的優勢,Unet 多尺度融合的結構也常用來生成高分辨率的圖像,但參數量小可能會導致模型的泛化能力大大下降,在預測復雜多變的任務時效果會欠佳。

4 結論與討論

雷達回波外推為短時臨近預報提供了重要的指導,本文使用TAGAN模型進行臨近預報試驗和多模型對比檢驗。該模型在傳統的多層編碼解碼結構的基礎上將兩種注意力模塊組合嵌入結構中,在輸入的雷達回波數據中融合對應時刻的光流數據,并在訓練時結合對抗生成損失函數、權重的MSE 和MAE 等多種損失聯合訓練模型,以此提升模型的預測能力。研究結果表明, TAGAN 在多種檢驗指標的評分上優于基于卷積神經網絡的3DUnet模型和傳統Rover 光流法模型??傮w上,雖然光流法的預測圖像清晰度高于TAGAN 和3DUnet 深度學習

模型,但在各項評分指標上深度學習模型尤其是TAGAN 優于光流法。相較而言,3DUnet 和光流法在未來一小時的預報場上會更多出現回波圖像扭曲和偏差現象,對強回波系統執行的移動描述能力有待提高。另外,TAGAN 的超參數設置對預測效果作用明顯,隨著損失函數中對抗損失函數權重的提高,圖形清晰度隨之提高,但清晰度到達一定程度后其整體評分反而會出現下降的情況。

需指出的是,試驗過程中我們嘗試了不同損失函數的組合。發現如只用MSE 和MAE 損失函數,清晰度明顯較光流法預測差,主要原因是在使用MSE 損失函數的時候假設數據是高斯分布的,但在梯度反傳的時候,損失函數計算的是拼接在一起的序列預測值與真實序列值,于是對空間上出現的不連續回波區和時間上的旋轉和耗散擬合不夠,導致訓練的結果是在總體上的距離與真實分布相近,因此預測的結果就會出現直觀上的一個“平均”現象。另一方面,但是如果只使用對抗損失或者以對抗損失為主導的損失函數,則容易出現模式崩塌現象。例如,預測的數據本應局限在有雷達回波的位置,但卻覆蓋了整個空間并出現明顯的不連續以及不合理回波區。這主要是由于GAN 訓練過程中,目標映射可能不在生成器的可表示泛函空間之中,導致了收斂困難。因此,有必要同時結合MAE、MSE 和對抗損失進行模型構建。

需指出的是,近年來機器學習在氣象領域應用廣泛,而利用深度學習方法進行雷達回波外推及短時預測作為當前的一個研究熱點仍存在三個亟待解決的問題:(1)雷達回波或降水數據集歷史積累不夠,樣本量需要進一步擴大。傳統的解決辦法包括但不限于:針對數據集過采樣、欠采樣、使用帶權重的損失函數以分割數據集訓練不同的模型訓練然后集成。但試驗中發現效果提升不明顯,反映在模型預測中強回波過程的強度和落區不能很好地表現出來,一些強回波過程諸如臺風,因訓練集中樣本較小導致預測效果很差。此外,機器學習嚴重依賴數據集的質量和特征工程,數據集的質量直接決定了預測效果的下限,如何從氣象的角度出發構建清洗數據集并提高數據質量,針對包括雷達回波外推在內的氣象預測任務做出更對應的特征工程亟待解決。(2)預測圖像模糊,這是當前雷達回波外推深度學習乃至視頻預測領域的難題,當圖像的尺寸較小時效果尚佳,但當做高分辨率預測時模糊的問題尤其凸顯,本次試驗也對改善此問題做了一定的嘗試。除了引入改善圖像的損失函數外,另一解決辦法就是將高分辨率圖像分割成尺寸較小的不同塊訓練,在預測時再拼接回去,但這樣會造成整體圖像不連續拼接痕跡明顯。(3)預測效果隨時間變差,PredRNN++(Wang et al., 2018)的設計結構以及其使用的CausalLSTM 單元對此問題有一定的改善。綜上,深度學習方法對降水臨近預報業務的提升具有一定的科學意義和較好的應用,但仍有待進一步探索和研究。

致謝感謝深圳市氣象局與香港天文臺根據近年的雷達數據共同建立的“標準雷達數據集2018”。感謝審稿專家和編輯對本文的改進提出的寶貴意見。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产丝袜一区二区三区视频免下载| 国产精品亚洲专区一区| 欧美亚洲国产日韩电影在线| 毛片免费视频| 看av免费毛片手机播放| 亚洲人成网站观看在线观看| 日韩人妻精品一区| 香蕉久人久人青草青草| 日本午夜三级| 成人福利在线视频免费观看| 精品国产自在现线看久久| 国产Av无码精品色午夜| 亚洲女人在线| 伊人激情综合| 激情五月婷婷综合网| 亚洲精品日产精品乱码不卡| 精品国产欧美精品v| 国产91丝袜在线播放动漫| 免费一级α片在线观看| 美女啪啪无遮挡| 久久精品国产亚洲麻豆| 国产美女91视频| 国模粉嫩小泬视频在线观看| 亚洲男人的天堂久久香蕉网| 99视频有精品视频免费观看| 国产精品人莉莉成在线播放| 综合亚洲色图| 在线观看国产黄色| 91视频精品| 中文纯内无码H| 久久人午夜亚洲精品无码区| 91av国产在线| 激情综合网激情综合| 久久亚洲中文字幕精品一区| 国产91熟女高潮一区二区| 亚洲有无码中文网| 国产精品专区第1页| 国产真实乱了在线播放| 日韩精品久久久久久久电影蜜臀| 亚洲精选无码久久久| 久久99热66这里只有精品一| 亚洲国产成人久久77| 色135综合网| 亚洲精品视频网| 精品午夜国产福利观看| 好紧太爽了视频免费无码| 国产真实二区一区在线亚洲| 国产精品va| 亚洲成AV人手机在线观看网站| 91免费国产在线观看尤物| V一区无码内射国产| 国产精品综合色区在线观看| 国产精品网曝门免费视频| 四虎影视库国产精品一区| 国产福利拍拍拍| 三区在线视频| 在线观看精品自拍视频| 欧美特黄一免在线观看| 丁香婷婷在线视频| 欧美区一区| 中文成人无码国产亚洲| a天堂视频| 欧美亚洲欧美| 欧美综合中文字幕久久| 中文字幕在线视频免费| 亚洲精品777| 国产成人免费观看在线视频| 久久国产精品国产自线拍| 国产在线一区二区视频| 久久久精品无码一二三区| 欧美α片免费观看| 日韩精品一区二区三区免费在线观看| 亚洲一区二区三区香蕉| 日韩在线第三页| 亚欧美国产综合| 99热这里只有精品在线观看| 中日无码在线观看| 无码aⅴ精品一区二区三区| 香蕉综合在线视频91| 欧美国产综合色视频| 国产精品人莉莉成在线播放| 99视频有精品视频免费观看|