999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于聯合深度學習的地震數據隨機噪聲壓制

2021-02-05 01:04:38李新月董宏麗
石油地球物理勘探 2021年1期
關鍵詞:特征效果模型

張 巖 李新月 王 斌 李 杰 董宏麗

(①東北石油大學計算機與信息技術學院,黑龍江大慶 163318;②東北石油大學人工智能能源研究院,黑龍江大慶 163318)

0 引言

噪聲壓制是地震資料處理的基礎工作[1-2],旨在提升地震數據的信噪比,以提高后續地震資料處理和解釋的效率及精度。現有的地震數據隨機噪聲壓制方法可以劃分為基于模型的去噪和基于數據驅動的去噪兩大類。

基于模型的地震數據去噪方法是通過建立數據的分布模型預測包含噪聲數據的真實情況。該方法又可進一步劃分為時域和變換域兩類,其中時域去噪方法中,具有代表性的是濾波法[3-4],基本原理是利用地震數據時域分布的特點構建濾波函數以去除噪聲數據;變換域去噪方法中常用的有Fourier變換[5]、Radon變換[6]、Wavelet變換[7-9]等,基本原理是利用數據在某個基函數空間中具有比較好的分布特征,先將數據投影到變換域,然后分析變換系數中有效信號和噪聲分布的特點,建立相應的分布模型,預測變換域去除噪聲的系數,最后反變換回時域以達到去噪的目的。

基于數據驅動的地震數據去噪方法則是根據大量樣本數據的特點,通過自適應學習的方式獲得樣本數據的特征,利用學習得到的主要特征表示地震數據。該方法又可進一步劃分為淺層學習和深度學習兩類。

在淺層學習中,具有代表性的是學習型超完備字典方法,如基于K-奇異值分解(K-Singular Value Decomposition,K-SVD)的超完備字典學習的去噪方法[10],通過對待處理數據的學習和訓練,自適應地調整變換基函數,以適應特定數據本身,可以更充分地稀疏表示地震數據。Tang等[11]、張巖等[12]將該方法引入地震數據處理,利用超完備字典學習技術,根據地震數據的本身特點,自適應構造超完備字典,稀疏表示地震數據,從而恢復數據的主要特征,取得了較好的去噪效果。此類方法學習得到的特征是一種表示數據的基函數(或者叫原子),是一種淺層的特征,待處理的數據可以轉化為字典中若干個原子的線性組合。

近年來,隨著大數據、人工智能的發展和GPU等硬件計算能力的提升,深度學習方法通過增加神經網絡的層數,得到樣本數據更深層次的特征,在計算機視覺領域得到了突破性的進展,同時在地震數據處理中也逐漸得到關注[13-15]。當前基于深度學習的去噪方法通常采用殘差學習[16-17]、生成對抗網絡[18]、降噪自編碼[19-21]等技術,基本原理是利用大量的樣本覆蓋待處理數據的特征,通過多層卷積的方式提取數據時域的特征,然后采用深度學習的非線性逼近能力調整網絡參數,從而建立一個復雜的去噪模型,用于去除待處理數據的噪聲。該類方法較傳統方法去噪效果有大幅提升,但仍然存在兩個方面主要問題。

(1)通常僅關注單一時域或者傳統變換域(如傅里葉變換域、小波變換域等)的特征提取。如韓衛雪等[22]提出的用于地震數據去噪的網絡模型,與常規地震數據去噪算法相比,具有更好的去噪效果,但由于僅考慮時域提取特征,導致去噪過程中出現細節的丟失。Zhang等[16]提出的基于殘差學習的卷積去噪網絡(Residual Learning of Deep CNN for Image Denoising,DnCNN)算法,采用卷積殘差學習框架,從函數回歸角度出發,用卷積神經網絡(Convolutional Neural Networks,CNN)將噪聲從含噪圖像中分離出來。Yu等[23]系統地介紹了DnCNN算法用于地震數據壓制的過程并討論了CNN的超參數設置問題。Wang等[24]也將DnCNN模型應用于地震數據噪聲壓制,取得了較好的效果。Zhao等[25]從圖像塊大小、卷積核大小、網絡深度、訓練集等方面對原始DnCNN進行了改進,使其適用于低頻和沙漠區地震資料非高斯噪聲的抑制。Dong等[26]在此基礎上,采用自適應DnCNN算法對沙漠地震資料進行去噪處理,有效提高了低頻資料的信噪比。Yang等[17]擴展了原有的DnCNN模型,構造了地震數據隨機噪聲衰減的卷積神經網絡(CNN for Randon Noise Attenuation of Seismic Data, SDACNN),將激活函數替換為指數線性單元(Exponential Linear Units,ELU)以增強網絡的魯棒性。以上方法均可以歸結為基于DnCNN模型及其改進的去噪方法,而DnCNN僅關注時域的特征提取,忽略了數據在頻域的特征,導致去噪地震數據中紋理特征損失較大。地震數據中同相軸的紋理特征是判斷油氣貯藏位置的關鍵,若考慮結合頻域的特征,可在一定程度上抑制假頻、使紋理保持效果得到較大的提升。Zhang等[19]和Chen等[20]基于無監督學習中自編碼的概念,采用自編碼的方式將地震數據降維以提取主要特征,再通過上采樣層恢復到原尺寸,自適應地學習有效信號,實現無監督的地震數據隨機噪聲抑制,取得了較好的效果,但也忽略了地震數據在頻域的特征,性能仍存在較大的提升空間。

Liu等[27]提出的多級小波卷積神經網絡 (Multi-level Wavelet CNN,MWCNN)模型考慮圖像的小波域分布特性,提出一種多級小波 CNN 框架,將離散小波變換與卷積網絡結合,充分考慮了圖像的頻域特征。Zhu等[28]利用短時傅里葉變換(Short-time Fourier Transform,STFT)將時域數據轉化為頻域數據,將實部和虛部傳入卷積神經網絡,網絡根據輸入數據產生信號和噪聲掩膜,再利用相關掩膜進行估計,得到地震信號和噪聲的頻域系數,最后利用逆STFT得到時域去噪信號和噪聲。以上兩種方法的卷積處理過程僅在頻域中進行,忽略了時域的特征,因此在地震數據能量較弱的區域,無法僅根據有限的特征判別真實數據和噪聲數據,從而導致局部紋理模糊的現象。

(2)使用的卷積核通常為較小的固定尺寸,提取地震數據的特征信息不充分,影響感受野大小。相同條件下,如果想得到相同范圍的感受野就只能增加網絡深度,但網絡深度的增加會使提取的特征越來越高級,導致地震數據丟失較多的細節信息。例如 Zhang等[16]、韓衛雪等[22]和其他部分學者基于DnCNN模型的改進[23-26]均使用固定大小為3×3的卷積核,學習到的噪聲不充分,且具有較深的層數,容易造成過擬合現象。由于沒有充分權衡卷積核大小與網絡深度之間的關系,容易出現訓練時間較長和細節信息丟失的問題。李傳朋等[29]的去噪卷積神經網絡模型采用3×3與5×5的卷積核相結合的方法,去噪效果明顯提高。

針對上述問題,本文提出基于聯合深度學習的地震數據隨機噪聲壓制方法。首先,地震數據隨機噪聲壓制模型結合時域和頻域特征,利用聯合誤差定義損失函數,綜合描述不同空間中地震數據的特征;其次,考慮到地震數據中包含復雜的地質結構和較強的非局部自相似性,采用一種擴充卷積的方式,利用多種尺寸的卷積核提取特征,增加地震數據特征提取的多樣性,增大感受野,減少網絡過擬合,提高收斂速度;再次,模型利用殘差網絡不斷提取每層網絡的噪聲特征, 將噪聲從含噪數據中分離出來;最后,網絡利用批歸一化(Batch Normalization,BN)算法實行歸一化,進一步提高地震數據去噪效果。

1 方法原理

1.1 網絡模型結構

圖1 網絡模型結構圖

模型中還包括BN(Batch Normalization,批量歸一化)層和修正線性單元(Rectified Linear Unit,ReLU)。模型的深度為10層,第1層由EConv和ReLU組成,EConv擴充因子為1,即卷積核大小為3×3,用于提取含噪地震數據的特征,卷積處理后得到128個特征映射。ReLU激活函數用于執行非線性映射,去除地震數據中的冗余, 盡可能保留噪聲數據的主要特征。第2層至第9層分別由EConv、BN和ReLU組成,EConv擴張因子依次為2、3、4、5、4、3、2、1,對應卷積核大小分別為5×5、7×7、9×9、11×11、9×9、7×7、5×5、3×3,每層卷積處理后都得到128個特征映射,用于加快并穩定訓練過程, 提升去噪性能。第10層由EConv組成,擴充因子為1,卷積核大小為3×3,卷積操作后得到1個特征映射,即為殘差網絡學習到的噪聲。

針對地震數據去噪的特點,模型具體思路及設計如下:

(1)聯合時、頻域的損失函數。由于當前大多數基于深度學習的去噪模型忽略時域與頻域的聯系,導致數據紋理細節損失較大。本文充分考慮時域和頻域的特征,將傅里葉變換與卷積神經網絡相結合,利用時域和頻域聯合誤差定義損失函數,改善去噪效果,消除假頻。

(2)擴充卷積。為了平衡卷積核大小與網絡深度之間的關系,采用擴充卷積的方式,在保留了傳統3×3卷積優點的基礎上,通過調整擴充因子增加感受野。從第1層至第10層,擴充因子分別設置為1、2、3、4、5、4、3、2、1、1,網絡各層感受野大小分別為3、7、13、21、31、39、45、49、51、53。相同條件下,Dn-CNN模型如果達到大小為53的感受野,則需要26層的網絡深度,但網絡層數過多會導致丟失較多的細節信息。

(3)殘差網絡學習。由于網絡的輸入與輸出具有很強的相似性,殘差學習更適合于地震數據的去噪。網絡模型通過提取大量含噪數據樣本學習噪聲的特征,將含噪數據與所學到的噪聲相減,得到去噪后地震數據。

(4)輸入、輸出尺寸保持一致。在卷積操作過程中,由于卷積計算的特點,逐層卷積會使特征圖越來越小,特征表示能力也越來越弱,還會導致最后的數據邊界引入噪聲。本文提出的模型在每次卷積操作前,均對待處理數據用0擴充邊界,確保每層輸出的特征圖與輸入保持相同尺寸。

1.2 聯合損失函數的構造

目前基于深度學習的圖像去噪優化函數往往采用均方誤差(Mean Squared Error,MSE)損失函數。本文在時域MSE的基礎上,引入傅里葉域MSE聯合設計損失函數,其中MSE定義為去噪數據與原始不含噪聲數據的均方誤差,即

(1)

神經網絡模型的目標函數為聯合時域和頻域的最小化損失函數,即

(2)

1.3 擴充卷積的構造

卷積神經網絡特征提取的核心在于通過卷積核與圖像卷積運算提取特征。傳統二維卷積運算的數學定義為

(3)

卷積操作需經過180°旋轉,然后對應位置相乘并求和。卷積神經網絡中的二維卷積運算與傳統二維卷積的算法原理相同,在實現的方式上略有不同,不需要旋轉,直接對相應位置相乘并求和,即

(4)

式(3)和(4)中:z是卷積層的輸入數據矩陣;ω是卷積核;p、q分別表示卷積核的高度和寬度;i、j代表卷積操作后像素點的位置。

為了增加特征信息提取的多樣化,采用擴充卷積的方式獲得更多特征信息,并為網絡提供更大的感受野,從而在噪聲壓制過程中充分利用地震數據的非局部自相似性,保留更多地震數據內部的有效信息。 擴充卷積通過增加每層的卷積核尺寸以增加感受野,定義卷積核的寬和高均為(2r+1)。結合擴充卷積后的卷積操作表示為

ω(2r+1,2r+1)

(5)

傳統卷積與擴充卷積的操作對比如圖2所示,擴充卷積每層的感受野大小為

圖2 經典卷積(a,卷積核大小為3×3)與擴充卷積(b,擴充因子為2,卷積核大小增至5×5)對比

G(i)=[G(i-1)-1]×stride(i)+c(i)

(6)

式中:stride(i)為第i層卷積操作的步長;c(i)為第i層卷積核尺寸大小。

2 模型測試

選擇Marmousi模型數據測試本文方法。將Marmousi模型數據裁剪得到10000個300個采樣點×207道的切片數據x,將數據集分別按照80%、10%、10%的比例劃分為訓練集、驗證集、測試集。地震數據的隨機噪聲通過0均值正態分布的高斯隨機噪聲仿真,噪聲的標準差與原始地震數據的標準差成正相關。噪聲標準差定義為

(7)

式中:M為切片時間采樣總數;N為切片地震道采樣總數;xt,s為x中坐標為(t,s)的元素,t為時間采樣序號;s為地震道記錄序號;u為地震數據x的均值;l為噪聲強度的比例因子。

去噪效果的衡量指標可采用峰值信噪比(Peak Signal to Noise Ratio,PSNR)、信噪比(Signal Noise Ratio,SNR)或結構相似性(Structural Similarity Index,SSIM),對應表達式為

(8)

(9)

(10)

在訓練過程中,學習率初始設定為0.001,采用Adam算法優化學習目標,根據前一次迭代的誤差調整學習率的大小,提高收斂速度與逼近效果。Epoch設置為50次,批大小設置為20,網絡的輸入、輸出尺寸均為300×207。實驗硬件平臺采用Intel I7、8核CPU,內存為32G,GPU為GeForce RTX 2080 SUPER。操作系統為64位Ubuntu 18.04 LTS,軟件平臺采用Python 3.6環境,聯合深度學習框架使用Pytorch1.2搭建。

2.1 網絡層次結構分析

為證明本文提出網絡模型的有效性,分別對時頻域聯合損失函數、擴充卷積、殘差學習策略、BN層的作用進行測試。

2.1.1 時頻域聯合損失函數

將未結合F-K域損失函數的模型與本文模型(結合F-K域損失函數)對比測試(迭代50次)。本文模型的PSNR稍高于未結合F-K域損失函數(圖3);兩個模型的訓練過程均具有穩定的收斂性能,且本文模型的MSE略低于未結合F-K域損失函數模型,去噪效果的誤差更小(圖4)。

圖3 不同模型計算誤差函數的PSNR對比

圖4 不同模型計算誤差函數的MSE對比

圖5為同一樣本在兩種模型下的去噪效果圖。對比圖5c與圖5d可見,結合F-K域誤差模型的去噪結果,在圖中圓形區域內同相軸更光滑,表明聯合F-K域計算損失函數模型的紋理保持效果優于單一時域的誤差模型。另外,測試集的去噪效果(圖5d)與圖3中訓練集穩定時的PSNR很接近,擬合效果較好。從PSNR、SSIM、SNR的評價指標來看,也說明本文模型較單一時域的誤差模型噪聲壓制效果更好。圖5e和圖5f分別為未結合F-K域計算損失函數的殘差剖面和本文模型的殘差剖面,前者的殘差還保留部分原始地震數據的紋理,而本文算法的殘差更接近真實的隨機噪聲。

此外,將僅含F-K域損失函數的模型與本文模型對比實驗,含噪地震數據如圖5b所示,圖6a為僅含F-K域計算目標函數的噪聲壓制效果,可見其PSNR、SNR和SSIM值均低于聯合目標函數。由于無法僅根據有限的特征判別真實數據和噪聲數據,導致地震數據能量較弱的區域(矩形標記區域)中的同相軸信息的丟失。相比本文模型的殘差剖面(圖5f),僅含F-K域計算目標函數的殘差剖面(圖6b)包含較強的有效信號,說明對有效信號的保護效果不夠理想。

圖5 不同模型去噪效果對比圖(a)原始地震數據;(b)加入l為0.05的高斯隨機噪聲后的地震數據;(c)未結合F-K域計算損失函數的去噪結果;(d)結合F-K域計算損失函數的去噪結果;(e)未結合F-K域計算損失函數的殘差剖面;(f)結合F-K域計算損失函數的殘差剖面圖c和圖d的左上方較大圓形區域為中間較小圓形區域的放大展示。圖c中:PSNR=39.0700dB,SNR=33.1892dB,SSIM=0.8553。圖d中:PSNR=39.6300dB,SNR=33.7171dB,SSIM=0.8920

圖6 僅含F-K域計算目標函數的去噪結果(a)和殘差剖面(b)圖a中:PSNR=36.6800dB,SNR=29.3225dB,SSIM=0.8130

2.1.2 擴充卷積

將3×3的經典卷積核與本文所提出的模型對比

測試。在網絡深度均為10層的前提下,擴充卷積的感受野大小為53×53,傳統3×3卷積的感受野大小則為21×21。若欲使傳統的3×3卷積得到相同范圍的感受野,則需要將網絡深度擴展到26層。因此采用三種不同的策略對比實驗,策略A為卷積核大小為3×3的10層網絡模型;策略B為本文所提出的網絡模型;策略C為卷積核大小為3×3的26層網絡模型。

在l為0.03的條件下,訓練過程中PSNR收斂情況如圖7a所示,策略A和策略B模型分別訓練23和30次達到收斂狀態,而策略C需要訓練37次才能達到收斂狀態。相比之下,前兩者的訓練時間效率更高。另外,通過對比三者PSNR,發現本文網絡模型在訓練集上最終收斂的PSNR為44dB,比策略A的PSNR約提高3dB。在測試集上,本文模型的平均PSNR為42.3dB,比策略A的PSNR平均約提高2.4dB。

在l為0.03的條件下,訓練過程中MSE收斂情況如圖7b所示,可見相比于策略A和策略B,策略C的MSE曲線波動更劇烈且不穩定。相比于策略A,本文網絡模型的MSE曲線在訓練達到穩定時的誤差更小,去噪效果更好。

圖7 不同網絡結構模型訓練PSNR (a)和MSE(b)對比

實驗表明,擴充卷積的優勢在于通過設置擴充因子增大感受野。從擴充因子的設定方面考慮,對比4組不同的擴充因子設置方案,包括對稱的擴充因子設置(r=1、2、3、4、5、4、3、2、1、1,記為策略D;r=3、3、2、2、1、1、2、2、3、3,記為策略E)和非對稱的擴充因子設置(r=1、1、2、2、3、3、4、4、5、5,記為策略F;r=1、2、3、4、5、6、7、8、9、10,記為策略H),收斂情況的對比結果如圖8所示。由圖可見,對稱式擴充因子的設置明顯優于非對稱設置,擴充因子的對稱設置使模型收斂較快,并且訓練趨于穩定時的PSNR也較高,表明對稱式的特征提取更適用于地震數據的去噪。此外,在兩組對稱式的擴充因子設置方案中,策略D優于策略E,原因在于不同的擴充因子決定了不同尺度的卷積核大小,多種類的擴充因子增加了特征提取的多樣性,使地震數據中的噪聲提取更充分。

圖8 各組擴充因子模型的收斂情況對比

2.1.3 殘差學習策略

將不含殘差學習的模型與本文所提模型對比實驗。在l為0.05的情況下,不含殘差學習的模型的PSNR曲線有多處劇烈波動,呈鋸齒形上升;本文模型的PSNR曲線更穩定、更快地收斂(圖9a)。

圖9b為模型有、無殘差學習的MSE對比圖,可見隨著迭代次數的增加,兩模型的MSE均逐漸降低,但不含殘差學習模型較本文模型波動更為劇烈且收斂更慢。

圖9 有、無殘差學習模型的PSNR(a)與MSE(b)對比

2.1.4 殘差網絡中加入BN層

將不含BN層的模型與本文所提模型對比實驗。在l為0.05的情況下,不含BN層的模型的PSNR曲線波動劇烈而且收斂較慢;相反,本文模型的PSNR曲線更穩定、收斂更快(圖10a),并且本文模型在測試集上的平均PSNR值比前者高約1.9dB。

圖10b為模型有、無殘差學習的MSE對比,可見不含BN層模型的MSE曲線波動劇烈且不穩定,而本文模型的MSE曲線更穩定地收斂。

圖10 有、無BN層模型的PSNR(a)與MSE(b)對比

2.1.5 網絡模型的部分特征圖分析

為了分析模型去噪的中間環節的運行狀態,任選一批測試集中的一個樣本在去噪過程中的部分特征如圖11所示。原始Marmousi地震數據切片為圖5a,加入l為0.05的高斯隨機噪聲后的地震數據如圖5b,圖11a為經過第1層(EConv+ReLU)中128個3×3的卷積核處理得到的特征圖。可以看出每個卷積核學習到不同的特征,由于是網絡第1層提取的特征,其中保留一些較為微弱且連續的原始地震數據的同相軸信息。經過第2~第9層(EConv+BN+ReLU)處理后,又分別得到128個特征圖,其中EConv擴張因子分別為2、3、4、5、4、3、2、1,對應的卷積核大小分別為5×5、7×7、9×9、11×11、9×9、7×7、5×5、3×3。截取第4層和第8層提取的特征圖,由圖可見經過4層卷積處理后(圖11b),同相軸信息被認為是有效信號不再被提取,卷積核提取的是含有地震數據大致輪廓的含噪特征圖;經過8層卷積提取(圖11c),模型得到的幾乎全是噪聲,不再含有原始數據的輪廓和同相軸等有效信息。為了清楚顯示特征提取的效果,將第2層、4層、6層、8層的第1個卷積核提取的特征圖放大

圖11 網絡模型去噪過程中經過不同層網絡后的特征圖(a)第1層;(b)第4層;(c)第8層

展示(圖12a~圖12d),可以看出模型從淺層學習提取的特征包含有效信號到深層特征僅包含噪聲的變化過程。在此基礎上,經過第10層EConv處理后,得到1個特征圖(圖12e),對應擴充因子為1、卷積核大小為3×3,該特征圖即為殘差網絡學習到的所有噪聲。最后將原始含噪聲的地震數據與網絡模型學習到的殘差相減,得到該網絡模型的最終輸出結果(圖12f),即去噪后的地震數據。

圖12 部分特征圖的放大展示(a)第2層第1個卷積核提取的特征;(b)第4層第1個卷積核提取的特征;(c)第6層第1個卷積核提取的特征;(d)第8層第1個卷積核提取的特征;(e)經過第10層網絡后得到的特征;(f)最終去噪結果

2.2 本文方法與其他同類方法對比

將本文提出的網絡模型與Curvelet變換、DCT超完備字典、K-SVD自適應學習超完備字典、Dn-CNN的噪聲壓制效果進行對比。

2.2.1 相同強度隨機噪聲情況

任選一個Marmousi地震數據樣本,原始數據如圖5a所示,圖13a為加入l為0.03的高斯隨機噪聲后的地震數據,其中矩形標記區域中的同相軸信息被噪聲嚴重干擾。對圖13a分別運用Curvelet變換、DCT字典、K-SVD字典、DnCNN以及本文算法進行噪聲壓制,并對比效果。

圖13b為Curvelet變換稀疏表示后的去噪效果,由于Curvelet變換適用于分析二維信號中的曲線邊緣特征,在地震數據處理領域應用比較廣泛,可以看出地震數據中部分噪聲得到了壓制,但仍存在大量噪聲。

圖13c為DCT字典學習的去噪效果,地震數據被劃分成可重疊且固定大小的數據塊以保持局部特征,可見去噪效果得到改善,但由于單一的DCT基不能自適應地反映圖像的局部特征,因此矩形標記區域中的部分同相軸信息被當成噪聲去除。

圖13d為基于K-SVD自適應學習的超完備字典稀疏表示去噪效果,在DCT變換的基礎上構造的超完備冗余字典,有效地捕捉了主要特征,進一步提高了去噪效果,但K-SVD算法不考慮數據塊之間的相似性,導致數據塊邊界與局部波形變化劇烈的地震道失真。

圖13e為基于深度學習的DnCNN去噪效果,通過利用大量的樣本覆蓋待處理數據的特征,采用多層卷積、非線性映射等方式提取數據時域的特征,不斷調整網絡模型直至找到一個使誤差最小的參數。該方法雖然效果有大幅提升,但由于僅關注時域特征,在地震數據能量較弱的區域無法僅根據有限的特征判別真實數據和噪聲數據,導致矩形標記區域中的同相軸信息的丟失。

圖13f為本文算法去噪效果,結合F-K域計算損失函數,從時域和頻域聯合考慮誤差,改善噪聲去除的效果,采用擴充卷積增加地震數據特征提取的多樣性,減少了地震數據細節的丟失。可以看出,與DnCNN去噪算法相比,本文算法細節損失明顯減弱,同相軸紋理也更加清晰。

圖13 不同去噪算法在相同強度高斯隨機噪聲下的去噪效果對比(a)加入l為0.03的高斯隨機噪聲后地震數據;(b)Curvelet變換;(c)DCT超完備字典;(d)K-SVD自適應學習超完備字典;(e)DnCNN方法;(f)本文方法

以上不同方法去噪后的PSNR、SNR、SSIM對比如表1所示。可見本文方法較其他同類方法去噪效果更好。另外,分析有效信號的保護效果。各種去噪方法的殘差剖面如圖14所示。原始數據如圖5a所示,圖14a為加入l為0.03的高斯隨機噪聲后的殘差剖面,圖14b~圖14d分別為Curvelet變換、DCT超完備字典、K-SVD自適應學習超完備字典噪聲壓制后的殘差剖面,這三種方法均包含隨機噪聲和較強的信號,對有效信號的保護效果不理想。圖14e為DnCNN噪聲壓制后的殘差剖面,可見信號保護的效果已有明顯提升。圖14f為本文算法噪聲壓制后的殘差剖面,較前面四種去噪方法而言,有效信號保護能力最強。

圖14 不同去噪算法在相同強度高斯隨機噪聲下的殘差剖面對比(a)加入l為0.03的高斯隨機噪聲后;(b)Curvelet變換噪聲壓制后;(c)DCT超完備字典噪聲壓制后;(d)K-SVD自適應學習超完備字典噪聲壓制后;(e)DnCNN噪聲壓制后;(f)本文方法噪聲壓制后

表1 不同方法去噪效果對比

2.2.2 不同強度隨機噪聲情況

為對比不同算法對不同強度噪聲的適應性,表2列出了不同算法在加入較低強度高斯隨機噪聲(l為0.01~0.08)條件下噪聲壓制后的SNR對比,可見本文算法優于其他算法的噪聲壓制效果。

表2 不同算法在加入較低強度高斯隨機噪聲下噪聲壓制后的SNR對比 dB

表3為不同算法在加入較高強度高斯隨機噪聲(l為0.1~0.8)下噪聲壓制后的SNR對比,可見當l小于0.3時,本文算法比其他算法的去噪效果更好;當l大于0.3時,由于噪聲較強,大部分有效地震數據被噪聲淹沒,導致各種算法的去噪效果均不理想,尤其是Curvelet變換采用的硬閾值處理方法,去噪效果較差。本文算法與DCT、K-SVD、DnCNN的噪聲壓制效果比較接近。

表3 不同算法在加入較高強度高斯隨機噪聲下噪聲壓制后的SNR對比 dB

2.3 本文模型對不同強度隨機噪聲的去噪效果對比

分別在原始數據加入不同強度的噪聲作為訓練數據,將訓練保存好的模型應用于不同強度噪聲的測試集上,以加入l為0.01~0.08的高斯隨機噪聲為例,對比訓練數據不同的噪聲強度對結果的影響(表4)可以看出如下特點。

(1)以原始數據加入l=0.03噪聲等級的測試集為例(表4中l=0.03的列),采用l=0.03強度的噪聲訓練的網絡取得了該列中最高的SNR值,該列的其他訓練噪聲強度因子l=0.02、0.04、0.05的訓練集得到的網絡,去噪效果比較接近。

(2)以l=0.03噪聲等級的訓練集為例(表4中l=0.03的行),該模型不僅對l=0.03的噪聲強度去噪有效,對l=0.02、0.04的噪聲強度也表現出了較好的去噪效果。因此本文算法對于測試集噪聲分布與訓練集分布較為接近時具有一定的泛化能力。

表4 不同強度噪聲的訓練數據對測試數據噪聲壓制后的SNR對比 dB

3 實際資料處理

3.1 數據訓練

為了進一步說明本文算法的噪聲壓制效果,以實際地震數據為樣本測試不同去噪算法(圖15)。

圖15 任意樣本及訓練效果展示(a)原始地震數據;(b)加入強度l為0.03的高斯隨機噪聲后數據;(c)第50次迭代訓練的去噪結果;(d)第50次迭代訓練去噪后的殘差剖面。圖b和圖c的PSNR、SNR、 SSIM 分別為27.4771dB、23.2793dB、0.6185和41.85162dB、37.4036dB、0.9578

為了提高訓練效率與特征提取的精度,在原始地震數據的基礎上進行了裁剪處理,得到2000個300個采樣點×500道的切片數據。為了減少單個樣本特征的復雜程度,在實際訓練過程中,對其中1800個樣本進一步處理,均以50個道為間距平移、裁剪得到7個200道×300個采樣點的切片數據,共得到12600個樣本,其中訓練集包含11200個樣本,驗證集包含1400個樣本,其余的200個尺寸為300個采樣點、500道的切片數據作為測試集。訓練過程中學習率初始設定為0.001,采用Adam算法優化學習目標,Epoch設置為50次,批量大小設置為20。

為說明本文算法對訓練數據庫樣本去噪的訓練效果,在第50次迭代中任意選取一個樣本進行展示(圖15)。圖15a為原始地震數據,圖15b為加入l為0.03的高斯隨機噪聲后的地震數據,圖15c為第50次迭代訓練后的去噪效果。通過評價指標SNR和SSIM可以看出,本文模型在實際數據的訓練階段具有較強的噪聲壓制效果。圖15d為第50次迭代訓練去噪效果的殘差剖面,可以看出本文模型具有較強的有效信號保護與隨機噪聲逼近能力。

3.2 數據測試

為充分測試本文算法對實際地震數據的適用性,選取了兩組實際數據,第一組為經過噪聲壓制預處理的實際數據,第二組為原始實際數據。

3.2.1 經過預處理的實際數據實驗

為了說明本文算法對測試數據庫樣本的去噪效果,在測試數據庫中任意選取一個經過預處理的實際地震數據樣本如圖16a所示,其中矩形標記區域(記為Ⅰ區域)中的數據同相軸較密集且特征明顯,而橢圓形標區域(記為Ⅱ區域)中的數據能量較弱且特征不明顯。加入強度l為0.03的高斯隨機噪聲后的地震數據如圖16b所示,受噪聲的影響,Ⅰ區域同相軸變得模糊且不連續,而Ⅱ區域內能量弱的部分幾乎不能直觀看出原始數據的特征。圖16c為Curvelet變換噪聲壓制效果,可以看出Ⅰ區域同相軸的邊緣得到了較好的恢復,但Ⅱ區域的特征被看成是噪聲,導致有效信號和噪聲一起被壓制。圖16d為DCT超完備字典噪聲壓制效果,Ⅰ區域同相軸不密集并且Ⅱ區域的紋理細節丟失。圖16e為K-SVD自適應學習超完備字典噪聲壓制效果,同DCT的噪聲壓制效果類似。圖16f為DnCNN噪聲壓制效果,訓練數據集的噪聲強度l的覆蓋范圍為0.03~0.10,以提高模型在該區間的泛化能力,訓練好的網絡模型記為G1,可以看出Ⅰ區域同相軸連續且細節信息保持較好,Ⅱ區域出現細節丟失的現象。圖16g為本文算法噪聲壓制效果,采用與G1模型相同的訓練數據集,訓練好的網絡模型記為G2,由于采用擴張卷積充分提取噪聲特征,使Ⅰ區域和Ⅱ區域都保留了較好的細節信息,和原始地震數據的相似度最高。以上方法去噪后的PSNR、SNR、SSIM對比如表5所示。

圖16 不同方法對預處理后實際數據的噪聲壓制效果對比(a)預處理后原始疊后海洋地震數據;(b)加入l為0.03的高斯隨機噪聲后數據;(c)Curvelet變換方法;(d)DCT超完備字典方法;(e)K-SVD自適應學習超完備字典方法;(f)DnCNN方法;(g)本文方法

表5 不同方法去噪后的PSNR、SNR、SSIM對比

3.2.2 原始實際數據實驗

在測試數據庫中任意選取原始的實際地震數據樣本如圖17a所示,紅色矩形Ⅰ區域中的地震數據同相軸較密集且特征明顯;紅色矩形Ⅱ區域中的地震數據信息被噪聲淹沒,無法識別;紅色矩形Ⅲ區域中的同相軸受噪聲影響,連續性較差。經過Curvelet變換噪聲壓制后(圖17b),Ⅱ區域和Ⅲ區域同相軸的邊緣得到了較好的恢復,總體上雖然抑制了一些噪聲,但Ⅰ區域中仍含有大量噪聲,去噪效果不夠明顯。經過DCT超完備字典噪聲壓制后(圖17c),Ⅰ區域和Ⅲ區域中同相軸信息得到了較好的恢復,去噪效果比較明顯,但Ⅱ區域中的有效信號和噪聲一起被壓制,導致紋理細節的丟失。經過K-SVD自適應學習超完備字典噪聲壓制后(圖17d),同DCT的噪聲壓制效果類似。圖17e和圖17f分別為網絡模型G1和G2應用于實際數據的噪聲壓制效果,因為模型G1和G2的訓練數據集覆蓋了強度l從0.03到0.10的噪聲等級,所以兩模型可以學習到該區間的噪聲特征分布,進而對原始實際數據中的隨機噪聲進行去噪處理。從圖17e中可以看出,Ⅰ區域和Ⅲ區域同相軸連續且細節信息保持較好,Ⅱ區域中的紋理特征較DCT超完備字典和K-SVD自適應學習超完備字典噪聲壓制更明顯,但依然存在著細節丟失的現象。從圖17f中可以看出,Ⅰ區域和Ⅲ區域中的噪聲得到了很好地抑制,均保留了清晰且連續的同相軸信息,易于觀測,Ⅱ區域的細節信息也得到了較好的恢復,因此模型G2的去噪效果更優于模型G1。

圖17 原始實際數據不同方法噪聲壓制結果對比(a)原始疊后地震數據;(b)Curvelet變換方法;(c)DCT超完備字典方法;(d)K-SVD自適應學習超完備字典方法;(e)DnCNN方法;(f)本文方法

4 結論

本文提出了一種新的基于聯合深度學習的地震數據隨機噪聲壓制方法,聯合時域與頻域的信息,定義損失函數,加強地震數據細節的保持,改善了噪聲去除的效果。通過研究卷積核大小和網絡深度對感受野大小的影響,采用擴充卷積,設置擴充因子,并通過實驗確定了最優的一組擴充因子,增加了地震數據特征提取的多樣性,減少復雜的地震道數據噪聲壓制過程中細節的丟失。此外,本文方法還考慮了網絡輸入與輸出數據具有相似性的特點,引入殘差學習策略學習噪聲,在此基礎上,加入BN層加快訓練收斂,提高地震數據去噪效率。分別通過模型數據和實際數據與當前比較流行的隨機噪聲壓制算法對比表明,在噪聲壓制效果方面,本文去噪模型可獲得更高的信噪比和局部細節特征的保持能力;在噪聲壓制效率方面,本文模型在測試過程不需要迭代學習,運行效率較高;在算法泛化能力方面,本文模型在測試噪聲強度與訓練集接近的情況下具有一定的泛化能力。綜上所述,該模型可有效地處理地震數據隨機噪聲壓制問題。

猜你喜歡
特征效果模型
一半模型
按摩效果確有理論依據
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
迅速制造慢門虛化效果
抓住“瞬間性”效果
中華詩詞(2018年11期)2018-03-26 06:41:34
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 97人妻精品专区久久久久| 亚洲中文字幕久久精品无码一区| 日韩视频免费| 亚洲精品视频网| 欧美综合区自拍亚洲综合绿色 | 制服丝袜在线视频香蕉| 国产美女自慰在线观看| 亚洲日韩久久综合中文字幕| 亚洲第一色视频| 日本不卡视频在线| 蜜桃视频一区二区| 亚洲欧美自拍一区| 欧美亚洲国产日韩电影在线| 久久久国产精品免费视频| 国产精品美女网站| 亚洲国产天堂久久综合226114| 国产SUV精品一区二区| 漂亮人妻被中出中文字幕久久| 在线亚洲天堂| 午夜日韩久久影院| 婷婷伊人五月| 国产极品粉嫩小泬免费看| 99视频在线观看免费| 97在线免费| 色哟哟国产成人精品| 亚洲午夜福利精品无码不卡| 99精品热视频这里只有精品7| v天堂中文在线| 日韩免费毛片| 99在线国产| 中字无码av在线电影| 首页亚洲国产丝袜长腿综合| 久久久噜噜噜| 青青热久免费精品视频6| 国产精品尤物在线| 亚洲第一区在线| 免费观看无遮挡www的小视频| 又爽又大又光又色的午夜视频| 97亚洲色综久久精品| 亚洲精品制服丝袜二区| 国产91高跟丝袜| 欧美不卡视频一区发布| 午夜综合网| 久久影院一区二区h| 天堂va亚洲va欧美va国产 | 婷婷六月综合网| 在线免费不卡视频| 2021国产v亚洲v天堂无码| 欧美第一页在线| 夜夜操天天摸| 久久国产成人精品国产成人亚洲 | 91人人妻人人做人人爽男同| 视频二区中文无码| 国产a v无码专区亚洲av| 成人欧美日韩| 激情五月婷婷综合网| 欧美午夜小视频| 91精品国产一区| 日韩色图区| 国产精品白浆无码流出在线看| 1769国产精品视频免费观看| 无码av免费不卡在线观看| 亚洲av日韩av制服丝袜| 草草影院国产第一页| 日韩免费视频播播| 色综合五月| 日韩一级二级三级| 国产亚洲精品资源在线26u| 中国毛片网| 91色爱欧美精品www| 亚洲精品国产综合99久久夜夜嗨| 日韩精品久久无码中文字幕色欲| 久久人搡人人玩人妻精品| 精品久久久久久久久久久| 日本欧美成人免费| 日韩二区三区无| 亚洲天堂啪啪| 欧洲av毛片| 免费看黄片一区二区三区| 曰AV在线无码| 国产白浆一区二区三区视频在线| 欧美精品三级在线|