宋歡, 毛偉建* , 唐歡歡
1 中國科學院精密測量科學與技術創新研究院計算與勘探地球物理研究中心, 武漢 430077 2 大地測量與地球動力學國家重點實驗室, 武漢 430077
在地震勘探中,多次波既可以看成是一種能量很強的干擾噪聲,也可以看成是與一次波類似的有用信號.將多次波視為干擾噪聲是因為多次波的存在容易混淆一次波的能量,甚至出現多次波同相軸掩蓋一次波同相軸的情況,從而影響地震成像,使反射波形態發生畸變,導致地震資料的偏移成像效果降低,甚至導致對地震資料解釋和地震介質構造的錯誤認識.因此,有效壓制多次波已成為地震勘探中的一個重要問題.另一方面,從地震波場傳播過程來看,多次波同一次波一樣也是地下反射層的反射,是在地下界面反射或海水面反射一次以上的地震反射波,也蘊含著地層結構信息.而且,多次波與一次波相比,在地下行走的射線路徑更長,覆蓋區域更廣,能照射到一次波無法照明到的陡傾角地層,因此能攜帶更加豐富的地下結構信息.已有研究表明,將多次波視作有用信號進行偏移成像時,其對應的成像范圍較一次波的成像范圍明顯加寬,成像質量也明顯提高,特別是能提高鹽丘下部成像質量和照明度(Liu et al., 2011,2016;劉伊克等,2015,2018;劉學建和劉伊克,2016),這對認清受多次波影響而成像效果不佳區域的地質構造特征具有重要的工程應用價值.但是,對多次波進行成像之前,通常需要對多次波進行有效預測,因此也涉及部分多次波壓制內容.
目前,已有的多次波壓制方法根據原理的不同大致可分為兩類:濾波法和波動理論法.濾波法主要是利用多次波和一次波的差異性完成分離(Weglein et al., 2011).差異性主要體現在兩方面.一是多次波具有周期性,利用這一特性可對多次波進行預測進而達到壓制多次波的目的,如預測反褶積方法(Treitel, 1969; Morley and Claerbout, 1983).但值得注意的是,只有在零偏移距或近偏移距處,多次波才呈現周期性,所以這類方法會隨著偏移距的增大而降低壓制效果.二是多次波和一次波的動校正速度差異,利用這一速度差異可以將動校正(NMO)后的多次波和一次波變換到不同域進行分離,在變換域中多次波和一次波比在時空域里更容易分離.常見的方法有F-K濾波(Sengbush, 1983; 吳戰培, 1995)、聚束濾波(胡天躍等, 2000, 2002)和Radon變換(Hampson, 1986; Foster and Mosher, 1992; Sacchi and Ulrych, 1995; Hargreaves et al., 2001; Trad et al., 2003;熊登等,2009; Lu, 2013; Li and Yue, 2017)等.濾波法的原理較為簡單,在一次波和多次波差異明顯的情況下可以達到較好的壓制效果,而當差異性較小時,該方法的多次波壓制效果就會受到很大的限制.波動理論法則是從波動方程出發,根據地震波的傳播特點建立多次波模型實現對多次波的預測,然后從原始數據中將預測的多次波自適應相減得到衰減后的地震數據,所以波動理論法也稱為預測相減法.當前發展較成熟的波動理論方法有波場外推法(Loewenthal et al., 1976; Wiggins, 1988; Jiao et al., 2002)、反饋迭代法(Berkhout, 2006; Berkhout and Verschuur, 2006; Verschuur and Berkhout, 1997)和逆散射級數法(Weglein et al., 1997; 陳小宏和劉華鋒, 2012; 劉伊克等, 2014).波動理論法不需要對地震波場作先驗假設,特別是反饋迭代法和逆散射級數法不需要任何附加信息就可以壓制多次波,因此適用性廣泛,但方法本身計算量大,過程復雜,且震源子波估計的準確性和近偏移距數據的缺失會影響該方法的壓制效果.所以,濾波法和波動理論法都有其各自的優缺點(張廣利等, 2016).此外,無論使用濾波法還是波動理論法壓制多次波都涉及大規模科學計算.在日常生產中,隨著寬方位、高密度地震數據采集方式的出現,往往需要對海量地震勘探數據進行多次波壓制,導致無論使用濾波法還是波動理論法都面臨著計算耗時長的問題.因此,需要發展一種新的技術來提高多次波壓制效率.
近年來,得益于深度學習技術的發展、海量數據資源的積累和計算能力的增強,人工智能技術引發了學術界、工業界的廣泛關注和高度重視(趙改善, 2019).人工智能就其本質而言,是對人的意識、思維的一種模擬.在人工智能領域最活躍的是機器學習,在機器學習中最活躍的是深度學習.深度學習因能學習樣本數據的內在規律和特征,使機器能夠像人一樣具有分析學習能力,能夠識別文字、圖像和聲音等數據,已成為人工智能或機器學習領域研究與應用的熱點,被越來越多的學者應用在勘探地球物理中,涉及領域主要包括地震構造解釋、地震地層解釋、地震相識別、地震反演、數字化巖石物理分析等.在多次波壓制領域,Siahkoohi等(2019)采用生成式對抗網絡對自由表面多次波進行了壓制.為了取得較好的多次波壓制效果,在測試階段,該方法需要Surface-Related Multiple Elimination (SRME)算法提供初步的多次波預測結果作為輸入.
為了繼續探索和挖掘深度學習在多次波壓制研究領域的潛能,本文提出了一種基于深層神經網絡的多次波壓制技術,采用的深層神經網絡是一種改進的具有卷積編碼器和卷積解碼器的U-net網絡.U-net網絡被Hinton和Salakhutdinov(2006)提出, 當時主要用于壓縮圖像和去噪.Ronneberger等(2015)首次將其用于分割醫療圖像后,該網絡從此廣泛應用于圖像分割領域.然后,本文在大量帶標簽訓練集上采用監督學習的方式訓練定義的深層神經網絡.訓練成功的網絡模型具備分離多次波和一次波的能力,即將含多次波的地震數據輸入訓練成功的神經網絡,可直接快速輸出多次波壓制后的地震數據,從而避免常規多次波壓制方法涉及的大規模計算.最后,利用工業界模型數據多角度驗證了本文方法的有效性.
基于深層神經網絡實現多次波壓制的過程中,網絡模型的定義及訓練是關鍵.本文在TensorFlow深度學習框架下定義網絡模型,使用的模型是一種改進的具有卷積編碼器和卷積解碼器的U-net網絡,其結構如圖1所示.相對于全連接層編碼器而言,卷積編碼器使用卷積層來學習數據特征,能夠避免訓練參數過多、難以訓練和過擬合的問題.而且卷積編碼器可以學習數據特征的稀疏表達,將高維地震數據通過非線性映射得到低維特征,通過設置合適的損失函數,使得提取的低維特征僅來自一次波信號,從而壓制地震數據中的多次波信號.卷積解碼器可以將包含低維特征的信號映射回高維空間,重構多次波壓制后的地震數據.
從圖1可知,本文使用的深層神經網絡由編碼和解碼兩部分組成.其中,編碼部分包含8個下采樣模塊,分別為sequential、sequential_1、…、sequential_7,用于提取地震數據中的一次波信號特征.解碼部分包含8個上采樣模塊,分別為sequential_8、sequential_9、…、sequential_14 和conv2d_transpose_7,用于將編碼部分提取的一次波低維特征還原解碼到原圖尺寸,最終得到多次波壓制后的地震數據.為了更好地恢復原始地震數據中的一次波信息,在編碼器和解碼器之間采用跳躍式連接,即在每一級的上采樣過程中,利用拼接層(Concatenate)將編碼和解碼過程中對應位置上的特征圖按通道進行融合,使得解碼器在進行上采樣時能夠保留更多高層特征圖蘊含的高分辨率信息,從而提高圖像分辨率.

圖1 深層神經網絡結構圖Fig.1 The structure diagram of deep neural network
每個下采樣模塊由一個序貫模型(Sequential)代表,該Sequential模型由三個網絡層線性堆疊而成,分別是卷積層、批歸一化層(Batch Normalization, BN)和激活函數.卷積層采用的卷積方式是“same”,使用“same”方式需要對原數據進行零填充,以確保卷積前的數據與卷積后的數據具有相同大小.為了達到下采樣的目的,卷積層使用的劃動步長取值為2.激活函數能實現去線性化,增加模型對復雜問題的表達能力.常見的激活函數有tanh函數、sigmoid函數、ReLU函數.在下采樣模塊中,本文從兩方面考慮選用ReLU函數作為激活函數.一,ReLU函數能解決神經網絡訓練中一個非常致命的問題:梯度消失.ReLU函數將小于0的部分直接置0,大于0的部分即為輸入,如式(1)所示,它既實現了非線性變換,同時輸入大于0的部分梯度為1.所以從本質上來說,ReLU解決梯度消失的原則是靠梯度等于1,從而避免連續相乘的結果衰減.二,根據ReLU的定義,信息只能在輸入大于0的區域進行傳播,這帶來了另一個優點就是稀疏性,稀疏性對網絡性能的提高有幫助.在卷積層和激活函數之間還安插了一個BN層,目的是為了防止輸入或者網絡中間某一層的輸出處于激活函數梯度很小的區域,這會導致很慢的學習速率甚至陷入長時間的停滯.對訓練的每一批數據進行歸一化處理,即減去均值再除以方差之后,可將數據移到激活函數梯度變化敏感的中心區域,這不僅是一種對抗梯度消失的手段,同時能提高神經網絡的訓練效率.

(1)
8個上采樣模塊中的前7個同樣由Sequential模型代表,不過,該Sequential模型由四個網絡層線性堆疊而成,分別是反卷積層(Conv2DTranspose)、BN層、Dropout層和ReLU激活函數.最后一個上采樣模塊是一個自帶tanh激活函數的反卷積層,它也是輸出層.在編碼部分,原始輸入地震數據經歷8次下采樣后,分辨率依次縮小了1/2、1/4、1/8、1/16、1/32、1/64、1/128、1/256.對于最后一層的輸出數據,需要進行256倍的上采樣,以得到原圖一樣的大小.本文的上采樣是通過反卷積實現的,采用的反卷積方式同樣是“same”,使用的劃動步長同樣為2.除了BN層和ReLU函數之外,解碼部分使用的Sequential模型還包含一個Dropout層.Dropout的直接作用是減少中間特征的數量,降低每個特征之間的關聯性,從而增強神經網絡模型的泛化能力.
本文采用監督學習的方式訓練神經網絡.監督學習最重要的思想是,在標注好的訓練集上,通過不斷優化神經網絡參數,使得網絡模型輸出的預測結果盡量接近真實結果.優化神經網絡參數的過程就是神經網絡的訓練過程.為了取得一個好的訓練效果,需要準備合適的數據集、定義合適的損失函數、選取合適的優化算法和超參數等,它們與模型是否能訓練成功息息相關,并直接決定了模型質量.下面將一一對這些影響因素進行詳細介紹.
1.2.1 準備數據集
為了訓練一個能成功壓制多次波的模型,首先需要提供大量具有代表性的帶標簽數據.帶標簽數據是指輸入數據對應的真實輸出是已知的.本文制作的帶標簽數據集,輸入數據是原始的含多次波的地震數據,標簽是與原始數據一一對應的不含多次波的地震數據.從帶標簽數據集中選取部分數據作為訓練集,輸入定義好的神經網絡,可訓練出最優的模型參數,剩余數據可作為測試集,用于評估模型性能.不過,在訓練神經網絡之前,需要對標注好的數據集做進一步處理以用于深度學習算法,包括統一地震數據尺寸和歸一化.
在設計神經網絡時,會根據將要采用的神經網絡和原始地震數據大小,定義Input層輸入數據尺寸和Output層輸出數據尺寸.一旦確定神經網絡結構,用于訓練和測試該網絡的所有輸入數據尺寸必須與該網絡Input層的數據尺寸一致.如果不一致,需要做相應的調整.具體來說,如果輸入的地震數據尺寸大于Input層數據尺寸,剪切地震數據中多出的行和列;如果輸入的地震數據尺寸小于Input層數據尺寸,通過補零的方式增加行和列.
對數據集進行歸一化處理最根本的目的是讓模型更好更快的收斂.由于鏈式法則的累積效應,過大/過小的輸入值會導致梯度爆炸或消失,所以將輸入數據維護在一個大小合適的區間有助于加速訓練.常見的數據區間有[0,1]和(-1,1)兩種,具體采用哪種主要取決于網絡結構.因為本文定義的神經網絡結構對應的輸出層使用了一個tanh激活函數,其對應的輸出結果分布在(-1,1)之間,所以本文采用的歸一化方法將輸入數據歸一化到(-1,1)之間,計算公式如下所示:
(2)
其中,x為樣本數據,max(abs(x))為樣本數據絕對值的最大值,xscale為樣本數據歸一化后的值.
俗話說:“蒼蠅不叮無縫的蛋”,因為有機可乘,才有漏洞可鉆。因此完善各種制度、機制是加強會計人員職業道德建設的保障。
1.2.2 定義損失函數
損失函數度量的是網絡模型輸出的預測值和真實值之間的誤差,其中模型在訓練數據集上的誤差被稱為訓練誤差,在測試數據集上的誤差稱為測試誤差.一般來說訓練誤差是否變小代表著模型的訓練過程是否收斂,而測試誤差是否足夠小直接與模型對未知樣本預測能力的好壞相關.所以,損失函數不僅定義了優化問題,還對模型是否能訓練成功起著至關重要的作用.
分類問題和回歸問題是監督學習的兩大種類.由于本文需要解決的是對具體數值的預測,屬于回歸問題.對于回歸問題,最常用的損失函數是均方誤差(Mean Squared Error,MSE).本文直接采用MSE作為損失函數,它的定義如下:
(3)
其中,yi為原始地震數據矩陣y中第i個元素的標簽值,y′i為神經網絡給出的第i個元素的預測值,n為該原始地震數據矩陣中所有的元素個數.
1.2.3 選取優化算法
神經網絡的優化可分為兩個階段:第一階段先通過神經網絡計算得到預測值,并根據損失函數的定義計算誤差;第二階段通過后向傳播算法計算損失函數對每個參數的梯度,然后根據梯度和學習率使用優化算法更新每個參數.最常見的優化算法是隨機梯度下降法(Stochastic Gradient Descent, SGD),及后來在其基礎上發展起來的小批量梯度下降法、沖量梯度下降法等.SGD及其變種都以相同的學習率更新每個參數,這會導致一個問題:如果學習率太小,梯度很大的參數會收斂很慢;如果學習率太大,接近最優值的參數可能會不穩定.為了避免這個問題,本文使用Adam優化算法,該算法采用的是自適應學習率,即每個參數在優化的過程中能根據自身梯度大小的變化采用不同的學習率.不過,我們還是需要手動設置初始學習率.除了初始學習率,在訓練模型的過程中還需要手動設置的參數有迭代次數(iterations)、代數(epochs)等.為了選取合適的超參數,需要在小數據集上有耐心地進行反復實驗.
為了證明利用深層神經網絡模型壓制多次波的想法是可行的、結果是可靠的,本文開展了一個數值實驗,即利用含多次波和不含多次波的帶標簽訓練集訓練深層神經網絡,然后利用訓練的網絡模型直接壓制地震數據中的多次波.
使用的實驗數據是Chevron Gulf of Mexico 2D Elastic Synthetic Seismic Benchmark(Chevron GOM 二維彈性合成地震數據),該數據是在非均勻分層且包含多個鹽丘的復雜地質條件下合成的,如圖2 所示,復雜地質地震數據更有利于驗證訓練的網絡模型壓制多次波的能力.圖2中出現的多種標識將在結果部分說明.

圖2 合成Chevron GOM 二維彈性地震數據使用的速度模型Fig.2 The velocity model used by the Chevron GOM two-dimensional elastic-seismic-synthetic benchmark data
為了證明訓練的深層神經網絡能代替常規方法壓制多次波,并取得好的多次波壓制效果.本文首先對大小為6400的帶標簽數據集進行預處理,包括按照定義的輸入層數據尺寸統一所有的地震數據大小,和按照式(2)對地震數據進行歸一化.然后在預處理后的包含320個帶標簽數據的訓練集上通過采用Adam優化算法最小化目標函數式(3)來訓練深層神經網絡,獲取的損失值曲線如圖3所示.在訓練過程中使用的初始學習率為2×10-4、迭代次數為320、代數為200.從圖3可知,前100代,損失值以較快的速度從-9.5左右減小到-10.6左右,然后隨著代數的增加損失值逐漸趨于平穩,在200代時損失值為-10.7左右,說明訓練的神經網絡收斂了.最后,利用測試集評估訓練的神經網絡壓制多次波的能力.

圖3 模型訓練時對應的損失值曲線Fig.3 The training loss curve
圖4—7分別展示了利用訓練的神經網絡對測試集中四個具有代表性、且分布在不同地理位置的CMP道集進行多次波壓制的結果.這四個CMP道集分布在圖2中的四個紅色圓點處,分別位于38750 m、54750 m、74000 m和95000 m.圖2中四條虛線經過的區域分別代表了四個CMP道集對應的地下地質情況,其中第一條、第三條和第四條虛線都經過鹽丘本身,第二條位于兩個鹽丘之間,說明選取的這四個CMP道集對應的地下地質情況都很復雜,通常它們會比簡單地下地質條件下獲取的CMP道集面臨更大的多次波壓制難度.此外,由于四個CMP道集具有不同的局部地下地質環境、且間隔較遠,導致不同CMP道集中的一次波(或多次波)具有不同的形態特征,因此也會增加神經網絡壓制多次波的難度.

圖4 第一個CMP道集對應的多次波壓制結果(a) 含多次波的輸入數據; (b) 不含多次波的真實結果; (c) 深層神經網絡的預測結果; (d) 圖4b與圖4c之間的誤差.Fig.4 The multiples-attenuation results of the first CMP gather(a) The input data with multiples; (b) The target data without multiples; (c) The predicted results of DNN; (d) The bias between Fig.4b and Fig.4c.

圖5 第二個CMP道集對應的多次波壓制結果(a) 含多次波的輸入數據; (b) 不含多次波的真實結果; (c) 深層神經網絡的預測結果; (d) 圖5b與圖5c之間的誤差.Fig.5 The multiples-attenuation results of the second CMP gather(a) The input data with multiples; (b) The target data without multiples; (c) The predicted results of DNN; (d) The bias between Fig.5b and Fig.5c.

圖7 第四個CMP道集對應的多次波壓制結果(a) 含多次波的輸入數據; (b) 不含多次波的真實結果; (c) 深層神經網絡的預測結果; (d) 圖7b與圖7c之間的誤差.Fig.7 The multiples-attenuation results of the fourth CMP gather(a) The input data with multiples; (b) The target data without multiples; (c) The predicted results of DNN; (d) The bias between Fig.7b and Fig.7c.
圖4—7中的子圖(a)是輸入數據(含多次波的CMP道集),子圖(b)是真實結果(不含多次波的CMP道集),子圖(c)是利用訓練的神經網絡獲取的預測結果(多次波壓制后的CMP道集),子圖(d)是圖(b)減去圖(c)的誤差圖.比較圖4—7中的圖(c—d)可知,四組預測結果與其對應的真實結果都基本吻合,說明訓練的神經網絡能在保留一次波信號的同時很好地壓制復雜地質地震數據中的多次波,而且對多次波形態特征不同的CMP道集也能取得好的多次波壓制效果,說明訓練的神經網絡還具有很好的泛化能力.泛化是指:在數據同分布的假設下,從訓練數據中學習到的特性,能有效預測沒有見過但和訓練數據來源于同一分布的數據.
為了更加充分地了解訓練的神經網絡壓制多次波和重構一次波的能力,本文將以上四個CMP道集對應的真實結果與預測結果的零偏移距道進行比較,結果如圖8所示.圖中的藍色和紅色曲線分別是真實的和預測的零偏移距道的幅值隨時間采樣點的變化曲線.選取的時間采樣點數從800到2000,對應的時間范圍從3.2 s到8 s.在這個時間范圍內,信號的幅度較強.從圖8可知,整個時間段的比較結果可分為兩部分,從采樣點數800到黑色箭頭處,一次波能量較強,且預測值與真實值高度吻合,說明訓練的神經網絡在壓制多次波時能完全重構該時間段的一次波信號;從黑色箭頭處到采樣點數2000,預測值與真實值吻合得較差些,但我們也能看出吻合趨勢,特別是在一次波能量相對強的位置,說明訓練的神經網絡在壓制多次波時能部分重構該時間段的一次波信號.圖中的黑色箭頭處是多次波首次出現的位置,從含多次波的CMP道集中可以看出,該位置以下多次波的能量較強,而一次波的能量大幅衰減且同相軸的連續性較差.本文提出的基于深層神經網絡壓制多次波的方法通過學習有別于多次波的一次波信號特征,從原始地震數據中重構一次波.但是,當能量較強的多次波和能量較弱的一次波重疊時,一次波的特征不明顯,使得一次波的特征學習不到位,最終導致訓練的網絡難以完全重構這部分一次波,所以圖8中多次波較強的地方一次波有一些損傷,導致預測的一次波與真實的一次波難以高度吻合.

圖8 零偏移距道的比較結果(a) 第一個CMP道集; (b) 第二個CMP道集; (c) 第三個CMP道集; (d) 第四個CMP道集.Fig.8 The zero-offset trace comparison(a) The first CMP gather; (b) The second CMP gather; (c) The third CMP gather; (d) The fourth CMP gather.
更進一步,本文比較了多次波壓制前和壓制后的零偏移距剖面,該剖面由1680個CMP道集的零偏移距道組成,結果如圖9所示.該零偏移距剖面的時間范圍從2.4 s到8 s,覆蓋距離是2.1 km,從2.9 km到5 km,具體位置如圖2中的紅色方框所示,該方框包含一個完整的鹽丘,有利于驗證訓練的神經網絡壓制復雜地質地震數據多次波的能力.圖9a是多次波壓制前的零偏移距剖面,與不含多次波的真實的零偏移距剖面(圖9c)進行對比可知,圖9a中的白色箭頭處存在明顯的幅度較強的多次波.利用訓練的神經網絡對零偏移距剖面中的多次波進行壓制,結果如圖9b所示.從圖9b可知,訓練的神經網絡能很好地壓制白色箭頭處的多次波,且保幅重構大部分一次波能量,只有小部分能量較弱、連續性較差的深層一次波能量損失了,損失原因在圖8說明中有介紹.

圖9 多次波壓制前和壓制后的零偏移距剖面(a) 多次波壓制前的零偏移距剖面; (b) 利用訓練的深層神經網絡壓制多次波后的零偏移距剖面; (c) 不含多次波的真實的零偏移距剖面.Fig.9 The zero-offset profiles before and after multiples attenuation(a) The zero-offset profile before multiples attenuation; (b) The predicted zero-offset profile obtained by DNN after multiples attenuation; (c) The target zero-offset profile without multiples.
此外,在內存為8 GB、CPU為E5-1603的普通臺式計算機上可完成整個深層神經網絡的訓練,耗時24 h 35 min.為了生成多次波壓制后的零偏移距剖面(圖9b),在同樣的計算環境下利用訓練的神經網絡對1680個CMP道集進行多次波壓制處理,耗時僅22 min,完成一個CMP道集的多次波壓制平均僅需要0.8 s,說明深層神經網絡具有很快的多次波壓制速度,而且數據量越大,利用深層神經網絡壓制多次波的時間優勢越明顯,適用于三維地震數據的多次波壓制.不過,利用深層神經網絡壓制多次波的時間是三種時間的總和:準備標簽數據、訓練網絡模型和壓制多次波.一旦模型訓練成功,壓制多次波的時間很短,但準備標簽數據和訓練網絡模型需要的時間相對較長.為了縮短時間,后續研究可利用CPU/GPU異構協同并行計算完成標簽數據的準備和網絡模型的訓練.
本文方法可以用于實際數據,但不能將基于Chevron模型數據訓練的深層神經網絡直接用來處理實際數據,因為實際數據與Chevron數據不屬于同一分布.在處理實際數據之前,需要利用實際數據制作帶標簽數據集,然后采用與Chevron數據相同的步驟重新訓練網絡.對于Chevron模型數據而言,含多次波和不含多次波的地震數據是已知的,容易制作帶標簽訓練集.但對于實際數據而言,只有含多次波的地震數據是已知的.為了制作帶標簽數據集,需要采用常規方法壓制實際數據中的多次波,將多次波壓制后的地震數據視為標簽數據,然后與原始含多次波的地震數據對應起來完成帶標簽訓練集的制作.在處理實際數據時,為了節約時間,還可以利用遷移學習,在基于Chevron模型數據訓練的深層神經網絡上做適當微調,避免重頭開始訓練網絡.利用遷移學習處理實際數據也是我們后續研究的重要方向.
本文提出了一種基于深層神經網絡的多次波壓制技術,將含多次波的地震數據輸入訓練成功的神經網絡,可直接輸出多次波壓制后的地震數據.通過比較多次波壓制前、后的CMP道集、零偏移距道振幅和零偏移距剖面可知,本文定義的深層神經網絡能較好地壓制復雜地質地震數據中的多次波,且對測試集中具有不同多次波形態特征的地震數據也能進行多次波壓制處理,具有較好的泛化能力.同時,訓練成功的深層神經網絡能在很短的時間內完成一個CMP道集的多次波壓制,具有較高的多次波壓制效率.文中的結論是根據工業界認可的模型數據得出,由于缺乏實測數據的驗證,后續需要收集大量不同工區采集的實測地震數據進一步驗證文中的結論.
致謝感謝Chevron提供的實驗數據(Chevron Gulf of Mexico 2D Elastic Synthetic Seismic Benchmark).