999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CycleGAN網絡的高頻地波雷達海洋回波去噪研究

2025-02-08 00:00:00周浩李炳陽
現代電子技術 2025年3期
關鍵詞:深度學習

摘" 要: 高頻地波雷達在對海面進行監控和目標跟蹤時,必定會受到海雜波及各種噪聲的干擾,這些噪聲的存在是對船只目標檢測的一個重大挑戰。為了克服此難題,文中采用循環一致性產生式對抗網絡(CycleGAN)對高頻地波雷達圖像進行降噪處理。在該方法中,將傳統的雜波抑制問題轉化為雜波抑制前后距離多普勒頻譜圖像的轉換問題。在此基礎上,利用海上實驗獲得的高頻雷達回波資料進行實驗驗證,并與其他組網進行量化比較。實驗表明,CycleGAN網絡可以有效地對高頻雷達回波信號進行去噪處理,在保持目標的前提下,有效地消除了相關干擾。

關鍵詞: 高頻地波雷達; 圖像去噪; 深度學習; 雜波抑制; 生成對抗網絡; 距離多普勒

中圖分類號: TN959.71?34" " " " " " " " " " " " 文獻標識碼: A" " " " " " " " " " " " 文章編號: 1004?373X(2025)03?0056?05

Research on CycleGAN network based denoising of high?frequency

ground wave radar ocean echo

ZHOU Hao, LI Bingyang

(School of Electronic Information, Wuhan University, Wuhan 430072, China)

Abstract: High?frequency ground wave radar is inevitably affected by sea clutter and various noises when monitoring and tracking the sea surface, which poses a significant challenge to ship target detection. In this paper, a cyclic consensus generative adversarial network (CycleGAN) is used to denoise high?frequency ground wave radar images, so as to overcome the difficulties. In this method, the traditional clutter suppression problem is transformed into the conversion problem of Range?Doppler (RD) spectrum images before and after clutter suppression. On this basis, high?frequency radar echo data obtained from sea trials are used for experimental verification. In addition, quantitative comparison with other networking methods are carried out. Experiments have shown that the CycleGAN network can denoise high?frequency radar echo signals and eliminate related interference effectively while maintaining the target intact.

Keywords: high?frequency ground wave radar; image denoising; deep learning; clutter suppression; GAN; RD

0" 引" 言

高頻地波雷達幾十年來在海洋超視距遙感和船舶目標檢測與跟蹤方面取得了巨大成功[1],小型天線陣列被廣泛使用,以節省寶貴的海岸線資源和成本,便于安裝和維護。在海面目標的檢測和跟蹤過程中,高頻雷達常常會受到各種雜波和噪聲的干擾,尤其是海雜波的干擾,這些干擾可能會影響高頻雷達對目標的準確檢測。近年來,文獻[2]提出基于小波的方法來抑制海雜波,并在距離多普勒(Range Doppler, RD)圖上實現目標和雜波的分離,但母小波和重建系數往往難以選擇。盡管可以提高SNR,但這種方法不能確保獲得最佳分離,并且可能更難進行目標檢測。文獻[3]歸納了主成分分析(Principal Component Analysis, PCA)與小波分析相融合的方式,旨在提升雷達RD譜的辨識度,并有效壓制噪聲。其信噪比得到了提高,但方法的缺點仍然存在,因為小波系數的選擇主要是根據經驗。對此開發了一種基于離散小波變換(DWT)的HFSWR船舶自動檢測方法[4]。DWT的最佳尺度由峰值SNR確定,以提取目標,然后,通過Ostu算法[5]標記分割區域來計算目標數量,但沒有給出提取的點目標在多大程度上是真實目標的概率信息。

由于深度學習在雷達領域越來越受到關注[6?7],文獻[8]采用前饋去噪卷積神經網絡去除帶噪圖像中的噪聲。利用深度學習技術對高頻雷達進行去噪處理的研究也逐漸興起,文獻[9]提出改進灰狼優化算法的徑向基函數神經網絡,然而,由于高頻雷達的特殊成像機制,用于訓練的數據數量有限,RD譜圖中的目標特征模糊不清,阻礙了深度學習在雷達雜波抑制領域的研究。循環一致性對抗網絡(CycleGAN)作為對抗性網絡的進階形態,在文獻[10]中被初次提及,并且僅需使用較小規模的數據集為所面對的難題提供了相應的解決辦法。CycleGAN采用了對抗性訓練的思想,使生成的圖像盡可能與預期圖像相似。因此,文中提出基于CycleGAN網絡的高頻地波雷達海洋回波去噪研究,以到達減少噪聲干擾的目的。

1" 模型構建

1.1" 循環生成對抗網絡

繼文獻[10]提出CycleGAN網絡之后,該技術在人工智能深度學習這一行業中取得了顯著成就,并且已經被廣泛地應用并深入研究于多個科學領域。本文受其影響,運用了CycleGAN網絡所展現的出色圖像域遷移能力,進而將常規的高頻地波雷達背景噪聲的抑制問題轉換成了距離多普勒譜圖在雜波抑制前后的圖像轉換問題。

生成對抗網絡結構如圖1所示,CycleGAN包括2個生成器模型([F]與[G])以及2個判別器模型([DX]和[DY])。CycleGAN的訓練目標在于掌握從[X]到[Y]中數據特征的轉化,從而實現圖片在不同域間的遷移[11]。在此結構中,生成器扮演了轉換器的角色,[F]模型將源域圖片轉化為擁有類似[Y]域特質的圖像,也就是通過學習兩領域數據特征間的對應關系來將輸入的[x(x∈X)]圖像變換為與目標域[Y]具備近似屬性分布的圖像[x],即[x=FX→Yx]。同理,[G]模型也可進行相反的變換,即將[Y]域的圖片轉變為與[X]域分布類似的圖像[y],即[y=GY→Xy]。辨別器的職責是鑒別加工前的真實圖像與生成器輸出的模擬圖像,[DX]的任務是分辨實際的[x]圖像與生成的[x]圖像,而[DY]用于辨識實際的[y]圖像與生成的[y]圖像[12]。

CycleGAN模型同樣涵蓋了特有的損失部分,它的核心要素主要涉及生成對抗損失與循環一致性損失兩方面。在對該深度學習網絡進行訓練的過程中,不斷地迭代和優化步驟,其根本目標在于:改進這兩種損失函數的表現,從而期望能夠通過生成網絡制作出高度逼真的圖像輸出來混淆判別網絡;而判別網絡則是提高其識別能力,更準確地鑒別輸入的圖像是否由生成網絡仿造出來。

生成器[F]與判別器[DY]間的生成對抗損失函數如下:

[LGANFX→Y,DY=Ey~PdataylogDYy+Ex~Pdataxlog1-DYFX→Yx] (1)

式中:[Pdatax]和[Pdatay]分別為[x]和[y]的分布;[E]為期望。

但是如果只有單一的生成器[F]與判別器[DY],那么它們之間的生成對抗損失沒有辦法確保神經網絡之中的輸入圖片[x]可以完全映射到期望輸出[y]的分布之中。因此,類似的CycleGAN引入了生成器[G]與判別器[DX]之間的生成對抗損失函數:

[LGANGY→X,DX=Ex~PdataxlogDxy+Ey~Pdataylog1-DxGY→Xy] (2)

作為CycleGAN的核心,循環一致性損失被引入是為了避免所有[X]中的圖像都映射到[Y]中的同一個目標圖像。循環一致性損失由向前的正向循環一致性和向后的反向循環一致性組成,結構如圖2所示,計算方式定義如下:

[LCLLF,G=Ex~PdataxGFx-x1+Ey~PdatayFGy-y1]" (3)

式中[?1]為[L1]歸一化損失。總體損失函數為:

[LF,G,DX,DY=LGANF,DY+LGANG,DX+λCCLLCCLF,G]

(4)

1.2" 海洋回波譜的去噪模型搭建與訓練

1.2.1" 數據集的準備

首先,利用海上實驗資料提取出雷達的多普勒頻譜,然后將多普勒信號轉換成灰度圖象,然后利用AIS的資料,并通過手動處理得到上述的帶噪灰階圖像所對應的干凈灰度圖像,由此就構成了CycleGAN網絡需要輸入的數據集。

1.2.2" 網絡的搭建

生成器網絡結構如圖3所示,CycleGAN網絡從輸入到輸出分別是:編碼器、轉換器和解碼器。

在最開始,圖像資料輸入至生成器中,并首先被導引至編碼器以供處理。該編碼器致力于對圖像資料進行編碼,以提取圖像中雷達RD頻譜的基本特征。在此過程中,編碼模型利用帶有三重過濾功能的卷積對圖像進行逐步下采樣,獲取關鍵特征信息。本文中,提供給生成器的雷達RD頻譜圖的分辨率被統一設為256 Pixel×256 Pixel。第一個卷積層特別選用了Conv?BN?ReLU的組合方式,64個濾波器單元,卷積核大小為7×7,并且步進間距定為1,經過精練的特征向量由此層層傳遞至下一環節。遵循相似的處理邏輯,將每個卷積層同樣按此方法不斷深化對RD頻譜圖像特征進行挖掘。因此,在第3個卷積層的編碼器最終提取出的結果是由256個大小為64×64的特征向量構成的組合。

轉化器通過采用9個殘差單元(Resblocks)過濾掉不必要特性,加強有用特性的結合,并借助過濾波的特性明確如何實現將輸入圖片的特征向量從去除噪聲前(或去除噪聲后)的狀態,轉化到去除噪聲后(或去除噪聲前)的狀態。

最后對解碼器進行連續的向上采樣運算,以在提取特征中進一步地還原出相應的輸入信號。解碼器通過在兩個向上的卷積網絡層中逐漸還原圖像的粗略特性,并在最后一個卷積層中把特征向量的輸入通道數量壓縮為3,從而可以對應輸入圖像中的像素通道數量,這樣才能完整地完成對輸入圖像的重新構建。生成器的詳細內部構造如表1所示。

1.2.3" 性能評估

在本次實驗中,對實驗結果性能的評估將由3個指標完成,分別是:結構相似度(Structural Similarity, SSIM)、峰值信噪比(Peak Signal?to?Noise Ratio, PSNR)以及特征相似度(Feature Similarity, FSIM)。峰值信噪比(PSNR)通過比較參照圖像與生成圖像間的均方誤差來定量圖片質量損失。峰值信噪比較高說明創建出的圖像具有較小的失真度,圖像質量較高。SSIM可對兩張圖像之間的相似程度進行評估,其取值在0~1之間,值越高說明兩張圖像越相似。FSIM的第一特征選取相位的一致性可對圖像質量的好壞進行判別,其取值在0~1之間。越高的FSIM值,意味著兩張圖像之間特征的相似程度也就越高,從而產生圖像的質量會更好。

2" 實驗驗證

2.1" 數據來源與預處理

武漢大學雷達與信號處理實驗室2015年在福建省東山進行海試實驗,本文采用的是東山站雷達回波數據,雷達天線采用單極子交叉環結構,頻率為13.15 MHz。

圖4中展示的是海試中東山站獲取的一張回波距離多普勒圖。正負一階峰附近展寬的區域為海雜波區域,即為想去除的噪聲區域,它的范圍大小與時間、浪高等海面多種因素有關。

從海試數據中得到的雷達距離多普勒圖是一個二維數組,因此,要把這個二維數組轉化為灰度圖像,作為原始帶噪聲的圖像數據。由于CycleGAN網絡輸入是以成對的方式進行,因此還要輸入其對應的干凈圖像。

干凈圖像按以下方法生成。

1) 將原始的帶噪圖像作為基準,生成一個單一灰度值、相同尺寸的背景圖像。

2) 人工結合船舶AIS信息,將原始的帶噪圖像中的目標信息以標簽的方式進行保存。

3) 根據標簽信息在干凈背景的灰度圖中設置標簽船只目標信息。綜上生成的干凈圖像就與原來帶噪圖像形成一一對應關系,這樣構成的圖像對就是數據集的組成元素。

2.2" 實驗結果

本次實驗使用的深度學習框架為TensorFlow 1.3,使用的計算機語言為Python 3及Matlab。計算機配置如下:GeForce RTX 3060顯卡,處理器為i7?11800H處理器,內存大小為16 GB。對網絡訓練的基本設定為:每個批次大小128,epoch大小為100,總樣本數量為512。

首先,在此基礎上,利用CycleGAN網絡對原始多普勒頻譜進行可視化處理,并將其與傳統的多普勒圖進行對比,觀察兩者之間的直接關系。去噪結果如圖5所示,經過CycleGAN網絡濾波,消除了多普勒信號中的大多數干擾,同時保持了物體的本質特性;其次,通過量化分析,選取PSNR、SSIM、FSIM等性能,評估CycleGAN網絡對多普勒成像降噪的影響。引入原始的GAN網絡與效果較好的圖像去噪網絡DnCNN進行性能對比,整個實驗的統計結果如表2所示。

3" 結" 論

由于高頻地波雷達海洋回波譜中有著大量復雜的干擾,對這些噪聲進行去除有很大困難。本文擬采用CycleGAN網絡對雷達回波信號進行消噪建模,并利用高頻地波雷達海試實驗獲得的多普勒頻譜數據對其進行降噪處理。實驗結果表明,該方法能有效地去除雷達多普勒成像中的噪聲。

本文擬建立的CycleGAN網絡去噪模型,通過消除多普勒信號中的噪音,實現對回波信號的壓制,改善其資料質量,提升其探測能力,為海面船舶目標的識別提供了有力支撐,并進一步完善模型,使之適用于更廣闊的海域。

參考文獻

[1] VIVONE G, BRACA P, HORSTMANN J. Knowledge?based multitarget ship tracking for HF surface wave radar systems [J]. IEEE transactions on geoscience and remote sensing, 2015, 53(7): 3931?3949.

[2] JANGAL F, SAILLANT S, HELIER M. Wavelet contribution to remote sensing of the sea and target detection for a high?frequency surface wave radar [J]. IEEE geoscience and remote sensing letters, 2008, 5(3): 552?556.

[3] LU B, WEN B Y, TIAN Y W, et al. A vessel detection method using compact?array HF radar [J]. IEEE geoscience and remote sensing letters, 2017, 14(11): 2017?2021.

[4] LI Q Z, ZHANG W D, LI M, et al. Automatic detection of ship targets based on wavelet transform for HF surface wavelet radar [J]. IEEE geoscience and remote sensing letters, 2017, 14(5): 714?718.

[5] JIAO S H, LI X G, LU X. An improved Ostu method for image segmentation [C]// 2006 8th International Conference on Signal Processing. [S.l.: s.n.], 2006: 966?969.

[6] GENG J, FAN J C, WANG H Y. High?resolution SAR image classification via deep convolutional autoencoders [J]. IEEE geoscience and remote sensing letters, 2015, 12(11): 2351?2355.

[7] PLANINSIC P, GLEICH D. Temporal change detection in SAR images using log cumulants and stacked autoencoder [J]. IEEE geoscience and remote sensing letters, 2018, 15(2): 297?301.

[8] ZHANG K, ZUO W M, CHEN Y J, et al. Beyond a Gaussian denoiser: Residual learning of deep CNN for image denoising [J]. IEEE transactions on image processing, 2017, 26(7): 3142?3155.

[9] SHANG S, HE K N, WANG Z B, et al. Sea clutter suppression method of HFSWR based on RBF neural network model optimized by improved GWO algorithm [J]. Computational intelligence and neuroscience, 2020(1): 1?10.

[10] ZHU J Y, PARK T, ISOLA P, et al. Unpaired image?to?image translation using cycle?consistent adversarial networks [C]// IEEE International Conference on Computer Vision. New York: IEEE, 2017: 2242?2251.

[11] ZHAO J M, ZHANG J, LI Z, et al. DD?CycleGAN: Unpaired image dehazing via double?discriminator cycle?consistent generative adversarial network [J]. Engineering applications of artificial intelligence, 2019, 82: 263?271.

[12] 黃山,賈俊.基于改進循環生成式對抗網絡的圖像去霧方法[J].計算機工程,2022,48(12):218?223.

[13] GOODFELLOW I J, POUGET?ABADIE J, MIRZA M, et al. Generative adversarial nets [C]// Advances in Neural Information Processing Systems 27: Annual Conference on Neural Information Processing Systems 2014. [S.l.: s.n.], 2014: 2672?2680.

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 亚洲国产av无码综合原创国产| 国产精品99在线观看| 亚洲欧美色中文字幕| 亚洲免费毛片| 国产91高清视频| 久久久久久久蜜桃| 亚洲最大福利视频网| 少妇极品熟妇人妻专区视频| 在线亚洲精品自拍| 国产成人久久综合777777麻豆| 日韩国产亚洲一区二区在线观看| 亚洲天堂.com| 亚洲欧美成人在线视频| 波多野结衣在线se| 狼友视频国产精品首页| 久久久久亚洲av成人网人人软件| 国产91熟女高潮一区二区| 亚洲男人天堂久久| 国产精品久久自在自2021| 中国一级毛片免费观看| 国产Av无码精品色午夜| 精品国产一二三区| 无码网站免费观看| 性69交片免费看| 亚洲综合色婷婷| 日本人妻丰满熟妇区| 67194在线午夜亚洲 | AV天堂资源福利在线观看| 亚洲综合国产一区二区三区| 国产成人一区| 国产成人做受免费视频| 婷婷午夜天| 黑色丝袜高跟国产在线91| 91蜜芽尤物福利在线观看| 国产在线第二页| 亚洲性日韩精品一区二区| 中国一级特黄大片在线观看| 亚洲人成网站观看在线观看| 国产一级二级在线观看| 免费看美女毛片| 人人爽人人爽人人片| 亚洲欧美精品一中文字幕| 国产二级毛片| 色网站免费在线观看| 91在线免费公开视频| 成人午夜在线播放| 伊人成人在线视频| 成人午夜在线播放| 免费无码网站| 怡红院美国分院一区二区| 国产午夜一级毛片| 色综合中文| 免费看av在线网站网址| 精品久久久久无码| 亚洲IV视频免费在线光看| 亚国产欧美在线人成| 精品91视频| 亚洲动漫h| 久热这里只有精品6| 日韩二区三区| 久久精品无码国产一区二区三区| 久久久久夜色精品波多野结衣| 国产精品无码制服丝袜| 久久久波多野结衣av一区二区| 国产精品网曝门免费视频| 国产福利免费在线观看| 国产精品片在线观看手机版| 四虎影视无码永久免费观看| 91蜜芽尤物福利在线观看| 成人国产精品视频频| 98超碰在线观看| 青草视频网站在线观看| 久久特级毛片| 日韩精品免费一线在线观看| 亚洲综合专区| 毛片免费高清免费| 综合社区亚洲熟妇p| 久久99国产综合精品1| 欧美亚洲香蕉| 91亚洲免费| 91精品日韩人妻无码久久| 国产成人一区二区|