











摘 要:在渾濁的水下環境中,受水體多重散射以及噪聲的影響,造成水下成像質量大幅下降,現有顯著性目標檢測算法無法滿足目標檢測準確性的任務需求。因此,提出一種基于偏振成像和顯著區域自補償的水下顯著目標檢測算法。提出的算法分為兩個階段:采用基于偏振角估計后向散射光的方法去除后向散射的影響,同時引入引導濾波進行水下去噪,再通過PSF函數去除前向散射造成的模糊效應;利用改進的柵格掃描算法結合局部特征描述符識別前景超像素,根據前景超像素生成顯著區域對網絡進行優化補償,再結合DeepLabv3+網絡生成最終的分割圖。在渾濁水下環境進行了多組對比實驗結果表明,所提復原算法可以有效地增強目標,提高了目標的對比度和清晰度,所提顯著目標檢測算法能夠準確地檢測出水下顯著目標,并且可以保留細節信息。結合偏振成像模型的優點,該算法能夠較好地克服水下復雜的光學成像環境,并且能快速準確地檢測出水下顯著目標。
關鍵詞:顯著目標檢測;渾濁水體;偏振成像;圖像復原;深度學習;多重散射
中圖分類號:TP391.41 文獻標志碼:A
文章編號:1001-3695(2022)07-047-2210-07
doi:10.19734/j.issn.1001-3695.2021.11.0619
基金項目:國家自然科學基金資助項目(41876097);江蘇省重點研發計劃資助項目(BE2019036)
作者簡介:王慧敏(1996-),女,安徽安慶人,碩士研究生,主要研究方向為水下圖像處理;霍冠英(1979-),男(通信作者),河南汝南人,教授,博導,博士,主要研究方向為水下聲吶圖像處理(huoguanying@hhu.edu.cn);周亞琴(1994-),女,江蘇泰州人,博士,主要研究方向為視覺感知以及水下圖像處理;余大兵(1996-),男,河南信陽人,博士,主要研究方向為偏振成像以及水下圖像恢復.
Underwater salient target detection based on polarization imaging and salient region self-compensation
Wang Huimin,Huo Guanying?,Zhou Yaqin,Yu Dabing
(College of Internet of Things Engineering,Hohai University,Changzhou Jiangsu 213022,China)
Abstract:In the turbid underwater environment,due to the influence of multiple scattering and noise,the underwater imaging quality is greatly reduced.The existing significant target detection algorithms can’t meet the task requirements of target detection accuracy.Therefore,this paper proposed an underwater salient target detection algorithm based on polarization imaging and salient region self-compensation.It divided the proposed algorithm into two stages.Firstly it used the method of estimating backscattered light based on polarization angle to remove the influence of backscattering,and introduced guided filter for underwater noise,and then removed the fuzzy effect caused by forward scattering through PSF function.Secondly it used an improved raster scanning algorithm combined with local feature descriptors to identify foreground superpixels,generated salient regions based on foreground superpixels to optimize and compensate the network,and then combined with DeepLabv3+ network to generate the final segmentation map.This paper conducted multiple sets of comparative experiments in a turbid underwater environment.The results show that the proposed restoration algorithm can effectively enhance the target,improve the contrast and clarity of the target,and the proposed salient target detection algorithm can accurately detect the underwater salient target and retain the detailed information.Combining the advantages of the polarization imaging model,this algorithm can better overcome the underwater complex optical imaging environment,and quickly and accurately detect significant underwater targets.
Key words:salient target detection;turbid water body;polarization imaging;image restoration;deep learning;multiple scattering
0 引言
我國是一個海洋大國,領海面積廣闊,所以水下活動,如海底探礦、海底沉船搜索、壩基裂縫檢測、水下管道檢修等都需要用到目標檢測。其中,顯著目標檢測是水下目標檢測、識別以及跟蹤的關鍵[1]。水下顯著目標檢測與傳統的視覺顯著目標檢測一樣,不僅可以有效地聚焦于水下圖像的感興趣區域,而且有利于未來水下視覺技術的發展。因此,針對水下顯著目標檢測的研究具有較高的實際應用價值。
最早Atallah等人[2]利用顯著性相關概念進行水下目標檢測,即利用尺度特征對聲納圖像中的物體進行檢測,除了對感興趣的目標進行定位外,仿真結果也證明該算法對圖像強度、尺度和對比度變化的魯棒性,為后續的研究奠定了初步的基礎。Wang等人[3]利用Itti概述的方法計算相應水下圖像的顯著圖,解決了如何在水下光學圖像中同時進行目標檢測和分割的問題。Huo等人[4]提出了一種對光學視頻中觀察到的目標進行目標檢測和3D重建的系統,利用顯著性來識別圖像中的顯著區域,通過得到的顯著區域來執行前景對象分割,該方法能夠減少分割過程中的計算成本,并增強后續3D重建過程的魯棒性。隨著機器學習的發展,基于深度學習的顯著性檢測算法不斷被提出,如SupreCNN[5]、MDF[6]和ELD[7]等基于深度學習的顯著目標檢測算法通常會融合人工特征到網絡中,這些特征信息使得算法能提取更有效的深度顯著性特征;而RFCN[8]和SRM[9]則是采用更具有魯棒性的特征提取網絡和全卷積網絡,形成端到端的訓練模型,增進了模型的檢測準確率;此外,一些顯著目標檢測法將目標的邊緣信息引入到網絡中以提高目標輪廓檢測的準確性,如AFNet[10]和EGNet[11]。
在強散射的水下環境,基于偏振成像技術的目標檢測不僅能夠生成高質量、高對比度的圖像,還能為水下場景中的物體提供更多的信息,對于提高目標檢測的準確性和效率具有重要意義。Guan等人[12]提出了一種偏振減方法,以正確估計水體散射噪聲與目標信號的退偏振特性,實驗結果表明,針對無散射參照的水下情況,可以檢測水中表面光滑的保偏目標;該方法需要確定兩個減因子,因此不適用于場景中多個不同材質目標的情況。Liu等人[13]提出一種基于波長選擇的有源偏振成像技術,該方法利用渾濁水中光散射對波長的依賴關系來實現。根據波長選擇性選擇紅光照明,以減少光傳播中的散射,并保證準確估計偏振度,結果證明該技術能夠有效去除散射光,并恢復了目標的細節信息。Han等人[14]利用光學相關性來確定偏振特性最優圖像對,通過比較兩幅圖像之間的相似度并用參數PCE(peak-to-correlation energy)來量化,從而得出最優圖像對相似度最小的結論,經驗證該方法的提出提高了水下偏振成像的視覺性能、分辨率和精度,有效提升了目標檢測的能力。
在實際應用中,由于特殊的光學水下成像背景環境,水下圖像具有低對比度、低信噪比和色彩失真等特點,傳統的顯著目標檢測算法無法保證渾濁水下目標檢測的準確性。本文針對水下成像特點并結合基于深度學習的顯著目標檢測算法,提出一種基于偏振成像和顯著區域自補償的水下顯著目標檢測算法。該方法利用引導濾波進行水下去噪,采用基于偏振角估計后向散射的復原方法去除后向散射的霧化影響,并引入PSF函數去除前向散射造成的模糊效應;使用超像素算法過分割偏振復原后的圖像,再利用改進柵格掃描的顯著性算法對目標進行快速定位,結合局部特征描述符來識別前景超像素,根據前景超像素生成的顯著區域來補償優化DeepLabv3+網絡,即可得到最終的結果。
1 本文算法
本文針對渾濁的水下環境提出一種基于偏振成像和顯著區域自補償的水下顯著目標檢測算法,如圖1所示,該算法分為圖像復原和顯著目標檢測兩個階段。采用主動的非偏振光源搭建水下偏振成像模型,結合改進的偏振成像模型實現圖像復原,可以有效地抑制水下多重散射的影響,提高圖像的質量;針對偏振復原后的圖像,采用一種基于顯著區域自補償網絡的水下顯著目標檢測算法,以保證水下顯著目標檢測的準確性和效率。
1.1 融合偏振角分布估計的水下偏振成像模型的圖像復原
1.1.1 融合偏振角分布估計的渾濁水下偏振成像模型
光在水體中傳播時與水體發生相互作用,導致了光的衰減和散射。相機感光元件接收到的輻照強度由D(x,y)和B(x,y)兩部分組成。目標的直接透射光D(x,y)源于相機視場中物體的光強,以及被懸浮微粒吸收、散射而產生的衰減;B(x,y)稱為雜散光強或后向散射光強,它是朝向相機的散射光。其中,(x,y)表示圖像空間位置的像素坐標。相機的輻照強度I(x,y)可以表示為
直接透射光D(x,y)和后向散射光B(x,y)分別表示為
其中:A∞是指在渾濁的介質中無窮遠處的反向散射光強;L(x,y)表示清晰場景下的輻照強度;t(x,y)表示通過介質的透射率,描述了水中微粒對光的散射和吸收程度,定義為
其中:β表示水中微粒的光密度,本文假定在不同波長下β為常數,即t(x,y)只與Z(x,y)有關;Z(x,y)表示圖像的空間位置(x,y)處與相機間的成像距離。
然而在真實水下環境中,影響成像質量的因素不僅有介質散射引起的衰減,還存在水下噪聲以及L(x,y)受到多重散射引起的模糊效應等,綜合考慮這些因素提出如下成像模型:
由于模糊效應可以通過圖像空間中的核函數的卷積表示,本文將基于廣義高斯分布的功率譜密度函數PSF[15]相應地建模為hpsf(x,y),表示多重散射引起的模糊效應;N表示水中微粒造成的隨機噪聲。結合式(2)(3),式(5)中的模型可表示為
由上式推導得到如下表達式:
1.2 水下顯著目標快速檢測
為了改善顯著目標的檢測,提出一種基于顯著區域自補償的DeepLabv3+網絡,在不增加額外的卷積層、不過多引入網絡參數的條件下,實現具有高質量的顯著目標的檢測。該方法以DeepLabv3+[18]作為基準網絡,以前景超像素生成的顯著區域與原始圖像級聯形成一種四通道的輸入,用于強化水下目標的顯著性檢測。
1.2.1 基于改進柵格掃描算法的水下顯著目標初步定位
傳統方法如基于測地線距離的方法[19]或基于擴散的方法[20]均依賴于區域提取步驟,而這種區域抽象步驟限制了這類方法的效率。本文利用一種圖像邊界連通性的方法生成顯著圖來提高顯著目標檢測的速度,并且具有更好的抗噪性能和去模糊能力。
假設偏振復原后圖像I的一條路徑π=〈π(0),…,π(k)〉是一系列相鄰的像素序列。對于給定的路徑代價函數Z和背景種子像素集合S,圖像距離變換就是計算復原后的圖像I中各個像素和背景種子像素集合S的距離圖M,對于每個像素點t,有
其中:π∈ΠS,t是連接S和t中種子像素的所有路徑的集合。
受最小化柵格距離MBD[21]啟發,本文計算距離圖的路徑代價函數定義如下:
在計算圖像距離變換圖的過程中,利用光柵掃描或反光柵掃描的方法依次訪問每個像素x,然后在像素鄰域的一半像素中訪問每個相鄰像素y,并將像素y用于迭代最小化像素x處的路徑代價,則路徑最小化操作表示如下:
其中:P(y)表示像素y的路徑;〈y,x〉表示從像素y到x的邊界;P(y)·〈y,x〉表示像素y的路徑,方向為從像素y到像素x;H(y)和L(y)分別是路徑P(y)上的最大像素值和最小像素值。因此可以通過兩個輔助圖H和L來有效地計算Sal(Py(x)),這兩個輔助圖相當于每個像素在當前路徑上的最大值和最小值。
算法的流程為:a)給定圖像I和種子集S,初始化距離圖M,令M(x)=0,x∈S;b)設置路徑代價函數;c)迭代光柵掃描、反光柵掃描;d)當路徑分配改變時,相應地更新輔助圖H和L;e)將圖像邊界的像素設置為種子點,使用上述步驟計算圖像上三個通道的MBD圖,再將所有通道的MBD圖相加構成初步的顯著圖。
1.2.2 背景和前景超像素的識別
使用文獻[22]給出的超像素分割算法將基于偏振復原后的圖像分割成N個超像素,生成的過分割圖像如圖1所示。其中每個超像素包含了不同的紋理信息和顏色信息,且有助于去除不相關的細節信息。從超像素圖像中提取合適大小的面片,得到超像素的局部特征描述符OTC特征[23];局部特征描述符QTC特征可以沿著多個方向獲取面片的紋理,同時對于光照變化、幾何失真和局部對比度的差異具有較好的魯棒性,有利于水下圖像的信息提取。
結合上述所得的超像素和顯著目標的提取,可以得到顯著性超像素和不顯著超像素性的預分割。對于每個超像素獲取顯著圖中的中間像素值,如果該中間像素值大于閾值T,則該超像素被分類為顯著超像素,否則歸類為不顯著超像素。將顯著超像素表示為前景超像素,將不顯著超像素表示為背景超像素。在分類的過程中會存在將部分顯著超像素劃分為背景超像素和不顯著超像素劃分為前景超像素的情況。為了克服這個問題,本文使用自適應模糊動態K-均值算法將被分類為前景超像素的OTC特征進行聚類分析,其基本思想是定義一個適應度函數作為聚類中心的指標,調整聚類,直到各個聚類中心的適應度函數達到平衡。
對于最初被分類為前景的超像素,計算該超像素和背景超像素OTC特征的聚類中心之間的歐幾里德距離f(cj),如果f(cj)gt;T,則該超像素被分類為前景超像素。重復上述過程以得到更加精確的前景超像素。基于上述的信息對顯著圖進行修改,使得只有前景的超像素區域具有顯著性,最后得到目標的顯著區域。
1.2.3 基于顯著區域自補償的DeepLapv3+網絡模型
將上述所得目標的顯著區域作為網絡模型的顯著區域補償與偏振復原后的圖像沿輸入的通道進行級聯,作為深度學習網絡的輸入。數學模型如下所示:
其中:cat代表級聯操作;Io(i,j)|r,g,b表示偏振復原后的圖像,Is(i,j)表示前景超像素生成的顯著區域,級聯后的輸入I(i,j)|r,g,b,s包含三個RGB通道和一個目標的顯著區域通道。當輸入通道變為4時,對應的圖像尺寸也相應地變化為b×w×h×c,b代表批處理大小,w和h表示圖像的寬度和高度,c表示通道的個數。
編碼器和解碼器的結構被廣泛應用于圖像語義分割中,編碼器主要產生于深度神經網絡中,且出現于分辨率較低的提取器中;解碼器指的是能夠完全恢復到原圖的部分。為了解決處理高分辨率圖像的耗時問題,在DeepLabv3模型基礎上通過編碼和解碼架構進行改進,得到DeepLabv3+結構模型,如圖3所示。
編碼器部分就是DeepLabv3網絡,而網絡的解碼部分采用一個簡單有效的模塊。DeepLabv3+采用將帶空洞卷積塊并連在一起作為編碼部分,編碼結構的ASPP模塊連接在其后。DeepLabv3+應用了深度可分離結構的Xception卷積的加深結構改進,在解碼器模塊也同樣應用到,改進后的Xception結構模型如圖3所示。編碼器輸出的特征經過4倍雙線性插值上采樣得到的特征層和對應的經過1×1卷積降通道得到的特征層進行拼接,之后通過一個3×3的卷積對特征進行細化,最后通過一個4倍的雙線性插值上采樣得到最后的輸出。
DeepLabv3+特別注重目標邊緣的分割,優化細分結果,可以通過對空洞卷積的大小選組從而確定要提取的編碼部分輸出特征分辨率的大小。這種編碼和解碼的架構模型與DeepLabv3相比,具有更優秀的性能和更精細的分割效果。
2 實驗結果與分析
2.1 實驗設置
為了驗證所提出方法的有效性,本文進行了真實的水下成像場景實驗,水下偏振成像裝置示意圖如圖4所示。
采用可調節波長的水下潛水燈作為主動照明光源,型號為JAUNT-D80F。成像設備采用一個型號LUCID_PHX050S的攝像機,該攝像機可通過基于RGB的成像傳感器獲取水下圖像的偏振信息。為了模擬出接近實際的有懸浮顆粒的水下環境,在一個50 cm(長)×50 cm(寬)×80 cm(高)的水箱中倒入稀釋的牛奶溶液。實驗表明,牛奶可以在長時間的散射中模擬海水的散射特性。將實驗對象浸入水中,通過攝像機獲得線偏振方向分別為0°、45°、90°和135°的四張圖片I0°(x,y)、I45°(x,y)、I90°(x,y)和 I135°(x,y),可以看出在渾濁的水下環境中獲取的原始水下圖像的可視性差,圖像的細節信息模糊。
本文應用遷移學習的方法訓練網絡模型,即對已訓練完成的模型根據自己的需求進行調整,幫助訓練新的模型,從而在加快新模型學習效率的同時優化模型,因此將公共數據集中訓練好的模型應用在本文的目標檢測任務中。本文采用的主干網絡為ResNet101,預訓練的權重從PyTorch下載。訓練的網絡環境采用的開發語言為Python,利用其中的OpenCV、Numpy等庫文件對圖像進行處理。通過PyTorch 1.4.0版本搭建網絡模型,訓練中采用基于動量的隨機梯度下降法作為優化算法,采用交叉熵函數作為損失函數。
2.2 消融實驗
為了驗證本文中各個模塊的有效性,由于水下偏振圖像數據集的有限性,本節針對本文中制作的水下圖像數據集以基于ResNet為骨干網的改進DeepLapv3+網絡為基線進行消融實驗,消融模塊包括偏振復原效果分析和顯著區域自補償分析兩個部分。設置五組對比實驗,每次只有一個變量,其他參數配置不變。圖5所示為消融實驗的部分對比,其中偏表示基于偏振成像的圖像復原,顯表示顯著區域補償。消融實驗表明本文所引入的模塊都能在一定程度上改善目標檢測的效果。
2.2.1 偏振復原效果分析
針對于本文中制作的水下圖像數據集進行測試,相較于未經過偏振復原的水下圖像測試集,偏振復原的預處理使得網絡的顯著目標檢測在兩個評價指標均獲得較大的性能提升,如圖6、7所示,F-measure 至少提升了69%,MAE至少下降了87%。視覺對比上,經過偏振復原后的圖像質量明顯得到了很大的提升,最終的顯著目標也具有更清晰和完整的輪廓。
2.2.2 顯著區域自補償分析
針對于本文中制作的水下圖像數據集進行測試,與基線模型相比,由圖6、7可得,顯著目標初步定位的添加在兩個評價指標上均帶來性能的提升,F-measure至少提升了56%,MAE至少下降了83%。視覺對比上,利用前景超像素生成的顯著區域作為網絡模型的輸入增加了預測目標的準確性,使得顯著目標的檢測更為精準;另一方面,由于顯著目標初步定位算法中涉及超像素的分割,超像素塊的增加可以使圖像被分割得越來越精準,但當超像素塊達到一定的數量,其對實驗結果的影響變小,甚至可能影響網絡的表現。因此,顯著區域補償是有限的,盡管作為網絡其中之一的輸入是有效的,但會隨著卷積的操作而淡化。
2.3 對比實驗分析及結果
2.3.1 定性評估
為了測試和驗證本文算法的有效性,將其與不同的圖像增強算法進行了對比分析,包括文獻[24,25]的方法,L2UWE[26]、TIP[27]和TSA[28]三種傳統圖像復原的方法。圖8展示了在渾濁水下八組不同形狀以及不同材質的目標的對比圖像,其中原圖只取I0°(x,y)進行展示。從圖8中可以看出,文獻[24]提出的偏振復原算法在渾濁水下效果不理想,增加了噪聲并且出現了局部過曝;文獻[25]提出的算法提高了圖像的對比度,但圖像存在的帷幔效應沒有得到較好的解決,圖像的細節信息不清晰;L2UWE算法在低照度水下環境具有優勢,可以突出目標的局部信息,但是目標的色彩還原性沒有得到理想的效果;TIP算法提高了水下圖像的能見度和亮度,改善了細節,但存在局部過曝;TSA采用顏色校正策略則能夠有效地減少偽影,提高了圖像的對比度以及進行了色彩校正。但是在渾濁的水下環境中,存在大量的懸浮顆粒,嚴重降低了算法效果,以上算法并沒有較好地解決水下目標的細節模糊問題。本文算法通過改進水下偏振成像模型能夠對水下散射進行有效抑制,并具有更好的抗噪性能和去模糊能力,因此在渾濁水質中可以有效地增強目標,提高了目標的對比度和信噪比,更有利于后續顯著目標的提取。
此外將本文所提的顯著性目標檢測算法與現有的檢測方法進行實驗對比,包括SaliencyWater[29]和PDP[30]兩種傳統的算法,三種深度學習的算法PFNet[31]、SINet[32]和SVAMNet[33]。顯著性目標檢測的結果圖是灰度圖,采用OTSU閾值分割對生成的顯著圖進行分割得到二值化結果,以便與本文的算法結果進行對比。圖9(d)~(h)顯示的五種顯著性目標檢測方法均是經過OTSU閾值分割后的結果。本文提出的水下顯著目標檢測算法與其他五種顯著目標檢測算法均使用基于偏振復原后的渾濁水下圖像作為輸入。從圖9可以看出,傳統的顯著性檢測算法對水下噪聲敏感,魯棒性不高,出現了嚴重的過分割現象,導致水下目標的細節信息被忽略掉,不適用于復雜水下環境中顯著目標的檢測。深度學習的顯著性檢測算法能檢測出目標的大致輪廓,在渾濁度更高的水下環境甚至無法完成顯著目標檢測。相比之下本文算法對于光照不均勻、散射強以及噪聲等水質因素具有較強的抗干擾能力,可以較好地檢測出大部分的水下目標,并且可以保留細節信息,對于高渾濁水下環境更具有優勢。綜上,本文提出的算法與其他算法相比,該方法適用于渾濁的水下環境,利用偏振成像技術可以有效地提高在渾濁水下環境中目標的可見度,并且保證了顯著目標檢測的準確性和效率;隨著渾濁度的增加,該算法的效果會更加明顯。
2.3.2 定量評估
圖像質量評估是利用具體的指標數值來衡量圖像質量,圖像質量評估可分為參考和無參考兩類。本文分別采用一種參考方法和一種無參考方法來評估本文算法的有效性。對于參考方法,本文引入了特征相似度(FSIM)來評估生成圖像和參考圖像之間的圖像相似度,FSIM值越高,復原算法越能保留圖像的結構信息,圖像復原效果越好。對于無參考方法,本文使用自然圖像質量評估器(NIQE)來評估圖像的質量,其中較低的NIQE代表較高的圖像質量。對于參考方法,從表1可以看出,本文提出的算法具有更有利的價值,可以在渾濁的水下環境提供更多的圖像信息;對于無參考方法,從表2可得到本文算法更具有優勢。結果表明,經本文算法處理后的水下圖像在對比度、細節和清晰度方面都有較明顯的提升,這與之前定性評估的結論比較一致。
為了定量分析各顯著目標檢測算法的實驗結果,采用F1-measure和MAE作為評價指標。F1-measure是一種統計量,是精確率(presicion)和召回率(recall)的加權調和平均,當F1越高時,則檢測的效果越好;MAE表示對應位置差值的絕對值之和,MAE越低,算法的效果越好。表3給出了各個算法的F1-measure值,表4給出了各算法的MAE值。可以看出,本文算法的F1-measure值明顯高于其他對比方法,且MAE值均低于其他算法。表明了本文的顯著性目標檢測算法效果更佳,應對水下環境的各種因素干擾的魯棒性更強。
3 結束語
針對渾濁水下目標檢測所面臨的顯著目標提取較為困難的問題,本文結合偏振成像技術提出了一種渾濁水質中的顯著目標檢測算法。通過改進水下偏振成像模型,在基于偏振角估計后向散射的圖像復原基礎上,引入引導濾波進行水下去噪和采用PSF函數抑制前向散射引起的模糊效應,能夠在很大程度上提高水下圖像的質量和對比度,并為水下場景中的目標提供了更多的細節信息;利用改進MBD的水下顯著目標快速定位的方法對水下目標進行準確定位,再結合局部特征描述符來識別前景超像素,對于光照變化、幾何失真和局部對比度的差異具有較好的魯棒性,利用前景超像素生成的顯著區域優化神經網絡的輸入可以有效地提高顯著目標檢測的準確性。實驗結果表明,本文提出的算法能夠較好地克服強散射的水下環境對顯著目標檢測的影響,提高了水下圖像的對比度,突出了目標的邊緣等信息,并且保證了顯著目標檢測的準確性和效率。
未來將繼續優化水下顯著目標檢測算法,考慮到圖像退化的復原不足以解決水下圖像的退化問題,自然環境中水下懸浮雜質的遮擋也是水下環境感知過程中不可忽略的重要因素,尤其在懸浮雜質度高的水下環境,會導致有效信息的丟失從而影響后續的目標檢測。因此,尋求一種水下懸浮雜質遮擋圖像修復的目標檢測算法具有一定的實際意義。
參考文獻:
[1]Wang Qiang,Wang Xiaowei,Pan Xiang.Adaptive sonar beamformer based on inverse QR decomposition and recursive least squares filter for underwater target detection[J].International Journal of Remote Sensing,2012,33(13):3987-3998.
[2]Atallah L,Shang C,Bates R.Object detection at different resolution in archaeological side-scan sonar images[C]//Proc of IEEE Conference on Europe Oceans.Piscataway,NJ:IEEE Press,2005:287-292.
[3]Wang Huibin,Dong Xin,Shen Jie,et al.Saliency-based adaptive object extraction for color underwater images[J].Applied Mechanics and Materials,2013,347-350:3964-3970.
[4]Huo Guanying,Wu Ziyin,Li Jiabiao,et al.Underwater target detection and 3D reconstruction system based on binocular vision[J].Sensors,2018,18(10):3570.
[5]He Shengfeng,Lau R W H,Liu Wenxi,et al.SuperCNN:a superpixelwise convolutional neural network for salient object detection[J].International Journal of Computer Vision,2015,115(3):330-344.
[6]Li Guanbin,Yu Yizhou.Visual saliency based on multiscale deep features[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2015:5455-5463.
[7]Lee G,Tai Y W,Kim J.Deep saliency with encoded low level distance map and high level features[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Compu-ter Society,2016:660-668.
[8]Wang Linzhao,Wang Lijun,Lu Huchuan,et al.Saliency detection with recurrent fully convolutional networks[C]//Proc of the 14th Euro-pean Conference on Computer Vision.Cham:Springer,2016:825-841.
[9]Wang Tiantian,Borji A,Zhang Lihe,et al.A stagewise refinement model for detecting salient objects in images[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2017:4019-4028.
[10]Feng Mengyang,Lu Huchuan,Ding Errui.Attentive feedback network for boundary-aware salient object detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:1623-1632.
[11]Zhao Jiaxing,Liu Jiangjiang,Fan Dengping,et al.EGNet:edge gui-dance network for salient object detection[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2019:8779-8788.
[12]Guan Jinge,Zhao Yong,Zeng Yongqiu,et al.Optical polarization imaging for underwater target detection with non-scatter background[J].Journal of Measurement Science amp; Instrumentation,2020,11(4):335-342.
[13]Liu Fei,Han Pingli,Wei Yi,et al.Deeply seeing through highly turbid water by active polarization imaging[J].Optics Letters,2018,43(20):4903-4906.
[14]Han Pingli,Liu Fei,Wei Yi, et al.Optical correlation assists to enhance underwater polarization imaging performance[J].Optics and Lasers in Engineering,2020,134(11):106256.
[15]Wang Rui,Li Rui,Sun Haiyan.Haze removal based on multiple scattering model with superpixel algorithm[J].Signal Processing,2016,127(10):24-36.
[16]Schechner Y Y,Narasimhan S G,Nayar S K.Polarization-based vision through haze[J].Applied Optics,2003,42(3):511-525.
[17]He Kaiming,Sun Jian,Tang Xiaoou.Guided image filtering[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2012,35(6):1397-1409.
[18]Chen L C,Zhu Yukun,Papandreou G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//Proc of the 15th European Conference on Computer Vision.Cham:Springer,2018:833-851.
[19]Wei Yichen,Wen Fang,Zhu Wangjiang,et al.Geodesic saliency using background priors[C]//Proc of the 12th European Conference on Computer Vision.Berlin:Springer,2012:29-42.
[20]Jiang Bowen,Zhang Lihe,Lu Huchuan,et al.Saliency detection via absorbing Markov chain[C]//Proc of IEEE International Conference on Computer Vision.Washington DC:IEEE Computer Society,2013:1665-1672.
[21]Strand R,Ciesielski K C,Malmberg F,et al.The minimum barrier distance[J].Computer Vision and Image Understanding,2013,117(4):429-437.
[22]Achanta R,Shaji A,Smith K,et al.SLIC superpixels compared to state-of-the-art superpixel methods[J].IEEE Trans on Pattern Analysis amp; Machine Intelligence,2012,34(11):2274-2282.
[23]Margolin R,Zelnik-Manor L,Tal A.OTC:a novel local descriptor for scene classification[C]//Proc of the 14th European Conference on Computer Vision.Cham:Springer,2014:377-391.
[24]Schechner Y Y,Karpel N.Recovery of underwater visibility and structure by polarization analysis[J].IEEE Journal of Oceanic Engineering,2005,30(3):570-587.
[25]Li Xiaobo,Hu Haofeng,Zhao Lin,et al.Polarimetric image recovery method combining histogram stretching for underwater imaging[J].Scientific Reports,2018,8(1):12430.
[26]Marques T P,Albu A B.L2UWE:a framework for the efficient enhancement of low-light underwater images using local contrast and multi-scale fusion[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:538-539.
[27]Li Chongyi,Guo Jichang,Cong Runmin,et al.Underwater image enhancement by dehazing with minimum information loss and histogram distribution prior[J].IEEE Trans on Image Processing,2016,25(12):5664-5677.
[28]Fu Xueyang,Fan Zhiwen,Ling Mei,et al.Two-step approach for single underwater image enhancement[C]//Proc of International Symposium on Intelligent Signal Processing and Communication Systems.Piscataway,NJ:IEEE Press,2017:789-794.
[29]Huang Xiaoming,Zhang Yujin.Water flow driven salient object detection at 180 fps[J].Pattern Recognition,2018,76(4):95-107.
[30]Xiao Xiaolin,Zhou Yicong,Gong Yuejiao.RGB-‘D’ saliency detection with pseudo depth[J].IEEE Trans on Image Processing,2018,28(5):2126-2139.
[31]Li Hanchao,Xiong Pengfei,An Jie,et al.Pyramid attention network for semantic segmentation[EB/OL].(2018-11-25).https://arxiv.org/abs/1805.10180.
[32]Park H,Sjosund L,Yoo Y J,et al.SINet:extreme lightweight portrait segmentation networks with spatial squeeze module and information blocking decoder[C]//Proc of IEEE/CVF Winter Conference on Applications of Computer Vision.Piscataway,NJ:IEEE Press,2020:2066-2074.
[33]Islam M J,Wang Ruobing,De Langis K,et al.SVAM:saliency-guided visual attention modeling by autonomous underwater robots[EB/OL].(2020-11-13).https://arxiv.org/pdf/2011.06252.pdf.