999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于紅外圖像特征與K-means的邊緣檢測(cè)

2020-05-25 09:01:54蘇洪超洪少壯
紅外技術(shù) 2020年1期
關(guān)鍵詞:特征檢測(cè)

蘇洪超,胡 英,洪少壯

基于紅外圖像特征與K-means的邊緣檢測(cè)

蘇洪超,胡 英,洪少壯

(大連海事大學(xué) 船舶電氣工程學(xué)院,遼寧 大連 116026)

為解決紅外圖像邊緣模糊導(dǎo)致邊緣提取困難的問題,提出一種基于邊緣特征與K-means結(jié)合的紅外圖像邊緣檢測(cè)方法。首先將人眼視覺特性與紅外圖像邊緣點(diǎn)處的灰度分布特點(diǎn)結(jié)合,構(gòu)造出反映其結(jié)構(gòu)特征的數(shù)據(jù)集;再利用K-means將數(shù)據(jù)集分為邊緣點(diǎn)和非邊緣點(diǎn),提取出圖像邊緣;最后利用二步法將邊緣進(jìn)行細(xì)化,以便實(shí)現(xiàn)紅外圖像邊緣檢測(cè)。實(shí)驗(yàn)結(jié)果表明:該方法能夠通過自適應(yīng)閾值提取出紅外圖像的完整外部輪廓,并保留內(nèi)部邊緣信息,對(duì)弱邊緣起到良好的提取效果,并有效抑制噪聲干擾。

紅外圖像;邊緣檢測(cè);弱邊緣;K均值聚類

0 引言

邊緣檢測(cè)通過尋找圖像中灰度顯著變化的區(qū)域,輸出邊緣圖像,是計(jì)算機(jī)視覺和圖像處理中解決各種問題的基本操作,廣泛應(yīng)用于目標(biāo)跟蹤[1]、圖像分割[2]和圖像融合[3]等領(lǐng)域。近年來,隨著紅外成像技術(shù)的迅猛發(fā)展,紅外圖像邊緣檢測(cè)成為圖像處理中的熱點(diǎn)問題之一。由于紅外成像原理、外部環(huán)境失真和傳感器本身熱運(yùn)動(dòng)等原因,紅外圖像存在分辨率低、邊緣模糊、細(xì)節(jié)損失、低圖像對(duì)比度和背景噪聲多等問題[4-5],使得其邊緣檢測(cè)的難度增加。因此,許多學(xué)者致力于研究能夠適用于紅外圖像的邊緣檢測(cè)算法,如夏清[6]等人和許宏科[7]等人分別將Sobel算子和Canny算子進(jìn)行改進(jìn),使其能夠應(yīng)用于紅外圖像的邊緣提取。但上述算法只考慮了像素點(diǎn)單一的導(dǎo)數(shù)特征,對(duì)噪聲的抑制能力不足,對(duì)于背景復(fù)雜的紅外圖像無(wú)法達(dá)到理想效果。此外,李會(huì)鴿[8]等人提出基于灰度簡(jiǎn)化B型關(guān)聯(lián)度的灰度圖像邊緣檢測(cè),改進(jìn)了傳統(tǒng)算法中將單一導(dǎo)數(shù)特征用于邊緣檢測(cè)噪點(diǎn)過多的問題,為紅外圖像邊緣提取提供思路。焦安波[9]等人提出基于改進(jìn)的整體嵌套邊緣檢測(cè)(Holistically- Nested Edge Detection,HED)網(wǎng)絡(luò)的圖像邊緣檢測(cè)算法,利用深度學(xué)習(xí)技術(shù)為紅外圖像邊緣提取提供了一種新方法。雖然經(jīng)過改進(jìn)的算法都提高了檢測(cè)精度,但在不同場(chǎng)景不同應(yīng)用背景下的適用性較低。由此,本文提出將邊緣特征與K-means結(jié)合的邊緣檢測(cè)方法。根據(jù)邊緣點(diǎn)附近灰度分布特點(diǎn),建立邊緣特征數(shù)據(jù)集,盡可能量化邊緣點(diǎn)的全局信息。利用K-means對(duì)數(shù)據(jù)集進(jìn)行聚類,將數(shù)據(jù)集分為邊緣點(diǎn)與非邊緣點(diǎn),從而達(dá)到紅外圖像邊緣提取的目的。實(shí)驗(yàn)表明,本文算法能夠?qū)t外圖像中弱邊緣進(jìn)行提取,對(duì)粗大輪廓提取效果顯著,并能最大程度上降低噪聲的影響。

1 邊緣點(diǎn)特征數(shù)據(jù)集構(gòu)造

邊緣檢測(cè)的目的是將圖像中灰度變化劇烈的地方檢測(cè)出來,然后提取出與人眼視覺效果相符合的邊緣信息,所以邊緣提取應(yīng)該與人眼視覺特征相結(jié)合。本文算法將人眼特性[10],如亮度視覺特性和結(jié)構(gòu)視覺特性的概念應(yīng)用到紅外圖像邊緣檢測(cè)中,將其與紅外圖像中兩種固有信息即灰度信息和梯度信息相結(jié)合,構(gòu)造出能描述紅外圖像邊緣的3個(gè)基本特征:邊緣灰度分布特征、邊緣方向特征和邊緣鄰域一致特征。下面將詳細(xì)說明如何對(duì)3大特征進(jìn)行量化,并構(gòu)造邊緣特征數(shù)據(jù)集。

1.1 邊緣灰度分布特征分量

由文獻(xiàn)[10]中對(duì)人眼的視覺特性分析可知,亮度變化幅度大的區(qū)域容易引起人的視覺注意,被認(rèn)為是邊緣,而亮度均勻分布的區(qū)域則認(rèn)為是背景或紋理。圖像邊緣提取應(yīng)符合人眼的視覺特點(diǎn),才能用于后續(xù)處理。紅外成像系統(tǒng)是利用紅外熱輻射強(qiáng)度獲取溫度信息,利用灰度圖像反映目標(biāo)與背景的溫度分布。其感興趣區(qū)域的圖像灰度必然會(huì)與周圍背景有一定差別,可能是目標(biāo)亮背景暗,或者相反。但無(wú)論是哪種情況,其亮度特點(diǎn)必在邊緣處體現(xiàn)。所以整體較暗區(qū)域,不會(huì)存在目標(biāo)邊緣,只會(huì)是背景或紋理,而兩者不是感興趣區(qū)域,沒有提取價(jià)值,不在本文算法提取范圍內(nèi)。因此,將紅外圖像灰度(,)作為邊緣特征分量,排除其背景和紋理區(qū)域。

如圖1所示,(a)為邊緣灰度圖像,(b)和(c)為背景和紋理圖像。

圖1 邊緣、背景和紋理灰度分布對(duì)比

1.2 邊緣方向性特征分量

式中:為掩模邊長(zhǎng);1和2為當(dāng)前掩模白色區(qū)域1和黑色區(qū)域2的灰度和;計(jì)算方法如式(2)、(3)所示,其中(,)為圖像(,)位置上像素值:

若點(diǎn)(,)為邊緣點(diǎn),則在邊緣方向處(,)取得極大值。而平滑區(qū)域,無(wú)論何種方向,(,)都很小。由于本文算法沒有采取傳統(tǒng)梯度提取方法中將各方向梯度加權(quán)的提取方式,而是取各方向中最大值為梯度信息。因此,該方法能夠盡可能保留紅外圖像弱邊緣信息。

1.3 邊緣結(jié)構(gòu)特征分量

在紅外圖像中也有大量噪聲帶有明顯方向性和較大的灰度突變,所以僅僅考慮灰度和邊緣梯度特征是不充分的。基于人眼的結(jié)構(gòu)視覺特性,將具有連續(xù)性的區(qū)域判斷為邊緣,而噪點(diǎn)分布散亂且隨機(jī)。因此,本文引入結(jié)構(gòu)一致性分量用來描述邊緣與噪點(diǎn)在結(jié)構(gòu)上的區(qū)別,盡可能的削弱噪聲影響。以上一小節(jié)中梯度(,)為基礎(chǔ),生成一幅初步邊緣圖像,將初步提取的邊緣圖像進(jìn)行二值化操作。通常二值化閾值選取中需要人為設(shè)定閾值,但人為選取具有主觀性,且不同圖像邊緣分布具有隨機(jī)性,所以人類視覺很難辨別出所有邊緣位置,這將導(dǎo)致后續(xù)分類不準(zhǔn)確。本文利用Otsu算法計(jì)算邊緣信息中背景與邊緣的類間方差,通過不斷加大二值化閾值,當(dāng)使類間方差達(dá)到極大值時(shí)停止迭代,此時(shí)認(rèn)為邊緣信息完整且能最大程度上降低噪聲影響。但由于初步提取的邊緣信息中含有大量噪點(diǎn),邊緣在整幅圖像中占比較小,且傳統(tǒng)Otsu算法對(duì)噪聲和目標(biāo)大小十分敏感,可能會(huì)得到局部非邊緣區(qū)域的類間方差的極大值并輸出錯(cuò)誤的二值化閾值。為避免這種現(xiàn)象,本文算法利用文獻(xiàn)[13]中的Otsu改進(jìn)方法,將Otsu算法與圖像熵結(jié)合,當(dāng)達(dá)到式(4)、(5)附加終止條件時(shí),遞歸停止:

式中:1,2視情況而定;0和1分別為整幅圖像和大于閾值的灰度均值;0和1分別為整幅圖像和大于閾值的像素熵。其中圖像熵由式(6)方法求取:

式中:p為灰度值的頻率。

該方法彌補(bǔ)了Otsu算法在多噪聲小目標(biāo)方面的缺陷,能夠得到理想的分割結(jié)果。圖3中從(a)到(d)為遞歸過程,可以看出本文引入改進(jìn)Otsu算法后,能夠得到完整的初步邊緣圖像,并滿足后續(xù)邊緣結(jié)構(gòu)特征分量提取。

圖3 初步邊緣圖像

在邊緣初步提取圖像的基礎(chǔ)上,以邊緣點(diǎn)(,)為中心,取大小為×的窗口,計(jì)算窗口內(nèi)所有點(diǎn)與(,)相等的個(gè)數(shù),生成邊緣結(jié)構(gòu)特征分量(,):

式中:(,)∈,={(,)||-|≤,|-|≤};(,)為邊緣方向性特征分量。

當(dāng)選取合適的反應(yīng)級(jí)數(shù)n時(shí),對(duì)lnk*與1/T進(jìn)行線性擬合,由直線的斜率和截距即可得到樣品動(dòng)力學(xué)參數(shù)E和A,實(shí)現(xiàn)動(dòng)力學(xué)求解。

由于得到的初步圖像邊緣具有一定的寬度和連續(xù)性,在邊緣處的特征分量將出現(xiàn)比較高的值,而在噪聲干擾處,其特征分量會(huì)很低。由此可以對(duì)噪聲起到平滑作用,進(jìn)一步抑制噪聲對(duì)邊緣檢測(cè)的影響。

2 K-means聚類

K-means是一種聚類算法,即根據(jù)相似性原則,將具有高相似度的數(shù)據(jù)集劃分為同一類。無(wú)需任何先驗(yàn)知識(shí),是一種無(wú)監(jiān)督過程,在人工智能、機(jī)器學(xué)習(xí)和模式識(shí)別領(lǐng)域中應(yīng)用廣泛。

K-means是目前最受歡迎的聚類方法之一,已被確定為數(shù)據(jù)挖掘十大算法之一[14]。該算法的描述及實(shí)現(xiàn)過程如下:

1)給定數(shù)據(jù)集={1, …, x},初始化個(gè)聚類中心={1, …, C}。

2)基于歐式距離將數(shù)據(jù)集中的點(diǎn)劃分到某個(gè)分類之中。

3)計(jì)算新的聚類中心C

4)當(dāng)滿足最小化誤差函數(shù)()或達(dá)到迭代次數(shù),迭代停止,否則轉(zhuǎn)入2)繼續(xù)迭代:

將上章定義的3個(gè)特征分量(,)、(,)和(,)分別歸一化,并組成一個(gè)描述邊緣特征的數(shù)據(jù)集(,):

(,)={(,),(,),(,)} (10)

利用K-means算法對(duì)其聚類,分為兩類,即邊緣點(diǎn)與非邊緣點(diǎn)。由于邊緣點(diǎn)數(shù)據(jù)集由3個(gè)特征向量組成,分別體現(xiàn)了紅外圖像邊緣的3個(gè)基本特征。因此用K-means算法對(duì)其分類,實(shí)質(zhì)是利用其逼近能力將3種特征有機(jī)整合在一起,以達(dá)到多尺度、多特征紅外圖像邊緣檢測(cè)的目的。

3 邊緣細(xì)化

本文算法對(duì)圖像邊緣提取較“厚”。雖然檢測(cè)到完整邊緣信息,但不利于后續(xù)處理。所以應(yīng)對(duì)邊緣進(jìn)行細(xì)化處理。現(xiàn)有邊緣細(xì)化算法主要分為兩類,分別為基于二值化邊緣圖像和基于形態(tài)學(xué)處理的方法。一個(gè)良好細(xì)化算法必須具有如下性質(zhì):

1)應(yīng)給出單像素寬結(jié)構(gòu)。

2)保持原本邊緣連續(xù)性。

3)計(jì)算量小,不影響實(shí)時(shí)性。

本文采用林世毅[15]等人提出的基于二步法的邊緣細(xì)化算法。其主要思想是利用模板將非邊緣點(diǎn)逐步排除,在保持原有邊緣的前提下,得到理想的單像素細(xì)化結(jié)果。如圖4所示為邊緣細(xì)化效果圖,通過圖中(a)、(b)可以看出,邊緣細(xì)化算法效果顯著,有利于后續(xù)處理。

圖4 邊緣細(xì)化效果

4 實(shí)驗(yàn)結(jié)果分析

本文算法基于VS 2013環(huán)境和C++語(yǔ)言實(shí)現(xiàn),并將文獻(xiàn)[6]和文獻(xiàn)[7]算法與本文算法進(jìn)行對(duì)比測(cè)試。測(cè)試結(jié)果如圖5、圖6和圖7所示。從圖中可以看出,文獻(xiàn)[6]算法對(duì)紅外圖像大輪廓提取效果顯著,但內(nèi)部輪廓提取不全。文獻(xiàn)[7]算法邊緣提取完整,但對(duì)噪聲的抑制效果不夠理想。本文算法對(duì)紅外圖像弱邊緣檢測(cè)能力優(yōu)于另外兩種檢測(cè)方法,能夠提取出完整邊緣的基礎(chǔ)上,有效抑制噪聲影響。

圖5 實(shí)驗(yàn)結(jié)果1

圖6 實(shí)驗(yàn)結(jié)果2

圖7 實(shí)驗(yàn)結(jié)果3

5 結(jié)論

本文提出一種基于紅外圖像邊緣特征和K-means結(jié)合的邊緣檢測(cè)算法,通過構(gòu)造邊緣特征數(shù)據(jù)集對(duì)紅外圖像的邊緣灰度分布、梯度及結(jié)構(gòu)性進(jìn)行量化。由于該特征集在構(gòu)造時(shí)充分考慮了紅外圖像邊緣模糊不易提取和噪聲點(diǎn)多的特點(diǎn),因此對(duì)紅外圖像邊緣有很好的提取效果,且能夠抑制噪聲的影響。此外,使用紅外圖像邊緣的多特征而不是單一特征使得算法更具適應(yīng)性。

[1] 修春波, 李欣. 融合分?jǐn)?shù)階微分邊緣特征的自適應(yīng)跟蹤[J]. 光學(xué)精密工程, 2019, 27(1): 246-255.

XIU Chunbo, LI Xin. Adaptive tracking method with fractional differential edge feature[J]., 2019, 27(1): 246-255.

[2] 丁偉利, 谷朝, 王明魁, 等. 基于邊緣預(yù)測(cè)與邊緣增長(zhǎng)的圖像分割方法[J]. 高技術(shù)通訊, 2018(5): 409-416.

DING Weili, GU Zhao, WANG Mingkui, et al. Image Segmentation Based on Edge Prediction and edge growth[J]., 2018(5): 409-416.

[3] 邱澤敏. 結(jié)合區(qū)域與邊緣特征的紅外與可見光圖像融合算法[J]. 紅外技術(shù), 2018, 40(5):53-58.

QIU Zemin. Infrared and Vision Image Fusion Algorithm Combined with Regional Characteristics and Edge Characteristics[J]., 2018, 40(5): 53-58.

[4] GAO C, MENG D, YANG Y, et al. Infrared Patch-Image Model for Small Target Detection in a Single Image[J]., 2013, 22(12): 4996-5009.

[5] MENG J. Edge enhancement and noise suppression for infrared image based on feature analysis[J]., 2018, 4(5): 142-152.

[6] 夏清, 胡振琪, 許立江, 等. 一種改進(jìn)Sobel算子的熱紅外影像邊緣檢測(cè)方法[J]. 紅外技術(shù), 2015, 37(6): 462-466.

XIA Qing, HU Zhenqi, XU Lijiang, et al. A Modified Edge Extraction Algorithm of Infrared Thermal Image Based on Sobel Operator[J]., 2015, 37(6): 462-466.

[7] 許宏科, 秦嚴(yán)嚴(yán), 陳會(huì)茹. 一種基于改進(jìn)Canny的邊緣檢測(cè)算法[J].紅外技術(shù), 2014, 36(3): 210-214.

XU Hongke, QIN Yanyan, CHEN Huiru. An Improved for Edge Detection Based on Canny[J]., 2014, 36(3): 210-214.

[8] 李會(huì)鴿, 韓躍平, 郭靜. 基于灰色簡(jiǎn)化B型關(guān)聯(lián)度的圖像邊緣檢測(cè)[J]. 紅外技術(shù), 2017, 39(2): 65-69.

LI Huige, HAN Yueping, GUO Jing. Image Edge Detection Based on Gray Relation of Simplified B-Mode[J]., 2017, 39(2): 65-69.

[9] 焦安波, 何淼, 羅海波. 一種改進(jìn)的HED網(wǎng)絡(luò)及其在邊緣檢測(cè)中的應(yīng)用[J]. 紅外技術(shù), 2019, 41(1): 76-81.

JIAO Anbo, HE Miao, LUO Haibo. Research on Significant Edge Detection of Infrared Image Based on Deep Learning[J]., 2019, 41(1): 76-81.

[10] 賈其, 呂緒良, 吳超, 等. 基于人眼視覺特性的紅外圖像增強(qiáng)技術(shù)研究[J]. 紅外技術(shù), 2010, 32(12): 708-712.

JIA Qi, LV Xuliang, WU Chao, et al. Research on Infrared Image Enhancement Based on Human Visual System[J]., 2019, 41(1): 76-81.

[11] 楊昆, 張明新, 先曉兵, 等. 一種基于Sobel與K-means的邊緣檢測(cè)方法[J].光學(xué)技術(shù), 2014(5): 394-398.

YANG Kun, ZHANG Mingxin, XIAN Xiaobing, et al. An Edge Detection Method Based on the Sobel and K-means[J]., 2014(5): 394-398.

[12] 陳鍛生, 陳齊松, 劉政凱. 基于類灰度圖的類Haar特征構(gòu)建及其應(yīng)用[J].鄭州大學(xué)學(xué)報(bào): 理學(xué)版, 2007, 39(1):33-39.

CHEN Duansheng, CHEN Qisong, LIU Zhengkai. Construction and Application of Haar-like Features Based on Gray-like Images[J].: Nat.Sci.Ed, 2007, 39(1): 33-39.

[13] 韓建濤, 姜衛(wèi)東, 陳曾平. 基于OTSU準(zhǔn)則及圖像熵的局部遞歸分割算法研究[J]. 紅外技術(shù), 2004, 26(6): 89-92+96.

HAN Jiantao, JIANG Weidong, CHEN Zengping. Partial Recursive Segmentation Algorithm Based on Otsu and Image Entropy[J]., 2004, 26(6): 89-92+96.

[14] WONG J A H A. Algorithm AS 136: A K-Means Clustering Algorithm[J].(), 1979, 28(1): 100-108.

[15] 林世毅, 蘇廣川, 陳東, 等. 基于二步法的邊緣細(xì)化算法研究[J]. 儀器儀表學(xué)報(bào), 2004, 25(S1): 682-684.

LIN Shiyi , SU Guangchuan, CHEN Dong, et al. Study on Algorithm of Edge Thinning Based on Two-step Method[J]., 2004, 25(S1): 682-684.

Edge Detection Based on Characteristics of Infrared Image and K-means

SU Hongchao,HU Ying,HONG Shaozhuang

(School of Marine Electrical Engineering, Dalian Maritime University, Dalian 116026, China)

An infrared image edge detection method based on edge characteristics combined with K-means is proposed in this study to solve the problem of edge extraction caused by the blurring of infrared image edges. First, human visual characteristics are combined with gray distribution characteristics at the edge of the infrared image to construct a data set reflecting its structural characteristics. Second, K-means is used to classify the data set into edge and non-edge points to extract the image edges. Third, the edge is refined using a two-step method to achieve infrared image edge detection. The experimental results show that the proposed method can extract the complete external contour of the infrared image through the adaptive threshold and retain the internal edge information, which can extract the weak edge and effectively suppress noise interference.

infrared imagery, edge detection, weak edge, K-means

TP391

A

1001-8891(2020)01-0081-05

2019-07-08;

2019-12-24.

蘇洪超(1996-),男,碩士研究生,研究方向?yàn)榧t外圖像邊緣提取、模式識(shí)別。E-mail:hongchaosuvip@163.com。

猜你喜歡
特征檢測(cè)
抓住特征巧觀察
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
“幾何圖形”檢測(cè)題
“角”檢測(cè)題
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
主站蜘蛛池模板: 凹凸精品免费精品视频| 无遮挡国产高潮视频免费观看| 一区二区日韩国产精久久| 91口爆吞精国产对白第三集 | 成人福利视频网| 一级一毛片a级毛片| 国产黑丝视频在线观看| 国产亚洲欧美在线中文bt天堂| 欧美一级在线看| 亚洲精品无码久久毛片波多野吉| h视频在线播放| 中文字幕欧美日韩高清| 亚洲免费福利视频| 999在线免费视频| 欧美综合区自拍亚洲综合绿色| 91毛片网| 一级全黄毛片| 99re视频在线| 国产第一页免费浮力影院| 99视频只有精品| 一本色道久久88| 丰满人妻中出白浆| 国产真实二区一区在线亚洲| 大学生久久香蕉国产线观看| 国产欧美日韩18| 91啪在线| 在线精品自拍| 蜜桃视频一区二区| 亚洲欧美日本国产综合在线 | 免费无码又爽又刺激高| 国产综合无码一区二区色蜜蜜| 日韩精品无码一级毛片免费| 欧美天堂在线| 亚洲bt欧美bt精品| 成人在线观看一区| 波多野结衣亚洲一区| 免费精品一区二区h| 久久综合婷婷| 97国产成人无码精品久久久| 国产丝袜91| 国产亚洲欧美在线专区| 成年人免费国产视频| 国产精品成人免费视频99| 久久精品视频亚洲| 国产精品原创不卡在线| 18禁黄无遮挡免费动漫网站| 色屁屁一区二区三区视频国产| 国产在线观看第二页| 亚洲小视频网站| 九九热精品视频在线| 99热这里只有精品5| 亚洲乱伦视频| 老司机精品久久| 久久大香伊蕉在人线观看热2| 老司机午夜精品网站在线观看 | 午夜啪啪福利| 在线播放真实国产乱子伦| 国产91久久久久久| 欧美人与动牲交a欧美精品| 国产精品成人不卡在线观看| 日本欧美一二三区色视频| 人人爱天天做夜夜爽| 亚洲AV无码久久精品色欲| 亚洲热线99精品视频| 亚洲有无码中文网| 成人亚洲视频| 亚洲床戏一区| 久久综合亚洲色一区二区三区| 亚洲天堂免费观看| 色综合手机在线| 国产呦视频免费视频在线观看| 热久久这里是精品6免费观看| 91久久精品国产| 午夜不卡视频| 亚洲中文字幕久久精品无码一区| 美女毛片在线| 欧美成人aⅴ| 91在线高清视频| 丁香亚洲综合五月天婷婷| 国产亚洲精品97AA片在线播放| h网址在线观看| 亚洲成人网在线播放|