999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

圖像分割方法綜述

2019-05-23 10:44:40侯紅英高甜李桃
電腦知識與技術(shù) 2019年5期
關(guān)鍵詞:語義

侯紅英 高甜 李桃

摘要:圖像分割是圖像處理中的一項(xiàng)關(guān)鍵技術(shù),并且在工業(yè)、醫(yī)學(xué)、軍事等諸多領(lǐng)域得到了廣泛應(yīng)用。該文主要對傳統(tǒng)的圖像分割方法和近年來出現(xiàn)的一些新方法進(jìn)行了綜述。介紹了傳統(tǒng)方法中的閾值法、區(qū)域法、邊緣檢測法以及新方法中的超像素法和語義分割法,分析了各種方法的原理及特點(diǎn)。

關(guān)鍵詞:圖像分割;傳統(tǒng)方法;語義

中圖分類號:TP391 文獻(xiàn)標(biāo)識碼:A 文章編號:1009-3044(2019)05-0176-02

1 引言

圖像分割是對圖像進(jìn)行分析的重要步驟之一。圖像分割是根據(jù)相似性規(guī)則將一幅圖像劃分為多個子圖像區(qū)域的過程 [1]。 每個子區(qū)域中的每個像素在某些度量或計(jì)算的特征(如灰度,顏色,紋理和形狀)下是相似的。我們還可以從數(shù)學(xué)的角度來理解圖像分割:整個圖像區(qū)域用集合R來表示,那么圖像分割則是要把R分成一組連通且非空的子集,使得,且存在判斷區(qū)域一致性的邏輯謂詞,滿足為真,為假。圖像分割是為了使圖像更容易理解和分析,從而需要對圖像的表示形式加以簡化和變換。

2 傳統(tǒng)的圖像分割方法

圖像有低級、中級和高級三種語義。傳統(tǒng)圖像分割方法主要是利用了圖像的低級語義,比如顏色、文理以及形狀等。常用方法主要有閾值法、區(qū)域法以及邊緣檢測法。

2.1 閾值法

閾值法的基本原理是結(jié)合圖像的灰度特征計(jì)算一個或多個灰度閾值,并將圖像中每個像素的灰度值與閾值進(jìn)行比較,最后根據(jù)比較的結(jié)果將像素劃分到相應(yīng)的類別[2]。 因此,閾值法的關(guān)鍵是根據(jù)一定的準(zhǔn)則來求出最優(yōu)灰度閾值。典型的全局單閾值分割方法是由Prewitt等人提出的直方圖雙峰法。該方法假設(shè)圖像具有不同的目標(biāo)和背景,并且其灰度直方圖具有雙峰分布特性,選擇兩個峰值之間的谷相對應(yīng)的灰度級作為閾值。通常,目標(biāo)和背景之間的對比度在圖像中的每個地方都各不相同,并且難以用一個全局閾值將目標(biāo)與背景分離。因此,有必要根據(jù)圖像的局部特征使用不同的閾值進(jìn)行圖像分割。在處理過程中,需要根據(jù)實(shí)際問題將圖像劃分為若干個子區(qū)域來求解閾值,從而進(jìn)行圖像分割。 閾值分割的優(yōu)點(diǎn)是計(jì)算簡單、快速。然而,由于閾值的確定取決于灰度直方圖,沒有考慮圖像像素的空間位置關(guān)系,因此如果圖像的背景復(fù)雜且目標(biāo)和背景灰度值差別不大時,部分邊界信息很容易丟失。

2.2 區(qū)域法

區(qū)域分割是具有相似屬性像素的連接,以形成所需的分割區(qū)域。該方法結(jié)合了圖像的局部空間信息,可有效地克服圖像分割時空間不連續(xù)的缺點(diǎn),但同時也會造成圖像的過分割。區(qū)域法主要包括區(qū)域生長法和區(qū)域分裂合并法。區(qū)域生長法的基本思想如下:從能夠表示每個生長區(qū)域的一組種子像素開始,將滿足條件的種子像素鄰域內(nèi)的像素合并到由種子像素表示的生長區(qū)域中,并將合并的新像素作為種子像素繼續(xù)之前的合并過程,直到找不到符合條件的新像素時停止合并操作[3]。所以,區(qū)域生長法的關(guān)鍵點(diǎn)在于選擇恰當(dāng)?shù)某跏挤N子像素并確定有效的生長規(guī)則。通常還要受到具體問題的限制和影響,初始種子像素和生長準(zhǔn)則決定了最后形成的分割區(qū)域,對這兩個因素的不恰當(dāng)處理可能會導(dǎo)致過度分割或者欠分割的問題。區(qū)域分裂合并算法有分裂與合并兩個步驟,可以先進(jìn)行分裂,再進(jìn)行合并,也可以分裂和合并同時進(jìn)行,在連續(xù)的分裂和合并之后,獲得圖像的分割結(jié)果。該方法是結(jié)合圖像中的區(qū)域特征指定分裂準(zhǔn)則,如果區(qū)域的特征不一致,則會繼續(xù)分裂成四個相鄰的區(qū)域,然后再對分裂后的每個區(qū)域進(jìn)行相同的操作,直到不再滿足給定的分裂準(zhǔn)則。

2.3 邊緣檢測法

邊緣是圖像中兩個不同區(qū)域的邊界線上連續(xù)像素點(diǎn)的集合,體現(xiàn)了圖像特征的變化,如灰度、顏色、紋理。邊緣檢測則是檢測圖像的結(jié)構(gòu)或灰度級突然變化的位置,這通常是一個區(qū)域的開始和另一個區(qū)域結(jié)束的地方。由于邊緣灰度值會產(chǎn)生屋頂型和階躍型兩種變化,基于邊緣的分割方法則是基于灰度值的邊緣檢測。圖像的灰度級變化可以通過圖像灰度分布的梯度來表示,可以使用微分算子進(jìn)行邊緣檢測[4]。其中比較常用的有Roberts算子、Sobel算子、Prewitt算子、Laplace算子和Canny算子等。 在實(shí)際的應(yīng)用中,微分算子常用小區(qū)域模板加以表示,微分運(yùn)算則是利用小區(qū)域模板與圖像進(jìn)行卷積來實(shí)現(xiàn)的。這些算子對噪聲敏感,適用于低噪聲且不太復(fù)雜的圖像。因?yàn)檫吘壓驮肼暥季哂谢叶炔贿B續(xù)性,所以一般會在使用微分算子檢測邊緣之前,對圖像先進(jìn)行平滑濾波處理。

3 圖像分割的新理論

在利用低級語義信息對圖像進(jìn)行分割時,如果只是針對一些簡單場景中的物體,該方法是可行的,但如果是場景較為復(fù)雜的圖像,僅采用低級語義進(jìn)行圖像分割的效果則不是很理想。此時,可以結(jié)合圖像的中、高級語義來提高分割效果。

3.1 超像素法

在2000年左右,研究者將圖論的理論引入到圖像分割,將待分割圖像映射為帶權(quán)無向圖,根據(jù)圖的頂點(diǎn)以及邊的信息構(gòu)造代價函數(shù),并對其進(jìn)行優(yōu)化。圖像分割轉(zhuǎn)換為圖的頂點(diǎn)標(biāo)注,頂點(diǎn)標(biāo)號相同像素屬于同一個圖像塊,這些圖像塊則稱為超像素[5]。另一種方法是根據(jù)圖像中單個像素的信息以及像素之間的相互關(guān)系,借鑒無監(jiān)督學(xué)習(xí)的思想,結(jié)合聚類算法,將具有相似特征的相鄰像素劃分到同一超像素。在超像素方法中,主要有NCut、Graph Cuts、Meanshift等經(jīng)典算法,這類算法的時間復(fù)雜度較高。針對不足之處,在上述經(jīng)典算法的基礎(chǔ)上加以改進(jìn),產(chǎn)生了SEEDS、LSC、SLIC等算法,改進(jìn)后的算法在生成圖像塊的質(zhì)量和算法的時間復(fù)雜度上都有著更好的表現(xiàn)[6]。

3.2 語義分割法

采用高級語義的圖像分割稱為語義分割,Ohta等人于1978年最早提出圖像語義分割的概念,認(rèn)為語義分割是為圖像中每個像素分配一個預(yù)先定義的表示其語義目標(biāo)類別的標(biāo)簽[7]。語義分割分為兩種形式:自頂向下和自底向上。自頂向下則是使用物體的形狀模型在待分割圖像中做匹配搜索,由于每種物體的形狀差異性很大,所以這種方法的適應(yīng)性不理想。自底向上的方法不需要物體形狀的先驗(yàn)知識,先從圖中生成候選區(qū)域,然后對候選區(qū)域進(jìn)行分類預(yù)測[8]。在自底向上方法中的另一種思路是直接以圖像像素或超像素為處理單位,提取其本身及領(lǐng)域的特征用于語義分割。該方法是以大量帶有像素級標(biāo)注的圖像為樣本,訓(xùn)練諸如支持向量機(jī)、神經(jīng)網(wǎng)絡(luò)等的分類器[9],然后對圖像中每個像素進(jìn)行分類。

隨著圖像分割應(yīng)用范圍的不斷擴(kuò)大,對圖像分割的質(zhì)量要求也越來越高。但到目前為止,還沒有任何的分割算法可以適用于所有的圖像,而且隨著應(yīng)用的不斷深入,算法的復(fù)雜性越來越高,需要解決的問題也會越來越多。因此應(yīng)該把圖像分割方法的研究與新理論、新技術(shù)相結(jié)合,圖像分割技術(shù)將會向著更精確、快速的方向發(fā)展。

參考文獻(xiàn):

[1] 羅希平,田捷,諸葛嬰,等.圖像分割方法綜述[J].模式識別與人工智能,1999,12(3):300-312.

[2] Otsu N. A threshold selection method from gray-level histograms. IEEE Trans. on Systems Man and Cybernetics, 1979,9(1):62-66.

[3] Adams R, Bischof L. Seeded region growing. IEEE Trans. on Pattern Analysis and Machine Intelligence, 1994,16(6):641-647.

[4] Ziou D, Tabbone S. A study of edge detection techniques for segmentation computing approaches. Intl Journal of Computer Applications, 2010,CASCT(1):35-41.

[5] Ren X, Malik J. Learning a classification model for segmentation. In: Proc. of the 10th Intl Conf. on Computer Vision. IEEE, 2003:10-17.

[6] 姜楓,顧慶,郝慧珍,等.基于內(nèi)容的圖像分割方法綜述[J].軟件學(xué)報(bào),2017,28(1):160-183.

[7] Csurka G, Perronnin F. An efficient approach to semantic segmentation. Intl Journal of Computer Vision, 2011,95(2):198-212.

[8] Todorovic S, Ahuja N. Learning subcategory relevances for category recognition. In: Proc. of the IEEE Conf. on CVPR.Washington: IEEE Computer Society, 2008. 1-8.

[9] Bai X, Wang W. Saliency-SVM: An automatic approach for image segmentation. Neurocomputing, 2014,136(8):243-255.

【通聯(lián)編輯:代影】

猜你喜歡
語義
為什么字看久了就不認(rèn)識了
語言與語義
“社會”一詞的語義流動與新陳代謝
“上”與“下”語義的不對稱性及其認(rèn)知闡釋
“吃+NP”的語義生成機(jī)制研究
“V+了+NP1+NP2”中V的語義指向簡談
認(rèn)知范疇模糊與語義模糊
“V+X+算+X”構(gòu)式的語義功能及語義網(wǎng)絡(luò)——兼及與“V+X+是+X”構(gòu)式的轉(zhuǎn)換
語言與翻譯(2014年2期)2014-07-12 15:49:25
“熊孩子”語義新探
語文知識(2014年2期)2014-02-28 21:59:18
“深+N季”組配的認(rèn)知語義分析
主站蜘蛛池模板: 欧美www在线观看| 国产拍在线| 伊人激情综合| 亚洲一区二区约美女探花| 欧洲成人在线观看| 久久免费精品琪琪| 国产中文在线亚洲精品官网| 2021国产精品自拍| 在线欧美日韩国产| 无码粉嫩虎白一线天在线观看| 午夜久久影院| 97青青青国产在线播放| 国产乱子伦无码精品小说| 国产成人综合亚洲欧洲色就色| 日韩精品中文字幕一区三区| 日本免费高清一区| 欧美a级在线| 久久性视频| 欧美在线导航| 看国产毛片| 国产成人乱码一区二区三区在线| 国产精品自在拍首页视频8| 99尹人香蕉国产免费天天拍| 亚洲成a人在线播放www| 欧美成人一级| 在线视频一区二区三区不卡| 露脸国产精品自产在线播| 久久精品这里只有国产中文精品| 五月婷婷综合网| 亚洲精品天堂在线观看| 欧美日韩久久综合| 一区二区三区国产| 久久伊人色| 第一区免费在线观看| 亚洲第一黄片大全| 亚洲视频一区| 国产欧美日韩视频一区二区三区| 亚洲天堂自拍| 日韩欧美在线观看| 久久99国产乱子伦精品免| 国产精品理论片| 国产精品三区四区| 人与鲁专区| 性喷潮久久久久久久久| 日本高清在线看免费观看| 女人一级毛片| 国产精品亚洲va在线观看| 亚洲一级毛片在线播放| jizz在线观看| 高潮毛片免费观看| 成人午夜福利视频| 欧美精品xx| 欧美一级在线播放| 国产麻豆va精品视频| 精品久久综合1区2区3区激情| 欧美伦理一区| 97国产在线播放| 日本欧美成人免费| 国产成熟女人性满足视频| 毛片免费试看| 久久成人免费| 色婷婷电影网| 国产小视频免费观看| 99在线免费播放| 国产成人精品男人的天堂| 98超碰在线观看| 中文无码毛片又爽又刺激| 国产黑丝视频在线观看| 色香蕉网站| 91麻豆久久久| 亚洲视频影院| 国产精品久久久久久搜索| 国产sm重味一区二区三区| 东京热一区二区三区无码视频| 久久香蕉国产线看精品| 欧美午夜小视频| 老司机午夜精品视频你懂的| 激情亚洲天堂| 最新痴汉在线无码AV| 国产亚洲美日韩AV中文字幕无码成人| 日本午夜精品一本在线观看| 在线观看91香蕉国产免费|