999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于局部和全局特征融合的顯著性檢測(cè)

2020-06-12 09:18:04張衛(wèi)國(guó)馬靜瑞
關(guān)鍵詞:方法模型

張衛(wèi)國(guó),馬靜瑞

(西安科技大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,陜西 西安 710054)

0 引 言

顯著性檢測(cè)旨在模擬人類視覺系統(tǒng)的選擇性處理,識(shí)別圖像中最重要和最顯著的對(duì)象區(qū)域。作為預(yù)處理步驟,它可以有效地聚焦于與當(dāng)前任務(wù)相關(guān)的圖像區(qū)域,并且廣泛應(yīng)用于計(jì)算機(jī)視覺和圖像處理工作,如圖像分割[1]、圖像壓縮[2]以及目標(biāo)識(shí)別[3]等領(lǐng)域。目前,國(guó)內(nèi)外研究者提出了大量的顯著性檢測(cè)模型。主要分為自底向上目標(biāo)驅(qū)動(dòng)的模型[4,5]以及自頂向下任務(wù)驅(qū)動(dòng)的模型[6-8]。自底向上的顯著性檢測(cè)方法傾向于檢測(cè)圖像細(xì)節(jié)信息并且具有較低的計(jì)算復(fù)雜度,但很難專注于全局形狀信息。而自頂向下的顯著性檢測(cè)方法能夠提取全局信息,但忽略局部顯著性特征。為了更好地利用兩種方法的優(yōu)點(diǎn)并克服這兩個(gè)方面的不足,本文從自底向上及自頂向下兩種模型考慮,提出了一種結(jié)合局部特征和全局特征的方法,并且該方法有效地提高了顯著性檢測(cè)的準(zhǔn)確性。

1 本文算法

本文提出了一種結(jié)合局部和全局特征的圖像顯著性檢測(cè)方法。該方法的實(shí)現(xiàn)框架可分為3個(gè)階段,如圖1所示。第一階段,為了保持顯著區(qū)域的完整性,避免尺度分割對(duì)顯著性結(jié)果的影響,將輸入圖像進(jìn)行多尺度分割。再考慮顏色特征以及紋理特征的互補(bǔ)性,通過局部對(duì)比度計(jì)算得到局部顯著圖。第二階段,以VGG16[9]網(wǎng)絡(luò)為基礎(chǔ)模型構(gòu)建全卷積神經(jīng)網(wǎng)絡(luò)(FCNN),進(jìn)行端到端的訓(xùn)練。通過訓(xùn)練好的模型,輸出全局顯著圖。第三階段,將前兩個(gè)階段生成的顯著圖進(jìn)行融合,得到最終的顯著圖。

1.1 局部顯著性檢測(cè)模型

為了更好地捕獲輸入圖像的結(jié)構(gòu)信息并提高圖像處理效率,對(duì)于任意輸入圖片,首先采用SLIC(simple linear iterative cluster)分割成4個(gè)尺度的超像素集,設(shè)定像素個(gè)數(shù)分別為100,150,200,250。對(duì)于每個(gè)尺度下的超像素集,均基于圖像中心先驗(yàn)、對(duì)象先驗(yàn)以及暗道先驗(yàn)[10]等信息,通過計(jì)算不同區(qū)域的RGB、CIELab、LBP這3種特征的歐式距離,得到每個(gè)區(qū)域的顯著值。即對(duì)于區(qū)域ri(i∈{1,2,…M})與邊緣bj(j∈{1,2,…Mb},Mb是邊緣超像素的個(gè)數(shù)),顯著性值可通過式(1)計(jì)算

圖1 顯著性檢測(cè)框架

(1)

其中,dF(ri,bj)是區(qū)域ri與邊緣區(qū)域bj在F所對(duì)應(yīng)特征下的歐式距離,F(xiàn)分別為RGB、CIELab及LBP特征。Ce(ri)是通過區(qū)域ri中心與圖像中心歸一化空間距離計(jì)算得到的中心先驗(yàn)權(quán)重。Dr(ri)的計(jì)算方法參考文獻(xiàn)[10]。Ob(ri)計(jì)算每個(gè)窗口被判定為顯著性目標(biāo)的概率值Ob(q),計(jì)算公式為

(2)

通過式(1)可以得到每個(gè)區(qū)域的顯著值,將該區(qū)域內(nèi)的所有像素設(shè)定為該值,并得到像素水平的顯著圖。采用圖割(graph cut)方法進(jìn)行優(yōu)化處理,得到初級(jí)顯著圖S0。對(duì)每個(gè)尺度上的初級(jí)顯著圖,表示為:{Ski},i=1,2,3,4進(jìn)行多尺度融合,得到最終的顯著圖Sl,計(jì)算公式為

(3)

1.2 全局顯著性檢測(cè)模型

FCNN是一種特殊的卷積神經(jīng)網(wǎng)絡(luò)模型。與CNN不同,F(xiàn)CNN使用卷積層而不是全連接層來實(shí)現(xiàn)像素級(jí)預(yù)測(cè),可以有效地捕獲圖像的語義信息。本文在VGG16網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上將全連接層替換成卷積層,構(gòu)建FCNN,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。該模型對(duì)不同級(jí)別(從低級(jí)別到高級(jí)別)的顯著性信息進(jìn)行編碼。前13層基于VGG16卷積網(wǎng)絡(luò),第14、15層各含有一個(gè)卷積層,同時(shí)引入Dropout層,對(duì)前13層的深度特征做進(jìn)一步抽象,以提高網(wǎng)絡(luò)的泛化能力。最后為了使輸出圖像具有與輸入圖像相同的尺寸并保留圖像的全局信息,使用一個(gè)卷積層和一個(gè)反卷積層來生成顯著圖(通過sigmoid函數(shù)歸一化為[0,1])。其中,前15層的每個(gè)卷積層都配備一個(gè)線性整流函數(shù)(ReLU)。

圖2 FCNN網(wǎng)絡(luò)結(jié)構(gòu)

本文FCNN模型是在Caffe toolbox[11]的基礎(chǔ)上實(shí)現(xiàn)的。實(shí)驗(yàn)中通過隨機(jī)梯度下降法(SGD)進(jìn)行網(wǎng)絡(luò)訓(xùn)練,實(shí)現(xiàn)逐像素的預(yù)測(cè)。訓(xùn)練過程中動(dòng)量設(shè)置為0.99,權(quán)重衰減系數(shù)設(shè)置為0.005,學(xué)習(xí)率為10-10。最后,通過訓(xùn)練好的FCNN輸出全局顯著圖Sg。

1.3 局部顯著圖和全局顯著圖的結(jié)合

局部模型生成的顯著圖更趨向于圖像的細(xì)節(jié),而全局模型生成的顯著圖能夠比較完整的突出整個(gè)顯著性目標(biāo)。本文基于局部、全局顯著性檢測(cè)模型優(yōu)勢(shì)互補(bǔ)的特性,將局部和全局兩種顯著圖利用加和的方式結(jié)合起來,使得最終顯著圖Sf結(jié)果更優(yōu),計(jì)算公式如下

(4)

2 實(shí)驗(yàn)結(jié)果及分析

為了評(píng)估所提方法的性能,本文在3個(gè)公開的數(shù)據(jù)集上進(jìn)行一系列的定性和定量實(shí)驗(yàn)。這些數(shù)據(jù)集均含有像素集的真值標(biāo)注,分別為SED2[12]、ECSSD、PASCAL-S[13]。ECCSD數(shù)據(jù)集包含1000張具有來自互聯(lián)網(wǎng)的復(fù)雜場(chǎng)景的圖像。PASCAL-S數(shù)據(jù)集包含850張具有多個(gè)復(fù)雜對(duì)象和雜亂背景的自然圖像,可以說是最具挑戰(zhàn)性的顯著性數(shù)據(jù)集之一。SED2共100張圖片,是一個(gè)含有多顯著性對(duì)象的數(shù)據(jù)集,通常在每個(gè)圖像中包含兩個(gè)顯著對(duì)象。

將本文方法與比較經(jīng)典的ITTI(IT)、RC[4]、LG[5]、DM[6]、LEGS[8]等方法進(jìn)行定性和定量比較。由于作者并未提供LEGS方法在SED2數(shù)據(jù)集上的檢測(cè)結(jié)果。因此,LEGS方法只在ECSSD、PASCAL-S數(shù)據(jù)集上進(jìn)行評(píng)測(cè)。

2.1 定性評(píng)測(cè)

圖3顯示本文算法與其它算法生成的顯著圖的定性對(duì)比圖。第一列為測(cè)試集中的原圖,第二列為手工標(biāo)記的二元真值圖(ground truth,GT)。從圖中可以看出,前面5種方法生成的顯著圖有漏檢、對(duì)比度不明顯、不完整的情況,而本文算法能夠更加準(zhǔn)確均勻的突出前景,并且生成的顯著圖中背景噪聲較少,更接近人工標(biāo)記結(jié)果。此外,由于采用了LBP紋理特征,本文算法在背景雜亂和前景背景對(duì)比度比較低的情況下仍然可以很好地工作。

圖3 本文算法與現(xiàn)有5種算法生成的顯著圖對(duì)比

2.2 定量評(píng)測(cè)

為了更進(jìn)一步驗(yàn)證本文算法的有效性,通過準(zhǔn)確率-召回率(P-R)曲線、AUC(area under roc curve)、F-measure以及平均測(cè)量誤差(MAE)4個(gè)指標(biāo)來評(píng)價(jià)算法的性能。P-R曲線顯示了不同閾值下顯著圖的平均準(zhǔn)確率和召回率。MAE表示顯著圖和人工標(biāo)注圖之間像素的平均精度誤差。F-measure用于評(píng)估準(zhǔn)確性和召回率,公式如下

(5)

為賦予Precision值更大的權(quán)重,在本文中設(shè)置η2=0.3。

本文算法與5種算法分別在SED2、ECSSD以及PASCAL-S這3個(gè)數(shù)據(jù)集上的PR曲線如圖4所示。由圖4可知:在相同的召回率下,本文算法在SED2以及PASCAL-S數(shù)據(jù)集上均保持最好的P-R曲線,在ECSSD數(shù)據(jù)集上的P-R曲線較好。表1為不同算法的AUC值、F-measure值以及MAE值的對(duì)比結(jié)果。由表1可知:本文方法在SED2數(shù)據(jù)集上表現(xiàn)最好,獲得最大的AUC值、F-measure值以及最低MAE值,在ECSSD以及PASCAL-S數(shù)據(jù)集上表現(xiàn)較佳。這進(jìn)一步驗(yàn)證本文方法在3個(gè)復(fù)雜的數(shù)據(jù)集上均有較好的檢測(cè)能力及魯棒性。

圖4 不同算法在3個(gè)數(shù)據(jù)集上的P-R曲線對(duì)比

表1 不同算法在3個(gè)數(shù)據(jù)庫上的性能指標(biāo)對(duì)比

3 結(jié)束語

本文從局部特征和全局特征出發(fā),提出一種顯著性檢測(cè)方法。該方法通過構(gòu)建局部模型和全局模型,并采用線性融合策略,得到最終的顯著圖。其中,局部模型從底層特征以及局部對(duì)比度的角度考慮,生成局部顯著圖。全局模型通過FCN捕獲不同層次上的語義信息來預(yù)測(cè)全局顯著圖。3個(gè)公共數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,本文方法在一定程度上得到了F-measure和MAE指標(biāo)的改進(jìn),優(yōu)于目前經(jīng)典的方法,驗(yàn)證了本文方法的有效性。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
學(xué)習(xí)方法
3D打印中的模型分割與打包
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 中字无码精油按摩中出视频| 人妻21p大胆| 人妻丝袜无码视频| 熟妇丰满人妻| 欧美 亚洲 日韩 国产| 无码一区二区三区视频在线播放| 国产成人综合欧美精品久久| 囯产av无码片毛片一级| 国产日韩AV高潮在线| 国产精品永久不卡免费视频| 国产欧美精品一区二区 | 黄色a一级视频| 99re精彩视频| 亚洲欧美不卡| 国产福利小视频高清在线观看| 久久精品人人做人人爽电影蜜月| 久久99国产乱子伦精品免| 男女男精品视频| 亚洲一区色| 日韩福利在线视频| 国产成人一区在线播放| 日韩精品一区二区三区大桥未久 | 久久黄色影院| 国产成a人片在线播放| 91精品情国产情侣高潮对白蜜| 亚洲人成高清| 999国产精品永久免费视频精品久久| 午夜福利亚洲精品| 国产黑丝一区| 高清欧美性猛交XXXX黑人猛交| 丁香婷婷激情网| 久99久热只有精品国产15| 99中文字幕亚洲一区二区| 亚洲高清免费在线观看| 国产对白刺激真实精品91| 国产精品欧美日本韩免费一区二区三区不卡| 国产福利拍拍拍| 手机精品福利在线观看| 欧美区国产区| 欧美 国产 人人视频| 欧美在线三级| 亚洲黄色网站视频| 国产一区二区丝袜高跟鞋| 天天做天天爱夜夜爽毛片毛片| 中文字幕有乳无码| 国产激情第一页| 狠狠做深爱婷婷综合一区| 国产无码制服丝袜| 性做久久久久久久免费看| 国产经典三级在线| 全色黄大色大片免费久久老太| 国产精品久久久久婷婷五月| 欧美激情综合| 91国语视频| 美女一级毛片无遮挡内谢| 成人韩免费网站| 无码精品福利一区二区三区| 黄色网在线| 久久精品嫩草研究院| 91久久夜色精品国产网站| 91系列在线观看| 一级福利视频| jijzzizz老师出水喷水喷出| 国产AV无码专区亚洲A∨毛片| 黄色网页在线播放| 免费久久一级欧美特大黄| 午夜福利网址| 日韩av无码DVD| 91美女视频在线| 日韩a在线观看免费观看| 日韩 欧美 国产 精品 综合| 亚洲丝袜第一页| 99免费视频观看| 国产成人精品日本亚洲| 精品福利视频导航| 在线播放91| 国产成人无码久久久久毛片| 熟女视频91| 中文字幕亚洲乱码熟女1区2区| 日韩中文欧美| 亚洲无码视频一区二区三区| 亚洲热线99精品视频|