999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

非參數(shù)貝葉斯字典學(xué)習(xí)的遙感影像超分辨率重建

2018-08-03 02:58:46隋立春康軍梅
測(cè)繪通報(bào) 2018年7期
關(guān)鍵詞:方法模型

李 麗,隋立春,2,康軍梅,王 雪

(1. 長(zhǎng)安大學(xué)地質(zhì)工程與測(cè)繪學(xué)院,陜西 西安 710054; 2. 地理國(guó)情監(jiān)測(cè)國(guó)家測(cè)繪地理信息局工程中心,陜西 西安 710054)

高分辨率遙感影像在國(guó)民經(jīng)濟(jì)建設(shè)、城市信息提取、精準(zhǔn)農(nóng)業(yè),以及軍事測(cè)繪等方面都有著廣泛的應(yīng)用前景[1]。作為衡量衛(wèi)星遙感性能的關(guān)鍵性指標(biāo),遙感影像空間分辨率在影像的獲取和應(yīng)用中至關(guān)重要[2]。提高遙感影像空間分辨率最直接的方法就是通過(guò)硬件改良來(lái)提高,但因難度大、成本高且在短時(shí)間內(nèi)較難完成而受到限制。因此,利用超分辨率重建技術(shù)來(lái)提高遙感影像空間分辨率具有重要的現(xiàn)實(shí)意義[1]。超分辨率重建的概念最早由Harris和Goodman分別于1964年和1968年提出[3],是通過(guò)對(duì)一幅或多幅低分辨率觀測(cè)圖像的處理來(lái)重構(gòu)高分辨率圖像的一種技術(shù)[4-5]。因具有切實(shí)有效、成本低廉的優(yōu)點(diǎn),已被廣泛應(yīng)用于視頻監(jiān)控、醫(yī)療成像及衛(wèi)星成像等領(lǐng)域[6]。

就目前的研究成果和應(yīng)用而言,超分辨率重建方法主要分為基于插值、基于重建及基于學(xué)習(xí)的方法。其中,基于學(xué)習(xí)的方法因加入更多先驗(yàn)信息而具有良好的重構(gòu)結(jié)果,已成為目前研究的熱點(diǎn),主要包括基于樣本的方法[7]、領(lǐng)域嵌入的方法[8]和稀疏表示的方法[9]。基于稀疏表示的超分辨率重建方法(ScSR)最早由Yang等在2010年提出[10],該方法利用L1正則優(yōu)化進(jìn)行稀疏編碼,使用不同像素位置加權(quán)的字典元素集來(lái)表示圖像數(shù)據(jù),具有較好的重建結(jié)果。但這一模型需提前指定字典大小及噪聲精度,而在實(shí)際應(yīng)用中,該類參數(shù)很難精確估計(jì)。非參數(shù)Bayesian方法可以很好地解決上述問(wèn)題[6],該方法能充分利用圖像數(shù)據(jù)的潛在空間結(jié)構(gòu),利用先驗(yàn)信息由圖像數(shù)據(jù)本身推導(dǎo)得到參數(shù),因其非參數(shù)性,減少了人為干涉等因素,提高了模型的自動(dòng)化程度[11]。且對(duì)未知參數(shù)進(jìn)行概率估計(jì)而不是點(diǎn)估計(jì),引入了不確定性,避免了不同參數(shù)間估計(jì)誤差的擴(kuò)大,進(jìn)一步提高了超分辨率重建結(jié)果的質(zhì)量[12]。本文將非參數(shù)Bayesian模型及稀疏表示理論應(yīng)用于遙感影像處理,提出了一種結(jié)合非參數(shù)Bayesian字典學(xué)習(xí)模型及稀疏表示的遙感影像超分辨率重建方法,并針對(duì)遙感影像進(jìn)行了試驗(yàn)。試驗(yàn)數(shù)據(jù)表明,本文算法在一定程度上提高了重構(gòu)高分辨率影像的細(xì)節(jié)精度。

1 稀疏表示原理

由于圖像本身存在冗余和自關(guān)聯(lián)性,通常情況下,對(duì)于圖像信號(hào)x∈RN,可以由過(guò)完備字典D=[d1d2…dM]∈RN×M(M>N)及向量α=[α1α2…αM]T∈RM線性表示為

(1)

(2)

2 非參數(shù)Bayesian字典學(xué)習(xí)

2.1 字典學(xué)習(xí)的分層模型構(gòu)建

sik~N(0,1/γs),zik~p(Zik)

αi=si⊙zi

γs~Gamma(e,f),γ~Gamma(c,d)

(3)

2.2 Beta-Bernoulli process先驗(yàn)

πk~Beta(c0η0,c0(1-η0))

zik~Bernoulli(πk)

(4)

式中,超參數(shù)c0、η0為標(biāo)量,k∈1,2,…,K。當(dāng)k趨向于無(wú)窮大時(shí),Beta-Bernoulli近似于IBP/BP。

2.3 基于Beta-Bernoulli process耦合字典的學(xué)習(xí)

利用BP模型進(jìn)行耦合字典學(xué)習(xí),其本質(zhì)在于利用觀測(cè)值及各隱變量的先驗(yàn)及條件概率,使用Gibbs迭代抽樣形成馬爾科夫鏈,并用其平穩(wěn)分布來(lái)近似字典元素及各參數(shù)的后驗(yàn)分布,進(jìn)而作用于重建階段的高分辨率影像重構(gòu)。具體字典學(xué)習(xí)過(guò)程如下:

(1) 抽取N個(gè)樣本觀測(cè)值;初始化字典元素及各參數(shù)值,迭代次數(shù)t初始值為零。

(2) 利用Gibbs抽樣進(jìn)行迭代抽樣:將t遞增1。

p(zik=1|-)∝Bernoulli(πk)

p(πk|-)∝Beta(c0η0,c0(1-η0))

(5)

(6)

(4) 當(dāng)?shù)纬傻鸟R爾科夫鏈為平穩(wěn)分布時(shí),終止迭代;否則繼續(xù)。

(5) 輸出字典D(h)及D(l)。

3 稀疏表示超分辨率重建

由于以低分辨率圖像塊的細(xì)節(jié)信息作為特征重建效果較好,本文使用一階、二階梯度提取算子對(duì)低分辨率影像進(jìn)行特征提取[10]。具體重建過(guò)程即單幅影像超分辨率稀疏重建算法如下:

輸入:低分辨率影像L,字典對(duì)D(h)及D(l);

輸出:高分辨率影像H*。

(3) 采用梯度下降算法對(duì)步驟(2)中影像塊所構(gòu)成的初始高分辨率影像進(jìn)行全局約束,得到最終的重建影像

式中,Rk為提取算子。

4 試驗(yàn)及結(jié)果分析

試驗(yàn)測(cè)試數(shù)據(jù)為3幅資源三號(hào)(ZY3)影像及2幅TM5影像。選取100幅高分辨率遙感影像組成訓(xùn)練樣本,進(jìn)行3倍下采樣超分辨率重建試驗(yàn)。試驗(yàn)中對(duì)應(yīng)的低分辨率影像由訓(xùn)練樣本降采樣獲得。字典學(xué)習(xí)階段,隨機(jī)抽取105對(duì)8×8像素大小的影像塊對(duì)進(jìn)行字典學(xué)習(xí),塊間最大重疊;采用SVD初始化字典元素及各參數(shù)值;超參數(shù)參考Zhou論文取值為c=d=e=f=10-6、c0=2、η0=0.5;字典大小為2048,前1500次抽樣優(yōu)化模型,后1500次抽樣近似字典及各參數(shù)的后驗(yàn)分布。重建階段,迭代次數(shù)為40。因人類視覺(jué)系統(tǒng)對(duì)亮度分量比色度分量更為敏感,故算法均只對(duì)亮度通道Y進(jìn)行基于非參數(shù)Bayesian模型的超分辨率重建,而對(duì)色度通道(Cb,Cr)僅作雙三次插值處理。

試驗(yàn)選用峰值信噪比(PSNR)及ERGAS(erreur relative globale adimensionnelle de synthese)作為定量評(píng)價(jià)指標(biāo),對(duì)采用雙線性插值方法(Bil.)、雙三次插值方法(Bic.)、yang的ScSR方法及本文所提算法得到的超分辨率重建結(jié)果進(jìn)行了比較。圖1、圖2分別為3倍下采樣時(shí)測(cè)試影像ZY3-1、TM5-2在不同算法下的超分辨率重建結(jié)果。由圖1、圖2可以看出,Bil.及Bic.插值算法重建的影像整體效果較為模糊,存在過(guò)度平滑現(xiàn)象,ScSR重建結(jié)果優(yōu)于插值方法,但本文算法重建圖像更為清晰,邊緣輪廓及紋理結(jié)構(gòu)更加明顯,更好地保留了高頻細(xì)節(jié)信息。

圖1 影像ZY3_1重建效果比較

圖2 影像TM5_2重建效果比較

表1給出了4種算法下重建影像的PSNR及ERGAS指標(biāo)值。由表1可知,本文算法重構(gòu)影像的PSNR及ERGAS值均優(yōu)于其他3種算法。綜合5幅影像求均值,較Bil.、Bic.及ScSR方法,文中算法的PSNR值分別提高3.29、1.79、0.17 dB;ERGAS值分別降低0.78、0.37、0.02 dB。總體上,本文算法能更好地重構(gòu)高分辨率遙感影像的細(xì)節(jié)和紋理特征,證明算法的有效性。

表1 不同算法重構(gòu)影像PSNR及ERGAS的比較 dB

5 結(jié) 語(yǔ)

本文結(jié)合稀疏表示理論,提出了一種基于非參數(shù)Bayesian字典學(xué)習(xí)模型的單幅遙感影像超分辨率重建方法。該方法利用beta先驗(yàn)相關(guān)理論建立字典元素及各參數(shù)的概率分布模型,采用Gibbs抽樣迭代形成馬爾科夫鏈,用其平穩(wěn)分布來(lái)近似字典元素的后驗(yàn)分布,最后作用于重建階段進(jìn)行高分辨率影像重構(gòu)。試驗(yàn)表明,本文算法在視覺(jué)效果、峰值信噪比及ERGAS指標(biāo)3方面均優(yōu)于其他3種算法,證明了算法的有效性。由于馬爾科夫鏈的平穩(wěn)分布需通過(guò)大量迭代抽樣才能獲得,對(duì)于遙感影像,字典訓(xùn)練所需時(shí)間過(guò)長(zhǎng),下一步將研究VB等快速近似解求解算法。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
學(xué)習(xí)方法
3D打印中的模型分割與打包
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 国产一级片网址| 色综合国产| 亚洲第一精品福利| 亚洲人免费视频| www欧美在线观看| 超级碰免费视频91| 国产精品免费p区| 最新国产麻豆aⅴ精品无| 97国产精品视频人人做人人爱| 国产日韩精品欧美一区喷| 久草性视频| 亚洲一区色| 免费在线国产一区二区三区精品| 91最新精品视频发布页| 国产区免费| 久草青青在线视频| 国产成人综合在线观看| 国产成人喷潮在线观看| 国产精品任我爽爆在线播放6080| 国内a级毛片| 日韩无码黄色| 亚洲欧美人成电影在线观看| 精品少妇人妻无码久久| 在线观看国产精品日本不卡网| 国产人人干| 欧美特级AAAAAA视频免费观看| 99ri国产在线| 九色在线观看视频| 福利视频一区| 精品成人免费自拍视频| 欧美第二区| 亚洲一区二区在线无码| 色播五月婷婷| 精品国产一区91在线| 一区二区理伦视频| 国产区成人精品视频| 97免费在线观看视频| 中文字幕免费在线视频| 日韩美毛片| 污视频日本| 91无码视频在线观看| 久热中文字幕在线观看| 亚洲国产成人自拍| 日日噜噜夜夜狠狠视频| 成人在线视频一区| 亚洲欧美精品在线| 免费国产不卡午夜福在线观看| 2020国产免费久久精品99| 国产成人高清精品免费软件| 国产情侣一区二区三区| 凹凸精品免费精品视频| 老司机久久精品视频| 亚洲欧美日韩另类在线一| 国产美女91视频| 亚洲AⅤ波多系列中文字幕| 毛片基地视频| 欧美另类图片视频无弹跳第一页| 热思思久久免费视频| 国产精品自拍露脸视频| 成人免费网站久久久| 国产不卡在线看| 亚洲欧美h| 亚洲AV无码乱码在线观看裸奔 | 国产无套粉嫩白浆| 久久精品视频一| 中文字幕人妻av一区二区| 亚洲天堂精品在线观看| 国产成人精品在线| AV无码一区二区三区四区| jizz亚洲高清在线观看| 亚洲AⅤ综合在线欧美一区| 亚欧成人无码AV在线播放| 亚洲精品色AV无码看| 欧美成人在线免费| 国产成人a在线观看视频| 手机在线国产精品| 日韩午夜片| 国产亚洲精品自在久久不卡 | 99热这里只有精品在线播放| 国产欧美日韩在线一区| 国产凹凸视频在线观看| 99热国产这里只有精品无卡顿"|