999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器學習的無參考圖像質(zhì)量評價指標體系改進

2019-05-24 14:21:16樊曉婷畢艷輝
無線互聯(lián)科技 2019年2期
關鍵詞:機器學習

樊曉婷 畢艷輝

摘 要:為解決BRISQUE算法中單純提取灰度空間指標特征的問題,進一步提升算法預測的準確性,文章在BRISQUE算法的基礎上改進了無參考圖像質(zhì)量評價指標體系,提出了一種基于灰度空間和色彩空間的改進算法。同時,為了減少單一數(shù)據(jù)庫造成的模型過擬合現(xiàn)象,提升算法的魯棒性,該算法分別在LIVE和CSIQ數(shù)據(jù)庫上分析了算法計算結(jié)果與DMOS值的相關性。實驗結(jié)果表明,改進的BRISQUE算法評價結(jié)果與人類主觀評價具有高度的一致性,較BRISQUE算法在一致性方面有一定程度的提升。

關鍵詞:無參考圖像質(zhì)量評價;BRISQUE算法;機器學習;圖像失真

圖像作為人類視覺和機器模式識別的重要信息來源,蘊含了大量有價值的信息,一張圖像質(zhì)量的好壞直接影響獲取信息的準確性和完整性。在圖像的獲取、存儲、傳輸、顯示等過程中不可避免地會引入一些干擾因素,如噪聲、模糊等,最終造成圖像質(zhì)量的下降。

BRISQUE算法是Anish Mittal,Alan Conrad Bovik等[1-2]于2012年提出的基于機器學習的無參考圖像質(zhì)量評價算法,該算法基于圖像灰度空間提取與圖像質(zhì)量相關的指標,構(gòu)建無參考圖像質(zhì)量評價模型,但該算法未考慮色彩對圖像質(zhì)量的影響。本文基于BRISQUE算法改進原有的無參考圖像質(zhì)量評價指標體系,在色彩空間上提取多個相關指標,并在不同圖像數(shù)據(jù)庫上進行實驗測試。實驗結(jié)果表明:改進的BRISQUE算法評價結(jié)果與人類主觀評價具有高度的一致性,較BRISQUE算法在一致性方面有一定程度的提升。

1 BRISQUE算法簡介

BRISQUE算法的基本步驟為:

(1)對圖像作局部灰度標準化處理,獲取圖像標準化灰度值(Mean Subtracted Contrast Normalized,MSCN)。

(2)廣義高斯函數(shù)(Generalized Gaussian Distribution,GGD)擬合MSCN值,獲取形狀參數(shù)α和方差σ2兩個指標特征。

(3)非對稱廣義高斯函數(shù)(Asymmetric Generalized Gaussian Distribution,AGGD)分別擬合4個方向上的相鄰像素MSCN值,每個方向上獲取4個參數(shù),共計16個指標特征。

(4)在采樣因子為2的下采樣的尺度上按(1)、(2)、(3)步驟提取18個指標作為獲取失真的第3組特征。

(5)基于在兩個尺度上提取的36個特征指標,利用支持向量回歸(Support Vector Regression,SVR)模型學習出圖像質(zhì)量評價函數(shù)。

BRISQUE創(chuàng)新性地將機器學習算法應用于無參考圖像質(zhì)量評價中,較傳統(tǒng)的客觀評價指標相比具有明顯優(yōu)勢。但其僅僅考慮圖像失真在灰度方面引起的指標的變化。本文在基于BRISQUE算法的基礎上引入色彩空間指標,并在不同數(shù)據(jù)集上進行模型的訓練。

本文所采用的圖像數(shù)據(jù)庫為LIVE和CSIQ,其中LIVE數(shù)據(jù)庫主觀分數(shù)是DMOS(0-100)。CSIQ數(shù)據(jù)庫的主觀分數(shù)為DMOS值(0-1),為保證兩個數(shù)據(jù)庫主觀分數(shù)范圍的一致性,將CSIQ數(shù)據(jù)庫的DMOS值范圍擴大100倍。

2 基于BRISQUE算法的指標體系改進

2.1 色彩空間特征提取

CIELAB顏色空間是由國際照明委員會(Commission Internationale de LEclairage,CIE)制定的一種色彩模式。自然界中任何一點色彩都可以在 CIELAB空間中表達出來[3]。

CIELAB色彩空間中的3個坐標軸分別為:L*表示色彩空間中灰度的位置,a*表示色彩空間中相對于紅色/綠色的位置,b*表示色彩空間相對于黃色和綠色的位置。其中,圖像(i,j)處的色度的定義如下[4]:

(1)

在提取特征前先對圖像色度做局部標準化處理,起到去相關的作用。

(2)

其中:,,M和N分別為圖像的高度和寬度,參數(shù)C=1來增強式子的穩(wěn)定性。和分別為局部均值和標準差。

我們稱為標準化色度系數(shù)。參考圖像標準化后的色度值近似服從標準高斯分布,同時,相鄰像素的色度值具有很強的相關性,標準化后的色度值大大減小了這種相關性。

根據(jù)實驗研究發(fā)現(xiàn),參考圖像的標準化色度系數(shù)值近似服從標準高斯分布,而失真圖像的標準化色度系數(shù)值則呈現(xiàn)不同的分布,GGD可以有效獲取失真圖像更多的統(tǒng)計數(shù)據(jù)特征。期望為0的廣義高斯分布函數(shù)為:

(3)

我們用GGD擬合標準化色度系數(shù)值,并估計兩個參數(shù)。

由于原始圖像的標準化色度系數(shù)值分布更均勻,因此,相鄰像素的會呈現(xiàn)有規(guī)律的特征,構(gòu)建4個方向成對的相鄰像素的標準化色度系數(shù)值模型[5-7]:

(1)水平方向

(4)

(2)豎直方向

(5)

(3)主對角線方向

(6)

(4)副對角線方向

(7)

我們采取更一般的AGGD模型提取相鄰像素的特征,眾數(shù)為0的AGGD分布函數(shù)為:

(8)

其中:v為形狀參數(shù),為范圍參數(shù),提取AGGD最佳擬合參數(shù),其中為:

(9)

對于每個像素點的4個方向上有16個特征參數(shù)。考慮到圖像通常具有多尺度性,同時,通過將多尺度信息融入圖像質(zhì)量評價,因此,在兩個尺度上(原圖像尺度和采樣因子為2的下采樣的尺度)提取將征,共計提取特征數(shù)目為36(18×2)。

2.2 SVR機器學習模型建立

無參考圖像質(zhì)量評價NR IQA可以看作是一個回歸問題。基于提取的特征通過一個回歸函數(shù)來學習出圖像質(zhì)量評價函數(shù),可表示為[8]:

(10)

其中:x為提取的特征向量,f(·)為回歸函數(shù),Q為最后的圖像質(zhì)量。

通過SVR的方法進行訓練模型。70%的圖片作為訓練集,30%的圖片作為測試集。經(jīng)過1 000次隨機模擬實驗,BRISQUE算法和改進的BRISQUE算法的訓練集和測試集輸出的結(jié)果與主觀評測結(jié)果的線性相關系數(shù)和斯皮爾曼相關系數(shù)如表1—2所示。

相關系數(shù)越接近于1說明該算法預測值與主觀評測的DMOS值相關性越高。

3 結(jié)語

無參考圖像質(zhì)量評價方法不需要參考圖像的任何信息,僅根據(jù)失真圖像本身來進行質(zhì)量評價。本文在BRISQUE算法的基礎上,在CIELAB色彩空間上提取特征指標并構(gòu)建了無參考圖像質(zhì)量評價模型。在LIVE和CSIQ圖像質(zhì)量評價數(shù)據(jù)庫上的實驗結(jié)果表明,本文的評價結(jié)果與人類主觀質(zhì)量評價高度一致,較BRISQUE算法有很大程度的提升。

[參考文獻]

[1]MOORTHY A K,BOVIK A C.A two-step framework for constructing blind image quality indices[J].IEEE Signal Processing Letters,2010(5):513-516.

[2]SAAD M A,BOVIK A C,CHARRIER C.DCT statistics model-based blind image quality assessment[C].Atlanta:IEEE International Conference on Image Processing,2011:3093-3096.

[3]范賜恩,冉杰文,顏佳,等.顏色空間統(tǒng)計聯(lián)合紋理特征的無參考圖像質(zhì)量評價[J].光學精密工程,2018(4):916-926.

[4]江程.基于結(jié)構(gòu)相似度的圖像客觀質(zhì)量評價方法研究[D].湘潭:湘潭大學,2012.

[5]MITTAL A,MOORTHY A K,BOVIK A C.No-reference image quality assessment in the spatial domain[J].IEEE Transactions on Image Processing,2012(12):4695-4708.

[6]MOORTHY A K,BOVIK A C.Blind image quality assessment: from natural scene statistics to perceptual quality[J].IEEE Transactions on Image Processing,2012(12):3350-3364.

[7]MITTAL A,SOUNDARARAJAN R,BOVIK A C.Making a “completely blind” image quality analyzer[J].IEEE Signal Processing Letters,2013(3):209-212.

[8]王志明.無參考圖像質(zhì)量評價綜述[J].自動化學報,2015(6):1062-1079.

猜你喜歡
機器學習
基于詞典與機器學習的中文微博情感分析
基于網(wǎng)絡搜索數(shù)據(jù)的平遙旅游客流量預測分析
時代金融(2016年27期)2016-11-25 17:51:36
前綴字母為特征在維吾爾語文本情感分類中的研究
科教導刊(2016年26期)2016-11-15 20:19:33
下一代廣播電視網(wǎng)中“人工智能”的應用
活力(2016年8期)2016-11-12 17:30:08
基于支持向量機的金融數(shù)據(jù)分析研究
基于Spark的大數(shù)據(jù)計算模型
基于樸素貝葉斯算法的垃圾短信智能識別系統(tǒng)
基于圖的半監(jiān)督學習方法綜述
機器學習理論在高中自主學習中的應用
極限學習機在圖像分割中的應用
主站蜘蛛池模板: 在线精品亚洲国产| 精品夜恋影院亚洲欧洲| 成人一区专区在线观看| 九色在线视频导航91| 动漫精品中文字幕无码| 欧美中出一区二区| 日本欧美成人免费| 日韩精品无码一级毛片免费| 五月天综合婷婷| 亚洲精品男人天堂| 中国一级特黄大片在线观看| 精品国产黑色丝袜高跟鞋| 久久免费看片| 亚洲黄网视频| 制服丝袜国产精品| 国产成人精彩在线视频50| 国产亚洲精久久久久久无码AV| 99人体免费视频| 99这里只有精品6| 亚洲国产成人久久77| 国产精品成人免费视频99| 手机在线看片不卡中文字幕| 亚洲三级网站| 亚洲美女一区二区三区| 日韩精品高清自在线| 国产成人禁片在线观看| 色婷婷国产精品视频| 国产成人资源| 国产精品流白浆在线观看| 日本草草视频在线观看| 免费一级α片在线观看| 凹凸精品免费精品视频| 亚洲成人高清无码| 五月天婷婷网亚洲综合在线| 欧洲高清无码在线| 亚洲综合激情另类专区| 色天堂无毒不卡| 91精品专区| 毛片网站在线看| 国产综合网站| 中文字幕无码中文字幕有码在线| 国产精品免费入口视频| 在线观看国产精品日本不卡网| 国产区在线看| 国产区网址| 久久亚洲高清国产| 亚洲无码高清一区二区| 婷婷亚洲视频| 99re66精品视频在线观看| 中文国产成人久久精品小说| 91久久偷偷做嫩草影院| 色偷偷综合网| 亚洲视频在线青青| AV老司机AV天堂| 天天爽免费视频| 91小视频在线播放| 五月天天天色| 亚洲高清无在码在线无弹窗| 日韩美一区二区| 国产噜噜噜视频在线观看 | 最新无码专区超级碰碰碰| 亚洲区视频在线观看| 九九视频免费看| 久久中文电影| 婷婷色在线视频| 国产乱子伦视频在线播放| 国产亚洲高清在线精品99| 欧美一级特黄aaaaaa在线看片| 伊人久久综在合线亚洲91| 99re在线视频观看| 欧美成人免费一区在线播放| 素人激情视频福利| 欧美性精品不卡在线观看| 久久精品丝袜高跟鞋| 国产男人的天堂| 激情国产精品一区| a级毛片毛片免费观看久潮| 久久久久久尹人网香蕉| 亚洲看片网| 色窝窝免费一区二区三区 | 国产靠逼视频| 成人福利免费在线观看|