999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器學習的無參考圖像質(zhì)量評價指標體系改進

2019-05-24 14:21:16樊曉婷畢艷輝
無線互聯(lián)科技 2019年2期
關鍵詞:機器學習

樊曉婷 畢艷輝

摘 要:為解決BRISQUE算法中單純提取灰度空間指標特征的問題,進一步提升算法預測的準確性,文章在BRISQUE算法的基礎上改進了無參考圖像質(zhì)量評價指標體系,提出了一種基于灰度空間和色彩空間的改進算法。同時,為了減少單一數(shù)據(jù)庫造成的模型過擬合現(xiàn)象,提升算法的魯棒性,該算法分別在LIVE和CSIQ數(shù)據(jù)庫上分析了算法計算結(jié)果與DMOS值的相關性。實驗結(jié)果表明,改進的BRISQUE算法評價結(jié)果與人類主觀評價具有高度的一致性,較BRISQUE算法在一致性方面有一定程度的提升。

關鍵詞:無參考圖像質(zhì)量評價;BRISQUE算法;機器學習;圖像失真

圖像作為人類視覺和機器模式識別的重要信息來源,蘊含了大量有價值的信息,一張圖像質(zhì)量的好壞直接影響獲取信息的準確性和完整性。在圖像的獲取、存儲、傳輸、顯示等過程中不可避免地會引入一些干擾因素,如噪聲、模糊等,最終造成圖像質(zhì)量的下降。

BRISQUE算法是Anish Mittal,Alan Conrad Bovik等[1-2]于2012年提出的基于機器學習的無參考圖像質(zhì)量評價算法,該算法基于圖像灰度空間提取與圖像質(zhì)量相關的指標,構(gòu)建無參考圖像質(zhì)量評價模型,但該算法未考慮色彩對圖像質(zhì)量的影響。本文基于BRISQUE算法改進原有的無參考圖像質(zhì)量評價指標體系,在色彩空間上提取多個相關指標,并在不同圖像數(shù)據(jù)庫上進行實驗測試。實驗結(jié)果表明:改進的BRISQUE算法評價結(jié)果與人類主觀評價具有高度的一致性,較BRISQUE算法在一致性方面有一定程度的提升。

1 BRISQUE算法簡介

BRISQUE算法的基本步驟為:

(1)對圖像作局部灰度標準化處理,獲取圖像標準化灰度值(Mean Subtracted Contrast Normalized,MSCN)。

(2)廣義高斯函數(shù)(Generalized Gaussian Distribution,GGD)擬合MSCN值,獲取形狀參數(shù)α和方差σ2兩個指標特征。

(3)非對稱廣義高斯函數(shù)(Asymmetric Generalized Gaussian Distribution,AGGD)分別擬合4個方向上的相鄰像素MSCN值,每個方向上獲取4個參數(shù),共計16個指標特征。

(4)在采樣因子為2的下采樣的尺度上按(1)、(2)、(3)步驟提取18個指標作為獲取失真的第3組特征。

(5)基于在兩個尺度上提取的36個特征指標,利用支持向量回歸(Support Vector Regression,SVR)模型學習出圖像質(zhì)量評價函數(shù)。

BRISQUE創(chuàng)新性地將機器學習算法應用于無參考圖像質(zhì)量評價中,較傳統(tǒng)的客觀評價指標相比具有明顯優(yōu)勢。但其僅僅考慮圖像失真在灰度方面引起的指標的變化。本文在基于BRISQUE算法的基礎上引入色彩空間指標,并在不同數(shù)據(jù)集上進行模型的訓練。

本文所采用的圖像數(shù)據(jù)庫為LIVE和CSIQ,其中LIVE數(shù)據(jù)庫主觀分數(shù)是DMOS(0-100)。CSIQ數(shù)據(jù)庫的主觀分數(shù)為DMOS值(0-1),為保證兩個數(shù)據(jù)庫主觀分數(shù)范圍的一致性,將CSIQ數(shù)據(jù)庫的DMOS值范圍擴大100倍。

2 基于BRISQUE算法的指標體系改進

2.1 色彩空間特征提取

CIELAB顏色空間是由國際照明委員會(Commission Internationale de LEclairage,CIE)制定的一種色彩模式。自然界中任何一點色彩都可以在 CIELAB空間中表達出來[3]。

CIELAB色彩空間中的3個坐標軸分別為:L*表示色彩空間中灰度的位置,a*表示色彩空間中相對于紅色/綠色的位置,b*表示色彩空間相對于黃色和綠色的位置。其中,圖像(i,j)處的色度的定義如下[4]:

(1)

在提取特征前先對圖像色度做局部標準化處理,起到去相關的作用。

(2)

其中:,,M和N分別為圖像的高度和寬度,參數(shù)C=1來增強式子的穩(wěn)定性。和分別為局部均值和標準差。

我們稱為標準化色度系數(shù)。參考圖像標準化后的色度值近似服從標準高斯分布,同時,相鄰像素的色度值具有很強的相關性,標準化后的色度值大大減小了這種相關性。

根據(jù)實驗研究發(fā)現(xiàn),參考圖像的標準化色度系數(shù)值近似服從標準高斯分布,而失真圖像的標準化色度系數(shù)值則呈現(xiàn)不同的分布,GGD可以有效獲取失真圖像更多的統(tǒng)計數(shù)據(jù)特征。期望為0的廣義高斯分布函數(shù)為:

(3)

我們用GGD擬合標準化色度系數(shù)值,并估計兩個參數(shù)。

由于原始圖像的標準化色度系數(shù)值分布更均勻,因此,相鄰像素的會呈現(xiàn)有規(guī)律的特征,構(gòu)建4個方向成對的相鄰像素的標準化色度系數(shù)值模型[5-7]:

(1)水平方向

(4)

(2)豎直方向

(5)

(3)主對角線方向

(6)

(4)副對角線方向

(7)

我們采取更一般的AGGD模型提取相鄰像素的特征,眾數(shù)為0的AGGD分布函數(shù)為:

(8)

其中:v為形狀參數(shù),為范圍參數(shù),提取AGGD最佳擬合參數(shù),其中為:

(9)

對于每個像素點的4個方向上有16個特征參數(shù)。考慮到圖像通常具有多尺度性,同時,通過將多尺度信息融入圖像質(zhì)量評價,因此,在兩個尺度上(原圖像尺度和采樣因子為2的下采樣的尺度)提取將征,共計提取特征數(shù)目為36(18×2)。

2.2 SVR機器學習模型建立

無參考圖像質(zhì)量評價NR IQA可以看作是一個回歸問題。基于提取的特征通過一個回歸函數(shù)來學習出圖像質(zhì)量評價函數(shù),可表示為[8]:

(10)

其中:x為提取的特征向量,f(·)為回歸函數(shù),Q為最后的圖像質(zhì)量。

通過SVR的方法進行訓練模型。70%的圖片作為訓練集,30%的圖片作為測試集。經(jīng)過1 000次隨機模擬實驗,BRISQUE算法和改進的BRISQUE算法的訓練集和測試集輸出的結(jié)果與主觀評測結(jié)果的線性相關系數(shù)和斯皮爾曼相關系數(shù)如表1—2所示。

相關系數(shù)越接近于1說明該算法預測值與主觀評測的DMOS值相關性越高。

3 結(jié)語

無參考圖像質(zhì)量評價方法不需要參考圖像的任何信息,僅根據(jù)失真圖像本身來進行質(zhì)量評價。本文在BRISQUE算法的基礎上,在CIELAB色彩空間上提取特征指標并構(gòu)建了無參考圖像質(zhì)量評價模型。在LIVE和CSIQ圖像質(zhì)量評價數(shù)據(jù)庫上的實驗結(jié)果表明,本文的評價結(jié)果與人類主觀質(zhì)量評價高度一致,較BRISQUE算法有很大程度的提升。

[參考文獻]

[1]MOORTHY A K,BOVIK A C.A two-step framework for constructing blind image quality indices[J].IEEE Signal Processing Letters,2010(5):513-516.

[2]SAAD M A,BOVIK A C,CHARRIER C.DCT statistics model-based blind image quality assessment[C].Atlanta:IEEE International Conference on Image Processing,2011:3093-3096.

[3]范賜恩,冉杰文,顏佳,等.顏色空間統(tǒng)計聯(lián)合紋理特征的無參考圖像質(zhì)量評價[J].光學精密工程,2018(4):916-926.

[4]江程.基于結(jié)構(gòu)相似度的圖像客觀質(zhì)量評價方法研究[D].湘潭:湘潭大學,2012.

[5]MITTAL A,MOORTHY A K,BOVIK A C.No-reference image quality assessment in the spatial domain[J].IEEE Transactions on Image Processing,2012(12):4695-4708.

[6]MOORTHY A K,BOVIK A C.Blind image quality assessment: from natural scene statistics to perceptual quality[J].IEEE Transactions on Image Processing,2012(12):3350-3364.

[7]MITTAL A,SOUNDARARAJAN R,BOVIK A C.Making a “completely blind” image quality analyzer[J].IEEE Signal Processing Letters,2013(3):209-212.

[8]王志明.無參考圖像質(zhì)量評價綜述[J].自動化學報,2015(6):1062-1079.

猜你喜歡
機器學習
基于詞典與機器學習的中文微博情感分析
基于網(wǎng)絡搜索數(shù)據(jù)的平遙旅游客流量預測分析
時代金融(2016年27期)2016-11-25 17:51:36
前綴字母為特征在維吾爾語文本情感分類中的研究
科教導刊(2016年26期)2016-11-15 20:19:33
下一代廣播電視網(wǎng)中“人工智能”的應用
活力(2016年8期)2016-11-12 17:30:08
基于支持向量機的金融數(shù)據(jù)分析研究
基于Spark的大數(shù)據(jù)計算模型
基于樸素貝葉斯算法的垃圾短信智能識別系統(tǒng)
基于圖的半監(jiān)督學習方法綜述
機器學習理論在高中自主學習中的應用
極限學習機在圖像分割中的應用
主站蜘蛛池模板: 欧美精品亚洲二区| 91网在线| 欧美a在线| 久久视精品| www亚洲天堂| 亚洲第一视频网| 亚洲无码视频图片| 亚洲日本在线免费观看| 欧美成人手机在线视频| 亚洲欧洲日韩综合色天使| 亚洲制服丝袜第一页| 免费看美女自慰的网站| 欧美日韩成人| 欧美97色| 91精品国产自产91精品资源| 午夜影院a级片| 孕妇高潮太爽了在线观看免费| 国产激情无码一区二区免费| 国产欧美在线观看精品一区污| 丝袜国产一区| 国产区成人精品视频| 国产精品手机在线观看你懂的| 欧美日韩在线成人| 国产精品永久不卡免费视频| 欧美a在线| 91福利免费| 国产日韩av在线播放| 最新无码专区超级碰碰碰| 国产精彩视频在线观看| 丁香婷婷久久| 亚洲一欧洲中文字幕在线| 亚洲视频一区在线| 亚洲成人高清无码| 亚洲国产成人久久精品软件| 成人小视频网| 综合天天色| 超碰91免费人妻| 72种姿势欧美久久久大黄蕉| 国产网友愉拍精品视频| 欧美一道本| 国产原创演绎剧情有字幕的| 伊人久久影视| 国产激爽大片高清在线观看| 久久成人国产精品免费软件| 九色在线视频导航91| 在线播放真实国产乱子伦| 国产自无码视频在线观看| 亚洲第一区欧美国产综合| 亚洲第一黄色网| 夜精品a一区二区三区| 午夜高清国产拍精品| 91久久偷偷做嫩草影院精品| 国产成人免费观看在线视频| julia中文字幕久久亚洲| 国产在线一区二区视频| 色综合五月婷婷| 国产精品视频猛进猛出| 国产成人麻豆精品| 久久精品国产电影| 怡红院美国分院一区二区| 操美女免费网站| 992tv国产人成在线观看| 久久鸭综合久久国产| 国产精品流白浆在线观看| 久久亚洲精少妇毛片午夜无码| 特级做a爰片毛片免费69| 亚洲精品无码不卡在线播放| 免费毛片网站在线观看| 亚洲自偷自拍另类小说| 国产日韩精品一区在线不卡| 五月综合色婷婷| 亚洲天堂免费| 国产精品成人AⅤ在线一二三四 | 国产日韩欧美视频| 少妇极品熟妇人妻专区视频| 69综合网| 欧美成人看片一区二区三区 | 精品一区二区三区水蜜桃| 特级毛片8级毛片免费观看| 欧美视频在线第一页| 精品福利国产| 91精品国产一区自在线拍|