王 蔓,顏 佳,吳敏淵
(武漢大學 電子信息學院,武漢 430072) (*通信作者電子郵箱yanjia2011@gmail.com)
基于視覺相似性的去色圖像質量評估
王 蔓,顏 佳*,吳敏淵
(武漢大學 電子信息學院,武漢 430072) (*通信作者電子郵箱yanjia2011@gmail.com)
針對基于結構相似性的去色圖像質量評估算法沒有充分利用圖像的梯度特征且采用的對比度相似度特征會忽略圖像連續顏色塊的一致性導致算法與人類視覺主觀判定有較大出入的問題,提出一種基于圖像視覺相似性的去色圖像質量評估算法——C2G-VSIM。該算法以彩色圖像為參考圖像,由不同去色算法產生的與之相關的去色灰度圖像作為測試圖像,對參考圖像以及測試圖像進行顏色空間轉換,并且進行高斯濾波,充分考慮了圖像亮度相似度和結構相似度特征,并在此基礎上首先引入一種新的顏色一致性對比特征以促使C2G-VSIM對全局顏色對比度特征進行捕捉,其次引入梯度幅值特征至C2G-VSIM中以提高算法對圖像梯度特征的敏感度,最后聯合得到圖像質量評估因子C2G-VSIM。在Cadík的數據集上的實驗結果表明,C2G-VSIM與人類視覺主觀評定的等級相關性在準確度和主觀評判喜愛度上分別達到了0.815 5和0.763 4,相對于基于彩色圖和灰度圖的結構相似性(C2G-SSIM)評估算法在未增加較大耗時的情況下,準確度有明顯提高。所提算法與人類視覺主觀判定具有較高的一致性,且計算簡單,在實際工程中能大規模且有效地對去色圖像進行自動化評分。
圖像去色算法;圖像質量評估;人類視覺系統;梯度特征;對比度
圖像去色(Color-to-Gray, C2G)算法,即彩色圖像轉灰度圖像的算法,是圖像處理和機器視覺的基礎,在科技飛速發展的今天,雖然彩色打印機在逐步推廣應用,但是黑白打印的廉價高效依然使其在印刷行業占據主要地位。同時,單通道的灰度圖使得常用的圖像處理以及計算機視覺算法更加高效,因此目標識別、目標檢測和圖像檢索等算法都需要基于去色圖像進行后續處理。近年來,大量的新穎的去色算法被提出,如Lu等[1]在2014年提出了對比度保持去色算法, Du等[2]提出了顯著性特征保持的去色算法。由于各類去色算法效果千差萬別,提出一種客觀準確的去色圖像質量評價算法顯得十分迫切。更為重要的是,客觀的去色圖像質量評價指標也能夠指導圖像去色算法的發展。因此準確評估去色圖像的質量意義重大。
然而,有以下兩個問題制約了圖像去色質量評估的發展:1)圖像去色算法實際上是一個將一個3通道彩色圖像轉換成一個單通道灰度圖像的過程,所以不可避免地帶來圖像信息的損失。而現有的典型的客觀的圖像質量評價(Image Quality Assessment, IQA)方法僅能適用于彩色圖像與彩色圖像的對比或者去色灰度圖像與去色灰度圖像的對比情況,并不適用于圖像去色算法這種特殊的情況。2)圖像去色算法質量評價的標準難以選取,現有的去色算法評估指標與人的主觀判定存在著較大差異。早期,Bala等[3]召集了6個觀察者去主觀評價其提出的去色算法產生的圖。雖然評價結果可靠,但效率十分低下,不適用于現今大數據時代下海量圖片評估的場景。Kuhn等[4]提出了加權均方根值(Root Weighted Mean Square, RWMS)來評判灰度圖對彩色圖中顏色差異的保留情況,而文獻[1]提出用E-Score來評估圖像質量。但Ma等[5]認為這兩個指標常常與人的主觀判斷不一致,其不足以作為可信的評價標準,為此提出了一種基于彩色圖和灰度圖的結構相似性(C2G Structure Similarity Index Measurement, C2G-SSIM)的評價方法。該方法綜合考慮了圖像的亮度、對比度、結構信息,通過計算區域的相似性,引入權重,得到了灰度圖和彩色圖像的全局相似性。該指標非常接近于人類視覺感知機理,但是經實驗發現,該方法對邊緣細節的敏感度不高,并且對顏色對比度不一致的情況懲罰力度過大,從而忽略掉了圖像中的連續顏色信息,導致其評價結果不完全準確。由于人眼對圖像的邊緣結構信息極其敏感[6], 而邊緣結構信息表現在圖像的梯度幅值,因此彩色的參考圖和灰度測試圖應當有一致的梯度幅值特征(Gradient Magnitude, GM)。而人類視覺感知系統(Human Visual System, HVS)對顏色對比度的敏感性決定了應減輕對顏色對比度相似度計算的束縛。客觀的圖像質量評價方法主要有全參考質量評價、無參考質量評價、半參考質量評價三種。考慮到圖像的去色處理中, 灰度圖對應的彩色圖像是能夠獲知的,所以,采用無參考或者半參考在去色質量評估中都不太合適。
本文對去色圖像的梯度幅值、對比度等指標與圖像質量的關系進行了深入的研究,提出了一種全參考的去色圖像質量評估算法——基于去色圖像視覺相似度的去色圖像質量評估(Color to Gray Visual Similarity Index Measurement, C2G-VSIM)算法。實驗結果表明,本文方法符合人眼視覺系統感知圖像質量的過程,相對于C2G-SSIM[5]、 RWMS[4]和E-score[1]等算法,得到的結果與主觀評價具有更好的一致性。
C2G-SSIM是Ma等[5]提出的一個客觀的去色圖像質量評價模型,可用來快速地對去色圖像進行質量評估。該算法將彩色圖像作為參考圖,由不同去色算法產生的與該圖像相關的去色灰度圖像作為測試圖,其評價結果能夠和主觀質量評價達到較高的一致性。其通過計算亮度相似度、對比度相似度和結構相似度三個指標,最后獲取去色圖像和參考彩色圖像的全局相似度。亮度相似度的定義如下:

(1)
其中:uf(xc)和ug(xc)代表彩色圖像和去色圖像的平均亮度。
對比度相似度的計算方法如下所示:

(2)
其中:df(xc)和dg(xc)分別代表彩色參考圖像和去色圖像的顏色對比度的均值。
而結構相似度的定義如下:

(3)
其中:σf(xc)和σg(xc)分別代表彩色圖像和去色圖像的顏色對比度的標準差;σfg(xc)代表著彩色圖像和去色圖像的顏色對比度的互相關函數。
在式(1)~(3)中,C1、C2和C3是分子和分母中的一個值很小的正數,用來防止出現分母為0的情況。實驗中,C1、C2和C3分別設定為10、0.1、0.01。
C2G-SSIM算法雖然比較全面地利用了圖像的亮度信息、對比度信息和結構信息,但是C2G-SSIM并不能完全接近人類主觀評價結果,同樣有可能出現與主觀評價結果相悖的情況。主要局限為:
1)C2G-SSIM中的對比度相似度的求解方法過于強調數值上的一致性,導致算法容易忽略掉圖像的連續的彩色信息。例如,圖1是僅用C2G-SSIM中的對比度相似度對兩張去色圖像進行評價,主觀評價結果表明圖1(b)的質量優于圖1(c),而C2G-SSIM的對比度相似度的評價結果卻相反。這是由于該方法的對比度相似度的簡單求解會導致無法捕捉到圖像的連續性特征的失真情況。
2)C2G-SSIM算法容易忽略掉圖像的局部對比度信息。并且人類視覺不僅僅受某點光照的影響,還與該點周圍的光照值有關。
因此,應該考慮更多能夠反映圖像對比度和連續性信息的因素,從而能夠準確地對圖像進行評價。

圖1 C2G-SSIM中對比度相似度對去色圖像的質量評價
本文提出的基于視覺相似性的去色圖像質量評價框架如圖2所示,包括了顏色空間轉換、視覺引導對比度相似度提取、結構相似度提取、亮度相似度提取、梯度相似度提取、合并處理共六個步驟。

圖2 C2G-VSIM流程
本文主要提出視覺引導對比度相似度來捕捉圖像全局性特征,引入梯度幅值相似度來捕捉圖像局部對比度信息,然后聯合亮度和結構相似度,最終得到C2G-VSIM。
文獻[5]對對比度相似度C(xc)的定義如式(2)所示,C(xc)可以看作是去色圖像對比度df(xc)和彩色圖像對比度dg(xc)的組合函數。當df(xc)的值和dg(xc)的值趨于一致時,即dg(xc)=df(xc),對比度相似度C(xc)的值將達到它的最大值1。從此可以推論發現:C(xc)的值并不在意df(xc)和dg(xc)相比誰大誰小。即,若df(xc)=1,dg(xc)=-1得到的C(xc)的值與df(xc)=-1、dg(xc)=1得到的C(xc)值是一樣的。因此,可以進一步推論,C(xc)的計算方式只關心df(xc)和dg(xc)的絕對距離|df(xc)-dg(xc)|。當絕對距離越小時,C(xc)的值會越大。很顯然,文獻[5]對對比度相似度的定義并未考慮分開處理以下兩種情況:1)df(xc)比dg(xc)大;2)df(xc)比dg(xc)小。而文獻[7]研究表明:對同樣的一幅場景,人眼系統偏愛對比度較大的圖像。更重要的是,文獻[5]在計算去色圖像質量評估指標時,對原彩色圖和去色圖像的顏色對比度完全一致的要求會導致指標不關注圖像的全局性特征,從而忽略了圖像的顏色一致性特征以及圖像的局部細節,導致算法指標與人類視覺主觀評估有較大出入。
針對原算法對對比度相似度的簡單計算導致算法指標不足以對去色圖像進行正確評估的缺陷,本文對對比度相似度的計算方式進行了改進,提出了視覺引導對比度相似度算法,算法流程如下:
Step1 顏色空間轉換。將去色圖像g(x)和彩色圖像f(x)進行顏色空間轉換至CIELab空間。
Step2 圖像高斯平滑。本文對圖像是基于塊操作計算對比度相似度,因而需要考慮塊效應的影響,用高斯徑向函數p(x,xc)對圖像進行高斯濾波,可以有效防止圖像塊的邊界尖銳化。

(4)
式(5)中σp取決于高斯濾波器的寬度w;本文中w取值為15,
σp= floor(w/6)
(5)
因此σp取值為2。
Step3 對比度求解。逐像素的計算圖像每一點對其周圍寬度為w的圖像塊的對比度df(xc)和dg(xc)。

(6)
點xc至點y歐氏距離在CIELab空間定義為:

(7)
Step4 視覺引導對比度修正。
如果df(xc)lt;dg(xc),則減小df(xc)以減小C(xc);如果df(xc)gt;dg(xc),則減小df(xc)的值以加大C(xc)的值。定義如式(8)所示:
(8)
在實驗中,設定視覺引導因子C=0.1。
Step5C(xc)的計算。最后根據式(2)即計算得出視覺引導對比度相似度。
視覺引導對比度相似度其充分考慮到了HVS對圖像對比度的敏感性和對不同對比度的感知不同,因此能使最終的C2G-VSIM高度接近于主觀質量評價。
HVS感知一幅圖像的信息主要根據其低層次的特征[8-9],即不需要關于形狀和空間的先驗知識就能從圖像中提出的基本特征。因此,去色圖像質量評估方法的效果能夠通過添加低層次特征得到提升。文獻[6]提出了FSIM來提升典型的全參考質量評估的效果。FSIM采用了2個特征來計算圖像質量圖,即相位一致性和邊緣梯度特征。然而,相位一致性特征是對圖像的對比度不敏感的,而邊緣梯度特征會影響到HVS對圖像質量的感知[10]。彩色圖像和去色圖像應當具有一致的梯度特征,該梯度特征能夠很好地反映出圖像的局部對比度特征。因此,本文在C2G-SSIM的基礎上,僅選擇增加了梯度幅值特征,選取了在典型圖像質量評估算法中常用的Scharr算子[6,9]。求解流程如下:
Step1 高斯濾波。
Step2 梯度求解。選取CIELab空間的亮度通道,求解其橫向和豎向的梯度。其橫向和縱向的邊緣檢測因子定義如下:
(9)
(10)
其中L(x)代表了圖像顏色空間轉換后的亮度通道。
Step3 梯度幅值相似度求解。去色圖像和彩色參考圖像的梯度幅值相似度定義為:

(11)
添加梯度幅值相似度能夠很好地解決文獻[5]方法對局部對比度特征的并未重視的問題,使最終結果更好地滿足人類的視覺特性。
本文對亮度相似度、結構相似度進行簡介,詳細描述了視覺引導性對比度相似度以及梯度幅值相似度。其中,亮度相似度能表現去色圖像和原參考彩色圖像的亮度一致性,其他3個相似度更加關注圖像去色后的結構特征和對比度特征與原參考彩色圖像的一致性。C2G-VSIM的總體質量評估定義如下:
q(xc)=L(xc)α·C(xc)·S(xc)·GM(xc)
(12)
其中:根據圖像類型確定α=1或者α=0。在得到總體的去色圖像質量評估的質量圖之后,本文采用該質量圖的均值Q來表示相似度得分。得分越高,代表去色圖像和彩色參考圖像的相似度越高;反之則越低。Q的計算方式如下:
(13)
其中:M代表整個圖像的空間大小。
本文采用了Cadík的圖像數據集[11],該數據集包含了24張不同類型的彩色圖,每張彩色圖又附帶7張由不同的去色方法產生的灰度圖。該數據庫包含與同一張彩色圖相關的7張去色圖像的主觀評價排名,其排名分兩個標準:準確度和喜愛度。準確度是指已知原圖對7張圖進行比較,主要評估與原圖的相似性。喜愛度是未知原圖對7張圖進行比較,主要評估人類主觀對去色圖的喜愛程度。更為重要的是:該數據庫是在去色圖像領域中唯一一個含有7種不同去色方法的主觀質量評價排名的數據庫,包含了20 328次主觀評價結果。因此,本文選擇該數據集的主觀評價結果作為實驗對象。本文根據Ma等[5]提出的熵區分方法將24張彩色圖像自動分為兩類:自然圖像(Photographic Images, PI)和人工圖像(Synthetic Images, SI)。表1展現了圖像分類的具體情況,在實驗中,計算自然圖像或者人工圖像時,分別設置式(12)中的α=1或者α=0。

表1 彩色參考圖像的分類
本文在文獻[11]的圖像數據集上,對本文提出的C2G-VSIM和3個其他的傳統的C2G-SSIM[5], E-score[1]和RWMS[4]去色圖像質量評估指標進行了性能比較。本文實驗是在Windows 7,Core i5處理器下用Matlab R2014b進行實驗。

圖3 4種方法在Cadík的數據集[11]上的SROCC得分
將斯皮爾曼秩相關系數(Spearman Rank Order Correlation Coefficient, SROCC)和肯德爾秩相關系數(Kendall Rank Order Correlation Coefficient, KROCC)作為衡量去色圖像質量評估方法的預測結果的指標[12]。SROCC和KROCC的值越大,則說明該評估方法的結果與主觀評價結果的相關性越高,與主觀評價結果越接近,該方法越好。
從圖3可以發現,RWMS和E-score在數據庫中的SROCC得分波動較大,例如,RWMS的SROCC得分在數據庫第4張圖上是-0.25,而在第15張圖上是0.607 1。C2G-SSIM和本文方法都能夠在數據庫24張圖上得到一致性的較好的結果,而本文方法除此之外,能夠在大量的圖上獲得比C2G-SSIM[5]更高的SROCC得分,意味著更好的與主觀評價結果的一致性。
為了更直觀地說明該實驗的結果,表2根據4種方法在24張圖上的SROCC和KROCC對4種方法進行總體評價。其中:“均值”是指圖像數據庫中24圖的SROCC或KROCC的平均值,以衡量4種方法在24張圖上的平均表現;PI和SI的SROCC和KROCC分別展現了自然圖像和人工圖像的平均表現。表2直觀地表現了本文方法無論在準確度實驗上還是喜愛度實驗上的評價性能都遠遠優于RWMS[4]、E-score[1]和C2G-SSIM[5]。即使在本文方法表現較差的PI的喜愛度實驗中,C2G-VSIM的在準確度和喜愛度的實驗中,所有樣本的平均SROCC比C2G-SSIM提高了0.03和0.02,本文方法的SROCC得分也比C2G-SSIM提高0.02。
因每一組圖用4種不同的去色圖像評估方法進行評判,最終和主觀評價能得到不同方法的SROCC得分。因此可以根據該組圖在某種方法中能獲得最好的SROCC得分進行分類。因一組圖可在兩種方法下都獲得最好的結果,用加粗注明可獲得相同結果的圖標號,并計算出分類占比。表3展示了本文方法在大部分圖組上除了第1、2、7和16圖外都能獲得最優結果。然而,在這4組圖上,本文方法C2G-VSIM僅僅以微弱的劣勢低于最優結果。E-Score和RWMS在幾乎所有的圖上都不能獲得最優的表現,C2G-SSIM雖然能在大部分的圖上獲得一致性好的結果,但本文方法卻更加準確。

表2 4種去色圖像質量評價方法的實驗結果

表3 準確度實驗的最優結果分類

圖4 梯度幅值特征的優勢

圖5 視覺引導對比度相似度特征的優勢
為了從數據上說明視覺引導對比度相似度比C2G-SSIM的相似度對比度更優,本文進行了對比度相似度的對比實驗,如表4所示。
表4的實驗中僅利用C2G-SSIM的對比度相似度[5]和視覺引導對比度相似度對Cadík的圖像數據集上進行去色圖像質量評估,得到兩個評價方法與主觀評價結果的SROCC得分。表4結果表明視覺引導對比度相似度優于C2G-SSIM的對比度相似度,準確度和喜愛度實驗的SROCC得分比C2G-SSIM的對比度相似度提高了約0.05和0.06。

表4 不同對比度相似度實驗結果對比
為了說明本文提出的改進后的對比度相似度和梯度幅值相似度是如何使得C2G-VSIM比C2G-SSIM更具競爭力,圖4和圖5展現了去色圖像和其彩色參考圖像由不同質量評估方法產生質量映射圖,包括:1)C2G-SSIM;2)包含視覺引導對比度相似度的C2G-SSIM;3)C2G-VSIM。其中,C2G-VSIM比視覺引導對比度相似度僅增加了梯度幅值相似度。質量映射圖每個像素點的值代表著該點的相似度得分(取值范圍為0~1)。即若該像素點的值為1,意味著該點的相似度得分為1,達到最大值。質量映射圖越干凈,參考彩色圖與去色圖像越接近。
對比圖4(e)和(d)可以發現:梯度幅值相似度特征可以反映原圖和去色圖的局部對比度的一致性(圖4(a)和(b)的文本和圖中下方劃線區域的局部對比度)。對比圖5(d)和(c)可以發現:圖(d)更加能保持圖像的細節信息(方框中的蘋果的紋理),說明視覺引導對比度相似度能夠更好地保持圖像的細節,如顏色一致性、紋理特征。
表5展示了一個關于圖6的對比度相似度評估的具體的示例,對比度相似度的均值作為圖6中的原圖與兩種不同算法產生的去色圖像的質量評分。事實上,Grundland方法[13]產生的去色圖像(圖6(c))的質量優于Gooth方法[14]產生的去色圖像(圖6(b))的質量,而原對比度相似度的結果與之相反。圖6用方框標記出Grundland方法的去色圖像中明顯丟失了相鄰色塊間的邊界信息,而該邊界信息在Gooth方法中保留良好。視覺引導對比度相似度通過抓住顏色對比度的信息,達到和主觀評價方法一致的結果[15]。

圖6 彩色參考圖與灰度圖

表5 不同對比度相似度對比
表6從數值上表現了視覺引導對比度相似度和梯度幅值特征共同作用使C2G-VSIM遠遠優于其他的去色圖像評估方法。

表6 視覺引導對比度相似度與其他特征結合的結果
第2章對視覺引導對比度相似度算法引入了視覺引導因子C,該參數由大量反復的實驗確定。依然以Cadík的圖像數據集為實驗對象,圖7為視覺引導對比度相似度在數據集上的準確度實驗和喜愛度實驗的SROCC得分隨著視覺引導因子C變化的曲線。由圖7可知,隨著視覺引導因子C從0到0.5逐步增大,本文視覺引導對比度相似度的SROCC值經歷了先增大后變小的過程。在0.05~0.15間達到最大,最終確定視覺引導因子C為0.1。

圖7 SROCC隨視覺引導因子C的變化曲線
本文算法通過提出一個全新的視覺引導對比度相似度和引入梯度幅值相似度提升了去色圖像質量評估算法的性能。較C2G-SSIM而言,本文算法時間復雜度有所增加。主要原因在于引入視覺引導因子,逐像素地計算視覺引導對比度相似度使得每次循環計算時都會增加比較賦值的計算。而濾波以及梯度幅值相似度的計算并不涉及循環,因此所引起的復雜度的增加可忽略。
假定原對比度相似度算法對一張M*N大小的圖的時間為T,其中需逐像素地進行對比度相似度的計算為M*N次,每次都會基于塊地計算對比度相似度,單次增加的時間代價為t1,而濾波以及梯度幅值相似度的計算所增加的時間為t2,則本文算法相對于C2G-SSIM的耗時增加量為:
Δt=M×N×t1+t2
(14)
經實驗測定,t1≈9×10-6s;t2≈0.05 s。因此,對一張293*390大小的圖像所增加的時間約為1.07 s。
本文通過實驗測試了Cadík的圖像數據集的耗時。經統計,C2G-SSIM對一張293*390大小的圖像的耗時約為24.48 s,本文算法為25.52 s,平均增加耗時為1.04 s,與理論分析相吻合。
本文引入視覺引導對比度相似度和梯度幅值特征,提出了全新的基于視覺相似性的去色圖像質量評估算法。與C2G-SSIM、RWMS、E-score的對比實驗結果表明,本文方法能與主觀評價獲得較高的一致性。對視覺引導對比度相似度和梯度幅值相似度的作用探究實驗結果表明,視覺引導對比度算法能夠較好地捕捉到圖像連續色彩信息失真的情況,梯度幅值相似度能夠抓住圖像局部對比度失真的情況[16]。本文算法相對于C2G-SSIM有了一定的提升,能夠較為準確對去色圖像進行客觀評價,但是卻增加了算法的計算量。因此,去色圖像質量評估算法仍有較大的發展空間,如何進一步優化本文算法,降低耗時是下一步研究的目標。
References)
[1] LU C, XU L, JIA J. Contrast preserving decolorization[C]// Proceedings of the 2012 IEEE International Conference on Computational Photography. Piscataway, NJ: IEEE, 2012: 1-7.
[2] DU H, HE S, SHENG B, et al. Saliency-guided color-to-gray conversion using region-based optimization[J]. IEEE Transactions on Image Processing, 2014, 24(1): 434-43.
[3] BALA R, ESCHBACH R. Spatial color-to-grayscale transform preserving chrominance edge information[C]// CIC 2004: Proceedings of the Twelfth Color Imaging Conference: Color Science and Engineering Systems, Technologies, Applications. Scottsdale, Arizona, USA: [s.n.], 2004: 82-86.
[4] KUHN G R, OLIVEIRA M M, FERNANDES L A F. An improved contrast enhancing approach for color-to-grayscale mappings[J]. The Visual Computer, 2008, 24(7): 505-514.
[5] MA K, ZHAO T, ZENG K, et al. Objective quality assessment for color-to-gray image conversion[J]. IEEE Transactions on Image Processing, 2015, 24(12): 4673-85.
[6] ZHANG L, ZHANG L, MOU X, et al. FSIM: a feature similarity index for image quality assessment[J]. IEEE Transactions on Image Processing, 2011, 20(8): 2378-86.
[7] WU J, SHEN X, LIU L. Interactive two-scale color-to-gray[J]. The Visual Computer, 2012, 28(6): 723-731.
[8] 崔力, 陳玉坤, 韓宇. 視覺相似性圖像質量評價方法[J]. 西安電子科技大學學報(自然科學版), 2012, 39(4): 155-160. (CUI L, CHEN Y K, HAN Y. Visual similarity index for image quality assessment[J]. Journal of Xidian University (Natural Science), 2012, 39(4): 155-160.)
[9] ZHANG L, SHEN Y, LI H. VSI: a visual saliency-induced index for perceptual image quality assessment[J]. IEEE Transactions on Image Processing, 2014, 23(10): 4270-4281.
[10] ZHANG H, ZHU Q, FAN C, et al. Image quality assessment based on Prewitt magnitude[J]. AEU — International Journal of Electronics and Communications, 2013, 67(9): 799-803.
[12] ANTKOWIAK J, BAINA T J, GROUP T V Q E. Final report from the video quality experts group on the validation of objective models of video quality assessment, phase II (FR_TV2) [EB/OL]. [2017- 01- 10]. https://www.itu.int/md/T01-SG09-C-0060.
[13] GRUNDLAND M, DODGSON N A. Decolorize: fast, contrast enhancing, color to grayscale conversion[J]. Pattern Recognition, 2007, 40(11): 2891-2896.
[14] GOOCH A A, OLSEN S C, TUMBLIN J, et al. Color2Gray: salience-preserving color removal[J]. ACM Transactions on Graphics, 2005, 24(3): 634-639.
[15] 刁揚桀, 張紅英, 吳亞東, 等. 顏色保持的實時圖像/視頻去霧算法[J]. 計算機應用, 2014, 34(9): 2702-2707. (DIAO Y J, ZHANG H Y, WU Y D, et al. Real-time image/video haze removal algorithm with color restoration[J]. Journal of Computer Applications, 2014, 34(9): 2702-2707.)
[16] 袁艷春, 劉云鵬, 高宏偉. 基于邊緣結構相似性的圖像質量評價方法[J]. 計算機應用研究, 2015, 32(9): 2870-2873. (YUAN Y C, LIU Y P, GAO H W. Image quality assessment based on edge structure similarity[J]. Application Research of Computers, 2015, 32(9): 2870-2873.)
Objectivequalityassessmentforcolor-to-grayimagesbasedonvisualsimilarity
WANG Man, YAN Jia*, WU Minyuan
(ElectronicInformationSchool,WuhanUniversity,WuhanHubei430072,China)
The Color-to-Gray (C2G) image quality evaluation algorithm based on structural similarity does not make full use of the gradient feature of the image, and the contrast similarity feature ignores the consistency of the continuous color blocks of the image, thus leading to a large difference between the algorithm and the subjective judgment of human vision. A C2G image quality evaluation algorithm named C2G Visual Similarity Index Measurement (C2G-VSIM) was proposed based on Human Visual System (HVS). In this algorithm, the color image was regarded as the reference image, the corresponding decolorization image obtained by different algorithms was regarded as the test image. By applying color space conversion and Gaussian filtering to these reference and test images, taking full account of the characteristics of image brightness similarity and structual similarity, a new color consistency contrast feature was introduced to help C2G-VSIM to capture the global color contrast feature; then the gradient amplitude feature was also introduced into C2G-VSIM to improve the sensitivity of the algorithm to the image gradient feature. Finally, by combining those above features, a new imgage quality evaluation operator named C2G-VSIM was obtained. Experimental results on Cadík’s dataset showed that in terms of accuracy and preference evaluation, the Spearman Rank Order Correlation Coefficient (SROCC) between C2G-VSIM and subjective assessment of human visuality was 0.815 5 and 0.763 4, respectively, the accuracy was improved significantly without increasing the time consuming compared to C2G Structure Similarity Index Measurement (C2G-SSIM). The proposed algorithm has high consistency compared to human visuality, as well as simple calculation, which can effectively and automatically evaluate decolorization images in actual project with large scale.
image Color-to-Gray (C2G) algorithm; Image Quality Assessment (IQA); Human Visual System (HVS); Gradient Magnitude (GM); contrast
2017- 05- 25;
2017- 08- 03。
王蔓(1994—),女,四川巴中人,碩士研究生,主要研究方向:圖像質量評估; 顏佳(1983—),男,湖北天門人,講師,博士,主要研究方向:圖像質量評估、目標識別; 吳敏淵(1964—),男,湖北武漢人,副教授,碩士,主要研究方向:圖像分析、機器視覺。
1001- 9081(2017)10- 2926- 06
10.11772/j.issn.1001- 9081.2017.10.2926
TP391.41
A
WANGMan, born in 1994, M. S. candidate. Her research interests include image quality assessment.
YANJia, born in 1983, Ph. D., lecturer. His research interests include image quality assessment, object detection.
WUMinyuan, born in 1964, M. S., associate professor. His research interests include image analysis, machine vision.