999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

無參考圖像質量評價研究現狀與前景分析

2022-07-27 02:55:54單月劉段萬曉霞
包裝工程 2022年13期
關鍵詞:評價分析質量

單月,劉段,萬曉霞

無參考圖像質量評價研究現狀與前景分析

單月,劉段,萬曉霞

(武漢大學 圖像傳播與印刷包裝研究中心,武漢 430072)

為了進一步掌握無參考圖像質量評價的發展過程與研究熱點,為后續的相關研究提供參考。使用citespace文獻可視化軟件對2000—2021年在Web of Science檢索到的1 712條文獻數據進行基本分析、共被引分析和關鍵詞分析,通過分析可視化圖譜來得到無參考圖像質量評價的發展特點。分析表明無參考圖像質量評價目前正處于高速發展階段,全世界各科研強國均在該領域有所建樹,目前也已存在較為成熟的無參考圖像評價算法,但其精度相較于主觀評價仍有差距。未來研究人員應該結合當今的人工智能技術推動無參考圖像質量評價從高速發展向高質量發展轉變。

圖像質量評價;無參考圖像質量評價;CiteSpace;特征提取;自然場景統計;文獻計量分析

互聯網時代的到來使數字圖像成為日常生活中最容易捕獲的信息之一。在過去的幾十年中,隨著數字媒體設備使用覆蓋率的不斷增高,數字圖像的數量也逐漸攀升。數字圖像在存儲、傳輸、調用和再現的過程中不可避免的會遇到各種各樣的失真,如何有效地進行失真圖像質量評價就成為了研究人員關注的熱門話題。成熟且準確的圖像質量評價模型可以應用于遙感信息[1-3]、醫學影像[4]、圖像復原[5]等領域。

圖像質量評價(Image Quality Assessment, IQA)分為主觀評價和客觀評價2類。主觀評價[6]即根據人的主觀視覺體驗來判斷圖像質量的好壞。客觀評價則是利用計算機來模擬人眼視覺系統(Human Visual System, HVS),對待測圖像進行相關特征分析來獲得圖像質量的客觀評價分數。主觀評價準確但穩定性不強,易受到環境影響,且無法嵌入至計算機軟件中,而客觀評價方法既可以與人眼視覺結果保持基本一致,又可以嵌入軟件實現對圖像的實時處理。

客觀評價根據是否利用參考圖像分為:全參考圖像質量評價方法(Full-reference IQA, FR-IQA)、半參考圖像質量評價方法(Reduced-reference IQA, RR-IQA)和無參考圖像質量評價方法(No-reference IQA, NR-IQA)[7-9]。由于現實場景中多數情況需要在未知原始圖像的情況下對失真圖像進行評價,所以近年來無參考類圖像質量評價方法成為了該領域研究的重點方向。

對目前現有的文獻進行分析,可以有助于了解無參考圖像質量評價的發展過程及主要進展,摸清該領域目前存在的問題,掌握未來的發展趨勢。通過CiteSpace呈現可視化知識圖譜是進行文獻分析的重要方法,它利用統計學的原理與技術對文獻進行定量分析,得到更具說服力的結果。文中將對無參考圖像質量評價進行可視化分析,第1部分介紹了數據的來源與分析方法,第2部分介紹了無參考圖像質量評價的時間、地域、領域與期刊等基本統計信息的分析,第3部分將對領域內的高被引文獻進行分析與介紹,第4部分通過分析關鍵詞得到無參考圖像質量評價的發展趨勢,第5部分總結無參考圖像質量評價的發展特點,討論無參考圖像質量評價存在的問題與未來的發展方向。

1 數據來源與研究方法

文中的數據來源于Web of Science(WOS)核心數據庫,以“TS=NRIQA OR TS=BIQA OR TS=Blind Image Quality Assessment OR TS=No-Reference QualityAssessment”為檢索主題,以2000—2021年為檢索時間跨度,以article和review為文獻類型,以英文為文獻語種進行檢索,共獲得檢索記錄1 712條。通過對檢索結果篩選與除重,最終獲得有效文獻1 712條。

文中主要采用文獻計量的方法來對無參考圖像質量評價進行研究,分析方法見圖1,首先使用WOS的檢索分析工具對無參考質量評價的時空分布、學科領域分布及文獻來源進行統計分析。其次,使用CiteSpace5.7.R5對下載并除重后的1 712條文獻進行期刊共被引分析、文獻共被引分析及關鍵詞分析。使用2種分析方式一方面了解無參考圖像質量評價的發展基本情況,另一方面也通過可視化知識圖譜來總結無參考圖像質量評價的發展熱點與前景。

citespace進行可視化分析中經常以中介中心性衡量某一測度節點在網絡中的重要性[10]。中介中心性的核心思想是:如果一個節點位于其他節點的多條最短路徑上,那么該節點就處于核心地位,即具有較大的中介中心性的節點其重要性就越大,中介中心性大于0.1的節點通常被稱作關鍵節點,在可視化知識圖譜中使用紫色環表示中介中心性高的節點。中介中心性的計算公式如下:

(1)

式中:g為從節點到節點的最短路徑數目;為從節點到節點的g條最短路徑中經過節點的最短路徑數目。

2 基本分析

通過對文獻進行基本的時空分析、學科的領域分析、機構分析與發布期刊分析可以清晰地了解該領域的發展過程,有助于對研究對象有更深刻的了解。

圖1 文中分析方法

2.1 時空分析

文獻的歷年發布數量可以直觀的體現無參考圖像質量評價的發展情況,從圖2的2000—2021年發文量統計可以看出無參考圖像質量評價領域的發文量基本呈現逐年上升趨勢,根據每年的發文量可以將其發展階段分為3部分:第1階段2000—2004年,無參考圖像質量評價的起步階段,發文量較少但相對穩定每年基本均有10篇文獻產出;第2階段2005—2010年,穩步增長階段,發文量雖然總數仍然不多但較前一階段有明顯增長,平均每年有29篇文獻;第3階段2011年至今,這一階段的發文量屬于飛速增長時期,其中2018—2020年的單年發文量已經突破200篇,且仍處于上升趨勢。從3個發展階段可以看出無參考圖像質量評價的熱度在持續攀升,是相關研究領域的熱點話題。

圖2 2000—2021年發文量統計

從圖3各國的發文量統計可以看出在無參考圖像質量評價領域,中美兩國的發文量領先,其中中國以超過500篇的發文量位居第1,德國雖然排在第3,但與排名前2名的發文量差距有近300篇。

圖3 發文量排名前10的國家

Fig .3 Top ten countries in terms of publication volume

反觀圖4的中介中介性的排名,發文量位居前3的國家在中介中心性排名中沒有都在前10的名單里,中介中心性前3名分別是美、英、法,其中美國的中介中心性更是超過了0.3。從發文量和中心中介性的統計可以看出雖然有的地域發文量不大,但所發文獻的重要性卻極高,也說明在進行大量研究的同時要更注重無參考圖像質量評價的高質量發展。

圖4 中介中心性排名前10的國家

2.2 作者分析

從圖5的作者的合作網絡可以發現無參考圖像質量評價領域的作者們大多有固定的合作團隊,由于整張圖譜沒有存在獨立分散的結構,證明各團隊之間是存在合作交流。這種類似于“大雜居,小聚居”的作者分布模式,讓無參考圖像評價領域的發展更為緊密,相互合作交流使得領域可以快速發展。

圖5 作者合作分析圖譜

2.3 機構分析

對圖6所示的文獻來源可視化圖譜分析得出無參考圖像質量評價的研究機構眾多,各國的頂尖高校都有相關學術論文的產出的結論。統計了發文量前10的機構的中介中心性與發文篇數見圖7,其中發文量最多的三所高校分別是南洋理工大學、西安電子科技大學和得克薩斯州大學奧斯汀分校,發文量均超過了50篇,但中介中心性最高的哈佛大學發文量只有20余篇,這反映發文量的多少與重要性并不完全成正比關系。

圖6 文獻來源可視化圖譜

圖7 發文量前10的機構發文量與中介中心性

2.4 學科領域分析

使用WOS的檢索分析工具對無參考圖像質量評價的學科領域分布進行了統計,統計結果見圖8,發文量最高的領域是電子工程,其次是醫學影像和計算機信息系統領域。除此之外在人工智能、軟件工程、電子信息等領域也有涉及,可以看出無參考圖像質量評價在眾多領域均有所研究,是一門綜合性的學科。

2.5 期刊分析

使用WOS的檢索分析工具對無參考圖像質量評價進行發文期刊的統計,其中發文量最高的期刊是《IEEE Transactions on Image Processing》。

對發文期刊使用citespace軟件進行了共被引分析,中介中心性可以反映期刊在無參考圖像質量評價領域的權威性,中心性越高就證明其在領域內的地位越高。總結了中介中心性最高的10篇期刊,見表1,這10篇文章大多屬于發展的前期階段,這也說明了前期的穩步發展為后期無參考圖像質量評價的飛速上升奠定了良好的理論基礎。

圖8 文獻所在學科領域統計

表1 中介中心性前10的共被引期刊統計

Tab.1 Top ten co-cited journals of intermediary centrality

3 文獻共被引分析

使用citespace對文獻進行共被引分析可以了解領域內的高被引文獻,高被引文獻通常可以代表領域的發展方向[11],對高被引文章按照被引頻率排序,總結了被引用次數最多的9篇文獻的題目、中介中心性、年份以及研究主題,見表2。

表2統計的高共被引文獻全部發表于2011—2015年這5年中,此階段正是無參考圖像質量評價發展的加速階段,該階段做到了高速發展的同時兼顧高質量發展。被引用量最高的[12]文獻提出了一種基于空間亮度信息的無參考圖像質量評價算法(BRISQUE算法),該算法提取了圖像的亮度信息,對亮度信息進行除法歸一化處理,使用廣義高斯模型[13]對數據進行擬合,提取模型參數(MSCN系數)作為圖像特征,與人眼視覺主觀評分進行支持向量回歸訓練,生成評價模型。由于BRISQUE算法中使用到的MSCN系數這一亮度特征效果極佳,之后的改進算法基本都會以它作為特征向量中一部分,所以該文獻的引用次數排名第1。

其次被引用量較高的NIQE算法[14]與ILNIQE算法[15]均為無監督式無參考質量評價算法。無參考圖像質量評價分為有監督和無監督2種,有監督評價模型如BRISQUE算法的基本原理是提取圖片的某些特征參數與標準數據庫中記錄的人眼視覺主觀評分做回歸訓練得到預測模型;而無監督評價模型的基本原理則是通過對自然圖像的某些特征建模獲得標準圖像的參數,對失真圖像進行同樣的建模得到失真圖像的參數,對失真參數與標準參數進行對比從而得到圖像的質量評分。此類算法不需要人眼視覺主觀評分作為參考,因此在訓練模型時對數據庫無特定要求,跨數據庫測試穩定性較高。

引用次數最高的3篇文獻提取的均為圖像空間域特征,被引用頻率排名第4名的BLIINDS–Ⅱ[16]算法則是基于離散余弦變化的頻率域進行特征提取無參考質量評價算法。與BLIINDS–Ⅱ算法同樣使用頻率域特征的還有2011年提出的基于小波變化的DIIVINE算法[17]。從表2統計的發文時間可以看出無參考質量評價模型是從基于頻率域特征逐漸轉換至基于空間域特征,這是由于基于頻率域變換的算法涉及到空域與頻域的轉換,使算法運行速度較慢,同時圖像失真大多是空間結構發生變化,所以自然圖像在空間域上存在著更多的統計特征。

除了以上幾種經典算法,高被引算法還包括14年提出的基于梯度幅值與拉普拉斯特征聯合統計的無參考失真圖像質量評價模型[18]和基于自由能理論的NFERM算法[19]。從表2的分析中不難發現,除了對描述算法的文獻,還有2篇與算法相關的工具類文獻引用頻率較高。Ponomarenko等[20]詳細介紹了無參考圖像質量評價訓練預測中使用到的TID2013數據庫,Kang等[21]介紹了用于無參考質量評價的卷積神經網絡模型,這2篇文獻不是從原理上介紹無參考圖像質量評價算法,是為無參考圖像質量評價領域提供更有效的處理工具。

從對高被引文獻的分析可以看出領域內重點的發展方向還是提出更為有效的評價模型,無論是對算法中所提取的特征進行改進,對訓練數據庫的優化,還是對訓練算法的選擇都是為了使模型可以在高效運行的情況下獲得與人眼視覺更為一致的結果。

4 主題與趨勢分析

關鍵詞是對文章內容的高度概括,對關鍵詞進行分析可以更好地掌握領域內的研究中心,因此為了更好地了解無參考圖像質量評價的熱點話題,使用CiteSpace對1 712的文獻進行了進行關鍵詞分析。

表2 高共被引文獻統計分析

Tab.2 Highly co-cited journals

4.1 關鍵詞共現分析

為了了解領域內的研究中心,先對關鍵詞進行了共現分析,結果見圖9。可見無參考圖像質量評價領域涉及到的關鍵詞眾多且相互交錯,關鍵詞之間基本都存在聯系。

圖9 關鍵詞共現分析可視化圖譜

表3統計了出現頻數最多的關鍵詞的名稱、頻次和中介中心性,表3中的10個關鍵詞可以分為2類。一類是“image quality assessment”、“no-reference quality assessment”、“ blind image quality assessment”和“video quality assessment”,它們主要圍繞質量評價展開,其中的視頻質量評價是目前該領域的一大熱點話題,無參考圖像質量評價的原理被使用于對圖像視頻進行質量評價,得克薩斯州大學奧斯汀分校的課題組就撰寫了相關的算法,如VIDEVAL算法[22]。另一類則是與算法相關的“statistics”、“natural scene statistics”、“prediction”、“blur”、“algorithm”和“feature extraction”。其中自然場景統計(Natural Scene Statistics, NSS)[23]是算法中最為常用的原理,自然場景統計是通過數學統計模型來擬合自然場景的特征,自然圖像的特征通常符合一定的數學統計規律,而失真的存在會改變圖像的自然統計特性,從而使它們的自然場景統計特征變得不自然。基于自然場景統計原理的無參考圖像質量評價算法就是通過捕獲失真圖像中的 “非自然現象”來提取圖像特征的。

4.2 關鍵詞聚類分析

通過關鍵詞共現分析初步掌握無參考圖像質量評價的發展趨勢與核心原理后,文中對關鍵詞進行聚類分析,在調整處理后獲得了圖10中的6個聚類標簽。聚類標簽可以分為主旨、技術和應用3類。第1類是“#1 image quality assessment”、“#3 distortion”和“#9 no reference” 3個標簽,它們代表的是該領域的主旨問題,即無參考圖像的質量評價。第2類為技術類標簽,由“#0 support vector regression”構成[24],是大部分有監督式無參考圖像質量評價模型的訓練算法,除了支持向量回歸的訓練方法,近幾年也出現了廣義神經網絡(GRNN)算法[25]和AdaBoosting BPNN算法[26],目前的大多數研究都旨在尋找更為有效的訓練方法。第3類則是應用方向的聚類標簽,標簽#2、#7則是無參考圖像質量評價可以應用的領域,包括分類、迭代重建等,說明無參考圖像質量評價擁有廣闊的應用前景。

表3 出現頻數最多的關鍵詞統計

Tab.3 The most frequently occurring keywords

圖10 關鍵詞聚類分可視化析圖譜

4.3 關鍵詞突現分析

citespace中的突現分析可以有效地探索領域發展趨勢,對無參考圖像質量評價的關鍵詞進行了突現分析,見圖11。

從圖11中可以看出,隨著互聯網技術的發展,深度學習、神經網絡、自由能理論等新興的技術成為了領域文獻關鍵詞的核心內容,也預示著無參考圖像質量評價的發展重心將向此方向轉移。

圖11 關鍵詞突現分析結果

5 討論與總結

從基本分析、文獻共被引分析和關鍵詞分析可以得出無參考圖像質量評價領域的發展特點:從時空維度來看無參考質量評價正在處于高速發展時期,各國的頂級高校都在從事相關方面的研究,且大部分相關研究人員會存在合作關系。其次從文獻內容來看,無參考圖像質量評價發展的重點在評價算法的改進上,只有進一步提高算法的精度才能更適合現實中圖像失真的情況。從研究的主題與熱點來看,提取合適的特征,使用恰當的學習算法將成為無參考圖像的發展重點,同時能夠模擬人眼視覺系統的腦科學領域相關原理也開始被研究人員所關注。總的來說,無參考質量評價模型正處于從高速發展向高質量發展轉型階段,更高的精度和效率成為了需要解決的核心問題。

針對目前的發展現狀,對未來的發展有如下展望。

1)需要在特征數量與運行速度上達到平衡。特征的選取是模型是否成功的關鍵,在未來發展中選擇更為多元化的統計特征將成為重點,從高被引文獻的經典算法在中不難發現目前現存的算法大多使用的是單一特征,這在一定程度上提高了算法的運行速度,卻也拋棄了部分特征。例如目前已存在較為成熟的針對亮度失真類型的無參考失真圖像評價模型,但色度特征的使用覆蓋范圍很低,由于色度信息的多樣性,沒有一組數量較少但能覆蓋大部分色度信息的特征組合,這使得色度特征的增加與算法運行時間無法得到平衡,在特征數量與運行速度上達到平衡是無參考圖像評價領域發展的核心問題。

2)擴展應用范圍,選取更為合適的訓練數據。數據庫是出現頻次很高的關鍵詞,目前使用的訓練數據庫雖然在文獻仿真測試中效果較好,但并不能很好地服務于真實場景。數據庫中的圖像多是單一失真類型,與現實生活中常見的多元失真有較大差別,因此可以創建新的數據庫,采用更貼近現實失真情況的圖片來作為訓練數據集。

3)加強無參考圖像質量評價與人工智能的結合,從無參考圖像的發展歷程可以看出它是一門與時俱進的學科,如何將現階段最先進的人工智能算法融入評價模型是一大熱點問題。應該積極探索尋找更高效的訓練模型算法提高無參考失真圖像評價算法的準確性和泛化能力。

6 結語

文中通過對無參考圖像質量評價領域1 712篇文獻進行基本分析、共被引分析和關鍵詞分析總結了無參考圖像質量評價發展的現狀與前景,指出了無參考圖像質量評價在高速發展的同時應該進一步向高質量發展轉型,不斷拓寬應用領域,提高算法精度,為今后無參考圖像質量評價模型的發展提供了參考。

[1] 郭從洲, 李可, 李賀, 等. 遙感圖像質量等級分類的深度卷積神經網絡方法[J/OL]. 武漢大學學報(信息科學版): 1-9[2021–06–18]. https://doi.org/10.13203/j. whugis20200292.

GUO Cong-zhou, LI Ke, LI He, et al. Deep Convolution Neural-Network Method for Remote Sensing Image Quality Clas-sification[J/OL]. Geomatics and Information Science of Wuhan University: 1-9[2021-06-18]. https://doi.org/10.13203/j.whugis20200292.

[2] 徐琳. 基于卷積神經網絡的遙感圖像質量評價研究[D]. 南京: 南京理工大學, 2019: 10-15.

XU Lin. Research on Remote Sensing Image Quality Evaluation Based on Convolution Neural Network[D]. Nanjing: Nanjing University of Science and Technology, 2019: 10-15.

[3] 閆鈞華, 白雪含, 張寅, 等. 融合多特征的無參考復原遙感圖像質量評價[J]. 電子設計工程, 2019, 27(12): 1-7.

YAN Jun-hua, BAI Xue-han, ZHANG Yin, et al. No-Reference Recovered Remote Sensing Image Quality Assessment Based on Fusion of Multiple Features[J]. Electronic Design Engineering, 2019, 27(12): 1-7.

[4] 孫記航, 張祺豐, 李昊巖, 等. 基于模型及自適應統計迭代重建優化兒童腹部低劑量CT血管造影圖像質量[J]. 中國醫學影像技術, 2021, 37(5): 749-753.

SUN Ji-hang, ZHANG Qi-feng, LI Hao-yan, et al. Optimization of Image Quality of Abdominal Low Dose CT Angiography in Children Based on Model and Adaptive Statistical Iterative Reconstruction[J]. Chinese Journal of Medical Imaging Technology, 2021, 37(5): 749-753.

[5] 王爍, 余偉, 田傳耕. 基于多階結構表示的超分辨率重構圖像質量盲評價方法[J]. 重慶郵電大學學報(自然科學版), 2021, 33(2): 280-288.

WANG Shuo, YU Wei, TIAN Chuan-geng. Blind Quality Metric of Super-Resolution Reconstructed Images Based on Multi-Order Structure Representation[J]. Journal of Chongqing University of Posts and Telecommunications (Natural Science Edition), 2021, 33(2): 280-288.

[6] LEE D. Towards a Perceptual Image Quality Assessment Framework for Color Data[D]. Toronto: University of Toronto, 2017: 1-5.

[7] ZHOU Yu, LI Lei-da, WU Jin-jian, et al. Blind Quality Index for Multiply Distorted Images Using Biorder Structure Degradation and Nonlocal Statistics[J]. IEEE Transactions on Multimedia, 2018, 20(11): 3019-3032.

[8] ZHOU Y, LI L, WANG S, et al. No-Reference Quality Assessment for View Synthesis Using DoG-Based Edge Statistics and Texture Naturalness[J]. Transactions on Image Processing, 201 9, 28(9): 4566-4579.

[9] CHANDLER D M, LI S, LIN C S, et al. Seven Challenges in Image Quality Assessment: Past, Present, and Future Research[J]. ISRN Signal Processing, 2013, 20(5): 1-53.

[10] 程晏萍, 黃千芷, 董慈蔚. 大數據在供應鏈管理中應用的研究現狀——基于CiteSpace的知識圖譜分析[J]. 華中師范大學學報(自然科學版), 2021, 55(3): 453-461.

CHENG Yan-ping, HUANG Qian-zhi, DONG Ci-wei. The Application of Big Data in Supply Chain Management: Knowledge Mapping Analysis Based on CiteSpace[J]. Journal of Central China Normal University (Natural Sciences), 2021, 55(3): 453-461.

[11] 鄭燁, 任牡丹, FOUNTAIN J E. 基于文獻計量的中外人工智能政策研究現狀及啟示[J]. 情報雜志, 2021, 40(1): 48-55.

ZHENG Ye, REN Mu-dan, FOUNTAIN J E. Current Status and Enlightenment of Chinese and Foreign Artificial Intelligence Policy Research Based on Bibliometric Analysis[J]. Journal of Intelligence, 2021, 40(1): 48-55.

[12] MITTAL A, MOORTHY A K, BOVIK A C. No-Reference Image Quality Assessment in the Spatial Domain[J]. IEEE Transactions on Image Processing, 2012, 21(12): 4695-4708.

[13] SHARIFI K, LEON-GARCIA A. Estimation of Shape Parameter for Generalized Gaussian Distributions in Subband Decompositions of Video[J]. IEEE Transactions on Circuits and Systems for Video Technology, 1995, 5(1): 52-56.

[14] MITTAL A, SOUNDARARAJAN R, BOVIK A C. Making a “Completely Blind” Image Quality Analyzer[J]. IEEE Signal Process Lett, 2013, 20(3): 209-212.

[15] ZHANG Lin, ZHANG Lei, BOVIK A C. A Feature-Enriched Completely Blind Image Quality Evaluator[J]. IEEE Trans Image Process, 2015, 24(8): 2579-2591.

[16] SAAD M A, BOVIK A C, CHARRIER C. Blind Image Quality Assessment: A Natural Scene Statistics Approach in the DCT Domain[J]. IEEE Transactions on Image Processing, 2012, 21(8): 3339-3352.

[17] MOORTHY A K, BOVIK A C. Blind Image Quality Assessment: From Natural Scene Statistics to Perceptual Quality[J]. IEEE Transactions on Image Processing, 2011, 20(12): 3350-3364.

[18] XUE Wu-feng, MOU Xuan-qin, ZHANG Lei, et al. Blind Image Quality Assessment Using Joint Statistics of Gradient Magnitude and Laplacian Features[J]. IEEE Transactions on Image Processing, 2014, 23(11): 4850-4862.

[19] GU Ke, ZHAI Guang-tao, YANG Xiao-kang, et al. Using Free Energy Principle for Blind Image Quality Assessment[J]. IEEE Transactions on Multimedia, 2015, 17(1): 50-63.

[20] PONOMARENKO N, JIN L, IEREMEIEV O, et al. Image Database TID2013: Peculiarities, Results and Perspectives[J]. Signal Process-Image Commun, 2015 (30): 57-77.

[21] KANG Le, YE Peng, LI Yi, et al. Convolutional Neural Networks for No-Reference Image Quality Assessment[C]// IEEE Conference on Computer Vision And Pattern Recognition, OH, 2014: 1733-1740.

[22] TU Zheng-zhong, WANG Yi-lin, BIRKBERK N, et al. UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated Content[J]. IEEE Transactions on Image Processing, 2021, 30: 4449-4464.

[23] SHEIKH H R, BOVIK A C, DE VECIANA G. An Information Fidelity Criterion for Image Quality Assessment Using Natural Scene Statistics[J]. IEEE Transactions on Image Processing, 2005, 14(12): 2117-2128.

[24] MOORTHY A K, BOVIK A C. A Two-Step Framework for Constructing Blind Image Quality Indices[J]. IEEE Signal Processing Letters, 2010, 17(5): 513-516.

[25] LI Chao-feng, BOVIK A C, WU Xiao-jun. Blind Image Quality Assessment Using a General Regression Neural Network[J]. IEEE Transactions on Neural Networks, 2011, 22(5): 793-799.

[26] 余偉, 徐晶晶, 劉玉英, 等. 基于自然場景統計的色域映射圖像無參考質量評價[J]. 激光與光電子學進展, 2020, 57(14): 69-78.

YU Wei, XU Jing-jing, LIU Yu-ying, et al. No-Reference Quality Evaluation for Gamut Mapping Images Based on Natural Scene Statistics[J]. Laser & Optoelectronics Progress, 2020, 57(14): 69-78.

Current Research Status and Prospect of No-reference Image Quality Assessment

SHAN Yue, LIU Duan, WAN Xiao-xia

(Research Center of Image Communication and Printing and Packaging, Wuhan University, Wuhan 430072, China)

The work aims to further understand the development process and research hotspots of no-reference image quality assessment and provide reference for subsequent related research. CiteSpace literature visualization software was used to conduct basic analysis, co-citation analysis and keyword analysis on 1 712 items of literature retrieved from Web of Science from 2000 to 2021. The development characteristics of no-reference image quality assessment were obtained by analyzing the visualization atlas. The analysis results showed that no-reference image quality assessment was currently in a stage of rapid development, and countries all over the world had made achievements in this field. At present, there were more mature no-reference image assessment algorithms, but there was still a gap in accuracy compared with subjective assessment. In the future, researchers should combine today's artificial intelligence technology to promote the transition from high-speed development to high-quality development of no-reference image quality assessment.

image quality assessment; no-reference image quality assessment; CiteSpace; feature extraction; natural scene statistics; bibliometric analysis

TP391

A

1001-3563(2022)13-0296-09

10.19554/j.cnki.1001-3563.2022.13.037

2020–12–24

單月(1997—),女,武漢大學碩士生,主攻無參考圖像質量評價和色域映射圖像質量。

萬曉霞(1965—),女,武漢大學教授、博導,主要研究方向為顏色科學和信息系統。

責任編輯:曾鈺嬋

猜你喜歡
評價分析質量
“質量”知識鞏固
SBR改性瀝青的穩定性評價
石油瀝青(2021年4期)2021-10-14 08:50:44
隱蔽失效適航要求符合性驗證分析
質量守恒定律考什么
做夢導致睡眠質量差嗎
電力系統不平衡分析
電子制作(2018年18期)2018-11-14 01:48:24
電力系統及其自動化發展趨勢分析
質量投訴超六成
汽車觀察(2016年3期)2016-02-28 13:16:26
基于Moodle的學習評價
保加利亞轉軌20年評價
主站蜘蛛池模板: 国产成人区在线观看视频| 99手机在线视频| 草草影院国产第一页| 国产永久免费视频m3u8| 亚洲精品视频网| 国产亚洲精品在天天在线麻豆 | 国产电话自拍伊人| 午夜老司机永久免费看片| 无码免费试看| 无码高清专区| 91免费国产在线观看尤物| 久久频这里精品99香蕉久网址| 亚洲成人在线免费| 久久动漫精品| 精品无码一区二区三区电影| 亚洲天堂福利视频| 欧美亚洲一二三区| 亚洲AV人人澡人人双人| 国产一级二级在线观看| 国产va欧美va在线观看| 亚洲h视频在线| 成年A级毛片| 亚洲欧美成人在线视频| 亚洲天堂网视频| 五月天久久综合| 精品国产成人a在线观看| 又爽又大又黄a级毛片在线视频| 四虎永久在线精品影院| 91久久偷偷做嫩草影院免费看| 欧美亚洲国产视频| 114级毛片免费观看| 国产亚洲欧美在线视频| 国产成人麻豆精品| 中文字幕在线视频免费| 午夜不卡视频| 色丁丁毛片在线观看| 九九视频免费看| 在线色国产| 人妻少妇久久久久久97人妻| 日本福利视频网站| 国产亚洲高清在线精品99| 亚洲人成网站色7799在线播放| 日本久久网站| 欧美中文一区| 国产视频a| 国产草草影院18成年视频| 香蕉蕉亚亚洲aav综合| 午夜无码一区二区三区在线app| 中文字幕资源站| 91九色视频网| 国产男人的天堂| 国产小视频a在线观看| 亚洲 成人国产| 在线中文字幕网| 不卡午夜视频| 人妻丝袜无码视频| 久久综合结合久久狠狠狠97色| 国产精品视频导航| 成人午夜网址| 国产自视频| 欧美啪啪一区| 欧美全免费aaaaaa特黄在线| 毛片一级在线| 日韩大乳视频中文字幕| 四虎精品国产AV二区| 无码专区国产精品第一页| 国产一国产一有一级毛片视频| 精品国产一二三区| 成人毛片免费观看| 欧美精品亚洲精品日韩专区| 国产激情无码一区二区三区免费| 91久久精品国产| 亚洲成年网站在线观看| 日韩精品一区二区三区大桥未久| 91毛片网| 天天色综网| 亚洲国产综合精品中文第一| 天天躁夜夜躁狠狠躁图片| 久久亚洲国产一区二区| 91丝袜在线观看| 国产精品黄色片| аⅴ资源中文在线天堂|