999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于RFB和超網(wǎng)絡(luò)的跨尺度多層次真實(shí)失真圖像質(zhì)量評(píng)價(jià)方法

2024-09-14 00:00:00周懷博賈惠珍王同罕
現(xiàn)代電子技術(shù) 2024年9期

摘" 要: 為了能在真實(shí)失真圖像質(zhì)量領(lǐng)域?qū)崿F(xiàn)高效的跨尺度學(xué)習(xí),提出一種雙分支特征提取方法。首先,利用對(duì)比學(xué)習(xí)方法自監(jiān)督地提取跨尺度、跨顏色空間的圖像內(nèi)容感知特征;隨后,采用基于擴(kuò)張感受野和超網(wǎng)絡(luò)的策略,將多層次特征信息與跨尺度信息進(jìn)行循環(huán)交互融合,以獲取更貼近人類(lèi)感知的圖像質(zhì)量特征。基于公開(kāi)真實(shí)失真數(shù)據(jù)庫(kù)的實(shí)驗(yàn)結(jié)果表明,所提算法在真實(shí)失真圖像質(zhì)量評(píng)價(jià)上取得了優(yōu)越性能,而且,通過(guò)兩個(gè)尺度的實(shí)驗(yàn)結(jié)果展示了該算法實(shí)現(xiàn)了更高效的跨尺度學(xué)習(xí),從而為圖像多尺度深度網(wǎng)絡(luò)的應(yīng)用提供了較好基礎(chǔ)。

關(guān)鍵詞: 圖像質(zhì)量評(píng)價(jià); 無(wú)參考; 真實(shí)失真; 跨尺度學(xué)習(xí); 多特征融合; 雙分支特征提取

中圖分類(lèi)號(hào): TN911.73?34; TP391"""""""""""""""""" 文獻(xiàn)標(biāo)識(shí)碼: A""""""""""""""""" 文章編號(hào): 1004?373X(2024)09?0047?06

0" 引" 言

隨著數(shù)字圖像在各個(gè)領(lǐng)域的廣泛應(yīng)用,圖像質(zhì)量評(píng)價(jià)成為計(jì)算機(jī)視覺(jué)和圖像處理領(lǐng)域中備受關(guān)注的重要問(wèn)題之一。圖像質(zhì)量評(píng)價(jià)不僅在圖像采集、傳輸和存儲(chǔ)等環(huán)節(jié)中具有重要意義,而且在計(jì)算機(jī)視覺(jué)任務(wù)中起到了至關(guān)重要的作用,如圖像增強(qiáng)、目標(biāo)檢測(cè)和識(shí)別等。

傳統(tǒng)的圖像質(zhì)量評(píng)價(jià)方法主要基于均方差和結(jié)構(gòu)相似性指數(shù)等,這些方法在特點(diǎn)場(chǎng)景下能夠提供較好的性能,但在處理復(fù)雜場(chǎng)景和多樣性圖像時(shí)表現(xiàn)欠佳。尤其在人類(lèi)感知與計(jì)算機(jī)視覺(jué)之間存在較大差異的情況下,傳統(tǒng)方法的不足逐漸顯露出來(lái)。

近年來(lái),隨著深度學(xué)習(xí)技術(shù)的迅猛發(fā)展,基于深度學(xué)習(xí)的圖像質(zhì)量評(píng)價(jià)算法取得了顯著的成就。然而,現(xiàn)在的深度學(xué)習(xí)方法中基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neutral Network, CNN)的圖像質(zhì)量評(píng)價(jià)算法[1]對(duì)于全局信息的獲取有一定的局限性。在真實(shí)失真圖像質(zhì)量評(píng)價(jià)領(lǐng)域由于數(shù)據(jù)的特點(diǎn),通常無(wú)法獲得參考圖像,國(guó)內(nèi)外學(xué)者在圖像質(zhì)量評(píng)價(jià)領(lǐng)域進(jìn)行了大量的研究[1?2]。文獻(xiàn)[3]為了解決真實(shí)失真圖像質(zhì)量預(yù)測(cè)問(wèn)題提出了一種自適應(yīng)超網(wǎng)絡(luò)架構(gòu),將IQA的流程分為內(nèi)容理解、感知規(guī)則學(xué)習(xí)和質(zhì)量預(yù)測(cè)三個(gè)階段,通過(guò)超網(wǎng)絡(luò)自適應(yīng)地建立感知規(guī)則。文獻(xiàn)[4]為了解決當(dāng)時(shí)流行的NR?IQA方法在真實(shí)失真領(lǐng)域表現(xiàn)不佳的問(wèn)題,通過(guò)大量的真實(shí)失真圖像和補(bǔ)丁,使用圖像和貼片質(zhì)量評(píng)分建立全部與局部相互推斷的框架。文獻(xiàn)[5]提出采用雙流網(wǎng)絡(luò)結(jié)構(gòu)分別提取結(jié)構(gòu)退化中的特征和紋理分布變化的方式,并使用自適應(yīng)的裁剪方式來(lái)確保類(lèi)別平衡。文獻(xiàn)[6]通過(guò)多尺度的失真表示學(xué)習(xí),提取真實(shí)失真圖像中樣本的分布特征,并基于失真水平預(yù)測(cè)模糊性。文獻(xiàn)[7]引入雙分支網(wǎng)絡(luò)提取低級(jí)失真和高級(jí)語(yǔ)義,增強(qiáng)了模型的泛化能力。

文獻(xiàn)[8?9]由于直接的全局關(guān)系建模,在擴(kuò)大感受野和上下文信息獲取方面具有天然優(yōu)勢(shì)。為了更全面地考慮圖像的全局特征,近期基于Transformer的圖像質(zhì)量評(píng)價(jià)方法越來(lái)越多。Transformer模型通過(guò)基于自注意力機(jī)制能夠捕捉圖像中不同區(qū)域之間的長(zhǎng)距離依賴(lài)關(guān)系,使得模型在全局范圍內(nèi)能夠更好地理解圖像特征。但該方法需要大量的數(shù)據(jù),計(jì)算量通常更大。文獻(xiàn)[10]提出了在卷積神經(jīng)網(wǎng)絡(luò)提取的特征圖后使用淺層Transformer編碼器的體系結(jié)構(gòu),能處理任意分辨率。文獻(xiàn)[11]通過(guò)多尺度的圖像表示捕捉不用粒度的圖像質(zhì)量。

更為關(guān)鍵的是,現(xiàn)有方法不能很好解決訓(xùn)練和測(cè)試圖像尺寸不一致而導(dǎo)致的性能差異問(wèn)題。在這一背景下,本文提出了一種基于RFB[12]和超網(wǎng)絡(luò)[13]的跨尺度多層次真實(shí)失真圖像質(zhì)量評(píng)價(jià)算法,通過(guò)自監(jiān)督學(xué)習(xí)實(shí)現(xiàn)跨尺度的內(nèi)容理解和擴(kuò)大感受野,實(shí)現(xiàn)對(duì)全局信息更為充分的理解,使得模型在特征提取方面更具有泛化性,實(shí)現(xiàn)模型自適應(yīng)輸入尺寸,并在不同尺度上更為準(zhǔn)確地評(píng)估圖像質(zhì)量。本文算法通過(guò)在訓(xùn)練過(guò)程中引入自監(jiān)督學(xué)習(xí)的雙分支特征提取網(wǎng)絡(luò)并凍結(jié)特征提取網(wǎng)絡(luò)的策略,進(jìn)一步提升了模型的泛化性。

1" 擴(kuò)大感受野的特征循環(huán)融合圖像質(zhì)量評(píng)價(jià)方法

本文算法在訓(xùn)練階段使用雙分支的特征提取網(wǎng)絡(luò),其中一個(gè)分支是在ImageNet數(shù)據(jù)庫(kù)上訓(xùn)練提取圖像分類(lèi)特征的ResNet50網(wǎng)絡(luò),另一個(gè)分支是在AVA數(shù)據(jù)庫(kù)訓(xùn)練提取尺度不變的ResNet50網(wǎng)絡(luò)。

1.1" 基于對(duì)比學(xué)習(xí)的自監(jiān)督圖像特征提取輔助任務(wù)

訓(xùn)練可靠的深度學(xué)習(xí)模型需要海量數(shù)據(jù),但在圖像質(zhì)量評(píng)價(jià)中現(xiàn)有數(shù)據(jù)庫(kù)無(wú)法覆蓋所有失真情況。本文采用對(duì)比學(xué)習(xí)的方法[14?15]是為不同尺度圖像建立相同的內(nèi)容感知,訓(xùn)練流程如圖1所示。這里采用顏色空間變換的方法來(lái)自于CONTRIQE[16],采用不同的顏色空間提取互補(bǔ)的質(zhì)量信息,目的是確保提取的尺度不變特征不受顏色變換的影響。

1.2" 基于RFB的多尺度圖像質(zhì)量特征提取結(jié)構(gòu)

在目標(biāo)識(shí)別任務(wù)中,感受野的大小通常是一個(gè)關(guān)鍵因素[17],在圖像質(zhì)量評(píng)價(jià)任務(wù)中更為重要。由于圖像質(zhì)量的評(píng)價(jià)涉及到主觀感受,而人的視覺(jué)系統(tǒng)對(duì)于全局信息和局部信息的感知都是敏感的,因此在這一任務(wù)中更強(qiáng)調(diào)全局和局部的綜合感知。近年來(lái),Transformer的興起帶動(dòng)了許多基于Transformer的圖像質(zhì)量評(píng)價(jià)工作。Transformer對(duì)比卷積神經(jīng)網(wǎng)絡(luò)的長(zhǎng)處之一是實(shí)現(xiàn)了全局感受野,但是引入Transformer的圖像質(zhì)量評(píng)級(jí)算法大大增加了模型的復(fù)雜度,輸入圖像的尺寸也得到了限制。本文為實(shí)現(xiàn)更大的感受野,如圖2所示,在特征圖之后提出了引入目標(biāo)檢測(cè)算法中RFB模擬人類(lèi)視覺(jué)感受野的結(jié)構(gòu)。通過(guò)實(shí)現(xiàn)擴(kuò)大模型的感受野,更好地提取圖像中不同尺度的結(jié)構(gòu)和紋理信息,更加適應(yīng)不同尺度的圖像。

1.3" 基于超網(wǎng)絡(luò)的多層次特征流循環(huán)融合模塊

受HyperIQA的啟發(fā),建立自適應(yīng)內(nèi)容感知的機(jī)制有助于提高模型的感知質(zhì)量能力。本文使用超網(wǎng)絡(luò)的目的是生成全連接層中的參數(shù),實(shí)現(xiàn)動(dòng)態(tài)感知多層次特征。本文在基于超網(wǎng)絡(luò)的自適應(yīng)內(nèi)容感知的基礎(chǔ)上提出了特征循環(huán)融合模塊,結(jié)構(gòu)如圖3所示。

在這個(gè)循環(huán)結(jié)構(gòu)中,實(shí)現(xiàn)了尺度不變信息以自頂向下方向與多層次信息融合。通過(guò)這種方式融合的圖像特征將深層模型信息向淺層模型信息傳遞,建立了更好的上下文信息和語(yǔ)義理解,雙分支的特征信息交互是由于雙分支網(wǎng)絡(luò)通常專(zhuān)注于不同方面的特征信息而建立的,本文分別提取圖像局部特征和全局特征的分支,通過(guò)有效地平衡局部和全部信息,從而更加全面地評(píng)估圖像質(zhì)量。

2" 實(shí)驗(yàn)結(jié)果與分析

2.1" 數(shù)據(jù)庫(kù)介紹

實(shí)驗(yàn)中采用了3個(gè)圖像質(zhì)量數(shù)據(jù)庫(kù),包括2個(gè)真實(shí)失真圖像質(zhì)量評(píng)價(jià)數(shù)據(jù)庫(kù):KonIQ[18]、SPAQ[19],用于訓(xùn)練和測(cè)試圖像質(zhì)量評(píng)估網(wǎng)絡(luò);1個(gè)美學(xué)質(zhì)量評(píng)價(jià)數(shù)據(jù)庫(kù)AVA,用于自監(jiān)督訓(xùn)練提取尺度不變特征。

2.2" 實(shí)驗(yàn)訓(xùn)練參數(shù)與評(píng)估指標(biāo)

本文使用在AVA數(shù)據(jù)庫(kù)上訓(xùn)練的基于對(duì)比學(xué)習(xí)的內(nèi)容感知特征網(wǎng)絡(luò),使用在ImageNet1k上預(yù)訓(xùn)練的ResNet的網(wǎng)絡(luò)權(quán)重。在特征提取網(wǎng)絡(luò)訓(xùn)練階段將訓(xùn)練集、測(cè)試集的比例設(shè)為8∶2,訓(xùn)練輪次為30輪,最后選擇在測(cè)試集上表現(xiàn)最好的一次權(quán)重參與后一階段的實(shí)驗(yàn)。基于對(duì)比學(xué)習(xí)的內(nèi)容感知網(wǎng)絡(luò)采用余弦相似度作為損失函數(shù),表達(dá)式為:

[cosθ=i=1nxi×yii=1nxi2×i=1nyi2] (1)

式中:[x]、[y]代表圖像提取后的特征流;[n]代表特征流的維度;[i]代表維度索引。

本文使用KonIQ、SPAQ數(shù)據(jù)庫(kù)作為評(píng)估數(shù)據(jù)庫(kù)。在評(píng)估數(shù)據(jù)庫(kù)中,將數(shù)據(jù)庫(kù)劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集的比例為7∶1∶2。為了在比較的過(guò)程中保持客觀性,本文復(fù)制了對(duì)比模型的各自作者在文獻(xiàn)中展示的結(jié)果作為最終結(jié)果。本文采用2個(gè)目前絕大多數(shù)學(xué)者采用的無(wú)參考圖像質(zhì)量模型預(yù)測(cè)性能評(píng)價(jià)指標(biāo)[20]:Spearman秩序相關(guān)系數(shù)(SROCC)和Pearson線(xiàn)性相關(guān)系數(shù)(PLCC)。本文進(jìn)行了10次實(shí)驗(yàn),并選取實(shí)驗(yàn)結(jié)果中Spearman秩序相關(guān)系數(shù)和Pearson線(xiàn)性相關(guān)系數(shù)的中值。在預(yù)測(cè)圖像質(zhì)量分?jǐn)?shù)時(shí),采用平均絕對(duì)誤差(MAE)損失函數(shù)作為訓(xùn)練時(shí)的損失函數(shù),表達(dá)式為:

[Lossscore=1ni=1nyi-ypi] """ (2)

式中:[yi]為樣本平均主觀得分標(biāo)簽;[ypi]為訓(xùn)練回歸網(wǎng)絡(luò)時(shí)的預(yù)測(cè)平均主觀分?jǐn)?shù);[n]為樣本數(shù);[i]代表樣本的索引。

2.3" 與人類(lèi)判斷的相關(guān)性

表1比較了在真實(shí)數(shù)據(jù)庫(kù)不同模型的性能。從表中看出:與SOTA模型相比,在KonIQ數(shù)據(jù)庫(kù)上,SROCC提升了0.4%,PLCC提升了1%;在SPAQ數(shù)據(jù)庫(kù)上,SROCC與之前SOTA模型持平。值得注意的是,CONTRIQE和本文算法凍結(jié)了特征提取網(wǎng)絡(luò),使得這部分網(wǎng)絡(luò)權(quán)重在訓(xùn)練階段不再更新,從而保留了在預(yù)訓(xùn)練任務(wù)中學(xué)習(xí)到的有用特征,有助于將先前學(xué)到的知識(shí)遷移到新的圖像質(zhì)量評(píng)價(jià)任務(wù)中,利用學(xué)習(xí)到的通用特征實(shí)現(xiàn)更好的泛化能力。圖4展示了所提算法在KonIQ和SPAQ數(shù)據(jù)庫(kù)上預(yù)測(cè)效果的散點(diǎn)圖和最小二乘法的擬合直線(xiàn)。

預(yù)測(cè)結(jié)果散點(diǎn)圖

2.4 "不同尺度下實(shí)驗(yàn)結(jié)果

表2、表3中比較了在真實(shí)數(shù)據(jù)庫(kù)不同尺寸訓(xùn)練下不同模型的性能。從表中可以看出,過(guò)去的方法在尺寸固定的情況下,對(duì)于與訓(xùn)練尺寸相同的輸出圖像尺寸情況下,模型性能表現(xiàn)較好;在輸出圖像尺寸與訓(xùn)練圖像尺寸不一致時(shí),模型性能表現(xiàn)不一致,通常表現(xiàn)更差。表中數(shù)據(jù)顯示,本文所提算法在測(cè)試圖像尺寸與訓(xùn)練圖像尺寸不一樣時(shí),模型性能表現(xiàn)差距更小,緩解了模型在訓(xùn)練和測(cè)速圖像尺寸不一致時(shí)效果不佳的問(wèn)題。在KonIQ數(shù)據(jù)庫(kù)上,在兩個(gè)尺寸下性能對(duì)比TRIQ模型都有提升,以1 024×768尺寸訓(xùn)練并以512×384尺寸測(cè)試時(shí),SROCC提升4.6%,PLCC提升5.5%。

圖5展示本文算法在KonIQ數(shù)據(jù)庫(kù)上在512×384和1 024×768兩個(gè)尺寸上預(yù)測(cè)效果的散點(diǎn)圖和擬合直線(xiàn)。

2.5" 消融實(shí)驗(yàn)

為了進(jìn)一步驗(yàn)證所提方法的有效性,在KonIQ和SPAQ數(shù)據(jù)庫(kù)上進(jìn)行消融研究,表4為消融結(jié)果。

可以看到,加入跨尺度特征形成雙分支網(wǎng)絡(luò)對(duì)比原網(wǎng)絡(luò)能得到更好的性能,并且在加入本文提出的循環(huán)多層次特征融合對(duì)比多層次特征融合也有更好的效果。

3" 結(jié)" 語(yǔ)

從緩解不同尺寸下圖像質(zhì)量評(píng)價(jià)模型表現(xiàn)差異較大的問(wèn)題出發(fā),提出了擴(kuò)大感受野的多尺度特征提取結(jié)構(gòu),充分利用深層特征與較淺層特征的信息交互,以自頂向下方向構(gòu)成多層次信息循環(huán)交互。在兩個(gè)尺寸的多個(gè)數(shù)據(jù)庫(kù)進(jìn)行了大量的實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,本文算法在不同尺寸圖像的性能表現(xiàn)良好,進(jìn)一步為多尺度和多層次信息交互深度網(wǎng)絡(luò)在視覺(jué)信號(hào)領(lǐng)域的應(yīng)用提供了支撐。

注:本文通訊作者為王同罕。

參考文獻(xiàn)

[1] 方玉明,眭相杰,鄢杰斌,等.無(wú)參考圖像質(zhì)量評(píng)價(jià)研究進(jìn)展[J].中國(guó)圖象圖形學(xué)報(bào),2021,26(2):265?286.

[2] 王成,劉坤,杜礫.全參考圖像質(zhì)量指標(biāo)評(píng)價(jià)分析[J].現(xiàn)代電子技術(shù),2023,46(21):39?43.

[3] SU S L, YAN Q S, ZHU Y, et al. Blindly assess image quality in the wild guided by a self?adaptive hyper network [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 3664?3673.

[4] YING Z Q, NIU H R, GUPTA P, et al. From patches to pictures (PaQ?2?PiQ): Mapping the perceptual space of picture quality [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 3572?3582.

[5] ZHOU W, JIANG Q P, WANG Y W, et al. Blind quality assessment for image superresolution using deep two?stream convolutional networks [J]. Information sciences, 2020, 528: 205?218.

[6] WEI X, LI J, ZHOU M, et al. Contrastive distortion?level learning?based no?reference image?quality assessment [J]. International journal of intelligent systems, 2022, 37(11): 8730?8746.

[7] SU S L, YAN Q S, ZHU Y, et al. From distortion manifold to perceptual quality: A data efficient blind image quality assessment approach [J]. Pattern recognition, 2023, 133: 109047.

[8] DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16x16 words: Transformers for image recognition at scale [EB/OL]. [2020?11?20]. https://arxiv.org/abs/2010.11929.

[9] LIU Z, HU H, LIN Y T, et al. Swin transformer V2: Scaling up capacity and resolution [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2022: 11999?12009.

[10] YOU J, KORHONEN J. Transformer for image quality assessment [C]// 2021 IEEE International Conference on Image Processing (ICIP). New York: IEEE, 2021: 1389?1393.

[11] KE J J, WANG Q F, WANG Y L, et al. MUSIQ: Multi?scale image quality transformer [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 5128?5137.

[12] LIU S T, HUANG D, WANG Y H. Receptive field block net for accurate and fast object detection [C]// Proceedings of the European Conference on Computer Vision (ECCV). New York: IEEE, 2018: 404?419.

[13] GALANTI T, WOLF L. On the modularity of hypernetworks [C]// Advances in Neural Information Processing Systems. [S.l.: s.n.], 2020: 10409?10419.

[14] HE K, FAN H, WU Y, et al. Momentum contrast for unsupervised visual representation learning [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 9726?9735.

[15] GRILL J B, STRUB F, ALTCHé F, et al. Bootstrap your own latent: A new approach to self?supervised learning [J]. Advances in neural information processing systems, 2020, 33: 21271?21284.

[16] MADHUSUDANA P C, BIRKBECK N, WANG Y L, et al. Image quality assessment using contrastive learning [J]. IEEE transactions on image processing, 2022, 31: 4149?4161.

[17] WU X W, SAHOO D, HOI S C H. Recent advances in deep learning for object detection [J]. Neurocomputing, 2020, 396: 39?64.

[18] HOSU V, LIN H H, SZIRANYI T, et al. KonIQ?10k: An ecologically valid database for deep learning of blind image quality assessment [J]. IEEE transactions on image processing, 2020, 29: 4041?4056.

[19] FANG Y M, ZHU H W, ZENG Y, et al. Perceptual quality assessment of smartphone photography [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 3674?3683.

[20] ZHENG H L, YANG H, FU J L, et al. Learning conditional knowledge distillation for degraded?reference image quality assessment [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 10222?10231.

Multi?scale and multi?level authentic distorted image quality assessment

based on RFB and hyper networks

ZHOU Huaibo1, 2, JIA Huizhen1, 2, WANG Tonghan1, 2

(1. School of Information Engineering, East China University of Technology, Nanchang 330013, China;

2. Jiangxi Engineering Laboratory on Radioactive Geoscience and Big Data Technology, East China University of Technology, Nanchang 330013, China)

Abstract: An innovative dual?branch feature extraction method is proposed to achieve efficient cross?scale learning in the domain of authentic distorted image quality assessment. The method undergoes a two?phase training process. In the first phase, cross?scale and cross?color?space image content perception feature is extracted by a self?supervised contrast learning approach. In the second phase, a strategy based on dilated receptive fields and hypernetworks is employed to establish a cyclic feature fusion, which circularly interacts and integrates multi?level feature information with cross?scale information to obtain image quality features closer to human perception. On the basis of the validation on the publicly available authentic distorted image databases, the experimental results demonstrate that the proposed algorithm has achieved superior performance in the quality assessment of authentic distorted images. The experimental results show that the proposed algorithm can realize more efficient cross?scale learning, which provides a good foundation for the application of multi?scale deep network of image processing.

Keywords: image quality assessment; no?reference; authentic distortion; cross?scale learning; multi?feature fusion; double branch feature extraction

DOI:10.16652/j.issn.1004?373x.2024.09.009

引用格式:周懷博,賈惠珍,王同罕.基于RFB和超網(wǎng)絡(luò)的跨尺度多層次真實(shí)失真圖像質(zhì)量評(píng)價(jià)方法[J].現(xiàn)代電子技術(shù),2024,47(9):47?52.

收稿日期:2024?01?07"""""""""" 修回日期:2024?01?26

基金項(xiàng)目:國(guó)家自然科學(xué)基金項(xiàng)目(62266001);國(guó)家自然科學(xué)

基金項(xiàng)目(62261001)

作者簡(jiǎn)介:周懷博(1999—),男,碩士,主要從事圖像處理、視覺(jué)信號(hào)的質(zhì)量評(píng)估方面的研究。

賈惠珍(1983—),女,博士,副教授,碩士生導(dǎo)師,主要從事計(jì)算機(jī)科學(xué)與技術(shù)專(zhuān)業(yè)、圖像處理、模式識(shí)別等方面的科研工作,主要研究方向?yàn)槟J阶R(shí)別、機(jī)器學(xué)習(xí)在圖像處理方面的理論和應(yīng)用研究。

王同罕(1984—),男,博士,副教授,碩士生導(dǎo)師,主要從事人工智能在圖像處理、模式識(shí)別、計(jì)算機(jī)視覺(jué)方面的理論和應(yīng)用研究,研究重點(diǎn)包括視覺(jué)信號(hào)(含各類(lèi)圖像,如自然圖像、醫(yī)學(xué)圖像、核影像和視頻等)的質(zhì)量評(píng)估、感知優(yōu)化及智能處理等。

主站蜘蛛池模板: 亚洲欧美日韩中文字幕一区二区三区 | AⅤ色综合久久天堂AV色综合| 精品综合久久久久久97超人该| Aⅴ无码专区在线观看| 国内精品伊人久久久久7777人| 久久夜色精品国产嚕嚕亚洲av| 亚洲V日韩V无码一区二区| 亚洲免费福利视频| 欧美日韩第三页| 亚洲AV无码精品无码久久蜜桃| 国产精品林美惠子在线观看| 中文字幕第4页| 欧美日韩激情| 精品亚洲国产成人AV| av在线手机播放| 国产成人高清精品免费软件| 久久国产精品电影| 亚洲福利视频一区二区| 国产色婷婷| 亚洲欧洲天堂色AV| 九色在线视频导航91| 青草娱乐极品免费视频| 伊人成色综合网| 久久精品国产一区二区小说| 99在线视频免费观看| 91丨九色丨首页在线播放 | 色综合日本| 无码国产伊人| 综合亚洲网| 日韩高清中文字幕| 亚洲视频在线青青| 无码中文字幕精品推荐| 成人一级黄色毛片| 欧美亚洲欧美| 中文字幕亚洲精品2页| 91免费观看视频| 日韩视频免费| 久久久噜噜噜| 亚洲精品不卡午夜精品| 最新国产精品第1页| 91在线丝袜| 国产99久久亚洲综合精品西瓜tv| 特级毛片免费视频| 国产麻豆va精品视频| 国产凹凸视频在线观看| 免费看久久精品99| 精品欧美视频| 亚洲欧美人成人让影院| V一区无码内射国产| 九色综合视频网| 国内精品小视频在线| 国产男人天堂| 午夜三级在线| 亚洲无码久久久久| 精品一区二区无码av| 国产91九色在线播放| 成人免费网站在线观看| 亚洲日韩精品无码专区97| 狼友av永久网站免费观看| 沈阳少妇高潮在线| 91精品在线视频观看| 国产swag在线观看| 国产精品视频观看裸模| 国产一区二区在线视频观看| 91福利免费| www.av男人.com| 久久精品中文字幕免费| 日韩欧美中文字幕在线韩免费| 九九视频免费看| 中文字幕日韩久久综合影院| 女人一级毛片| 国产精品亚洲va在线观看| 欧美综合一区二区三区| 久久大香伊蕉在人线观看热2| 国产精品一区在线麻豆| 欧美成人一级| 国产区网址| 国产小视频a在线观看| 成人91在线| 国产一级毛片yw| 99在线视频免费| 久久久精品无码一区二区三区|