999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于RFB和超網(wǎng)絡(luò)的跨尺度多層次真實(shí)失真圖像質(zhì)量評(píng)價(jià)方法

2024-09-14 00:00:00周懷博賈惠珍王同罕
現(xiàn)代電子技術(shù) 2024年9期

摘" 要: 為了能在真實(shí)失真圖像質(zhì)量領(lǐng)域?qū)崿F(xiàn)高效的跨尺度學(xué)習(xí),提出一種雙分支特征提取方法。首先,利用對(duì)比學(xué)習(xí)方法自監(jiān)督地提取跨尺度、跨顏色空間的圖像內(nèi)容感知特征;隨后,采用基于擴(kuò)張感受野和超網(wǎng)絡(luò)的策略,將多層次特征信息與跨尺度信息進(jìn)行循環(huán)交互融合,以獲取更貼近人類(lèi)感知的圖像質(zhì)量特征。基于公開(kāi)真實(shí)失真數(shù)據(jù)庫(kù)的實(shí)驗(yàn)結(jié)果表明,所提算法在真實(shí)失真圖像質(zhì)量評(píng)價(jià)上取得了優(yōu)越性能,而且,通過(guò)兩個(gè)尺度的實(shí)驗(yàn)結(jié)果展示了該算法實(shí)現(xiàn)了更高效的跨尺度學(xué)習(xí),從而為圖像多尺度深度網(wǎng)絡(luò)的應(yīng)用提供了較好基礎(chǔ)。

關(guān)鍵詞: 圖像質(zhì)量評(píng)價(jià); 無(wú)參考; 真實(shí)失真; 跨尺度學(xué)習(xí); 多特征融合; 雙分支特征提取

中圖分類(lèi)號(hào): TN911.73?34; TP391"""""""""""""""""" 文獻(xiàn)標(biāo)識(shí)碼: A""""""""""""""""" 文章編號(hào): 1004?373X(2024)09?0047?06

0" 引" 言

隨著數(shù)字圖像在各個(gè)領(lǐng)域的廣泛應(yīng)用,圖像質(zhì)量評(píng)價(jià)成為計(jì)算機(jī)視覺(jué)和圖像處理領(lǐng)域中備受關(guān)注的重要問(wèn)題之一。圖像質(zhì)量評(píng)價(jià)不僅在圖像采集、傳輸和存儲(chǔ)等環(huán)節(jié)中具有重要意義,而且在計(jì)算機(jī)視覺(jué)任務(wù)中起到了至關(guān)重要的作用,如圖像增強(qiáng)、目標(biāo)檢測(cè)和識(shí)別等。

傳統(tǒng)的圖像質(zhì)量評(píng)價(jià)方法主要基于均方差和結(jié)構(gòu)相似性指數(shù)等,這些方法在特點(diǎn)場(chǎng)景下能夠提供較好的性能,但在處理復(fù)雜場(chǎng)景和多樣性圖像時(shí)表現(xiàn)欠佳。尤其在人類(lèi)感知與計(jì)算機(jī)視覺(jué)之間存在較大差異的情況下,傳統(tǒng)方法的不足逐漸顯露出來(lái)。

近年來(lái),隨著深度學(xué)習(xí)技術(shù)的迅猛發(fā)展,基于深度學(xué)習(xí)的圖像質(zhì)量評(píng)價(jià)算法取得了顯著的成就。然而,現(xiàn)在的深度學(xué)習(xí)方法中基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neutral Network, CNN)的圖像質(zhì)量評(píng)價(jià)算法[1]對(duì)于全局信息的獲取有一定的局限性。在真實(shí)失真圖像質(zhì)量評(píng)價(jià)領(lǐng)域由于數(shù)據(jù)的特點(diǎn),通常無(wú)法獲得參考圖像,國(guó)內(nèi)外學(xué)者在圖像質(zhì)量評(píng)價(jià)領(lǐng)域進(jìn)行了大量的研究[1?2]。文獻(xiàn)[3]為了解決真實(shí)失真圖像質(zhì)量預(yù)測(cè)問(wèn)題提出了一種自適應(yīng)超網(wǎng)絡(luò)架構(gòu),將IQA的流程分為內(nèi)容理解、感知規(guī)則學(xué)習(xí)和質(zhì)量預(yù)測(cè)三個(gè)階段,通過(guò)超網(wǎng)絡(luò)自適應(yīng)地建立感知規(guī)則。文獻(xiàn)[4]為了解決當(dāng)時(shí)流行的NR?IQA方法在真實(shí)失真領(lǐng)域表現(xiàn)不佳的問(wèn)題,通過(guò)大量的真實(shí)失真圖像和補(bǔ)丁,使用圖像和貼片質(zhì)量評(píng)分建立全部與局部相互推斷的框架。文獻(xiàn)[5]提出采用雙流網(wǎng)絡(luò)結(jié)構(gòu)分別提取結(jié)構(gòu)退化中的特征和紋理分布變化的方式,并使用自適應(yīng)的裁剪方式來(lái)確保類(lèi)別平衡。文獻(xiàn)[6]通過(guò)多尺度的失真表示學(xué)習(xí),提取真實(shí)失真圖像中樣本的分布特征,并基于失真水平預(yù)測(cè)模糊性。文獻(xiàn)[7]引入雙分支網(wǎng)絡(luò)提取低級(jí)失真和高級(jí)語(yǔ)義,增強(qiáng)了模型的泛化能力。

文獻(xiàn)[8?9]由于直接的全局關(guān)系建模,在擴(kuò)大感受野和上下文信息獲取方面具有天然優(yōu)勢(shì)。為了更全面地考慮圖像的全局特征,近期基于Transformer的圖像質(zhì)量評(píng)價(jià)方法越來(lái)越多。Transformer模型通過(guò)基于自注意力機(jī)制能夠捕捉圖像中不同區(qū)域之間的長(zhǎng)距離依賴(lài)關(guān)系,使得模型在全局范圍內(nèi)能夠更好地理解圖像特征。但該方法需要大量的數(shù)據(jù),計(jì)算量通常更大。文獻(xiàn)[10]提出了在卷積神經(jīng)網(wǎng)絡(luò)提取的特征圖后使用淺層Transformer編碼器的體系結(jié)構(gòu),能處理任意分辨率。文獻(xiàn)[11]通過(guò)多尺度的圖像表示捕捉不用粒度的圖像質(zhì)量。

更為關(guān)鍵的是,現(xiàn)有方法不能很好解決訓(xùn)練和測(cè)試圖像尺寸不一致而導(dǎo)致的性能差異問(wèn)題。在這一背景下,本文提出了一種基于RFB[12]和超網(wǎng)絡(luò)[13]的跨尺度多層次真實(shí)失真圖像質(zhì)量評(píng)價(jià)算法,通過(guò)自監(jiān)督學(xué)習(xí)實(shí)現(xiàn)跨尺度的內(nèi)容理解和擴(kuò)大感受野,實(shí)現(xiàn)對(duì)全局信息更為充分的理解,使得模型在特征提取方面更具有泛化性,實(shí)現(xiàn)模型自適應(yīng)輸入尺寸,并在不同尺度上更為準(zhǔn)確地評(píng)估圖像質(zhì)量。本文算法通過(guò)在訓(xùn)練過(guò)程中引入自監(jiān)督學(xué)習(xí)的雙分支特征提取網(wǎng)絡(luò)并凍結(jié)特征提取網(wǎng)絡(luò)的策略,進(jìn)一步提升了模型的泛化性。

1" 擴(kuò)大感受野的特征循環(huán)融合圖像質(zhì)量評(píng)價(jià)方法

本文算法在訓(xùn)練階段使用雙分支的特征提取網(wǎng)絡(luò),其中一個(gè)分支是在ImageNet數(shù)據(jù)庫(kù)上訓(xùn)練提取圖像分類(lèi)特征的ResNet50網(wǎng)絡(luò),另一個(gè)分支是在AVA數(shù)據(jù)庫(kù)訓(xùn)練提取尺度不變的ResNet50網(wǎng)絡(luò)。

1.1" 基于對(duì)比學(xué)習(xí)的自監(jiān)督圖像特征提取輔助任務(wù)

訓(xùn)練可靠的深度學(xué)習(xí)模型需要海量數(shù)據(jù),但在圖像質(zhì)量評(píng)價(jià)中現(xiàn)有數(shù)據(jù)庫(kù)無(wú)法覆蓋所有失真情況。本文采用對(duì)比學(xué)習(xí)的方法[14?15]是為不同尺度圖像建立相同的內(nèi)容感知,訓(xùn)練流程如圖1所示。這里采用顏色空間變換的方法來(lái)自于CONTRIQE[16],采用不同的顏色空間提取互補(bǔ)的質(zhì)量信息,目的是確保提取的尺度不變特征不受顏色變換的影響。

1.2" 基于RFB的多尺度圖像質(zhì)量特征提取結(jié)構(gòu)

在目標(biāo)識(shí)別任務(wù)中,感受野的大小通常是一個(gè)關(guān)鍵因素[17],在圖像質(zhì)量評(píng)價(jià)任務(wù)中更為重要。由于圖像質(zhì)量的評(píng)價(jià)涉及到主觀感受,而人的視覺(jué)系統(tǒng)對(duì)于全局信息和局部信息的感知都是敏感的,因此在這一任務(wù)中更強(qiáng)調(diào)全局和局部的綜合感知。近年來(lái),Transformer的興起帶動(dòng)了許多基于Transformer的圖像質(zhì)量評(píng)價(jià)工作。Transformer對(duì)比卷積神經(jīng)網(wǎng)絡(luò)的長(zhǎng)處之一是實(shí)現(xiàn)了全局感受野,但是引入Transformer的圖像質(zhì)量評(píng)級(jí)算法大大增加了模型的復(fù)雜度,輸入圖像的尺寸也得到了限制。本文為實(shí)現(xiàn)更大的感受野,如圖2所示,在特征圖之后提出了引入目標(biāo)檢測(cè)算法中RFB模擬人類(lèi)視覺(jué)感受野的結(jié)構(gòu)。通過(guò)實(shí)現(xiàn)擴(kuò)大模型的感受野,更好地提取圖像中不同尺度的結(jié)構(gòu)和紋理信息,更加適應(yīng)不同尺度的圖像。

1.3" 基于超網(wǎng)絡(luò)的多層次特征流循環(huán)融合模塊

受HyperIQA的啟發(fā),建立自適應(yīng)內(nèi)容感知的機(jī)制有助于提高模型的感知質(zhì)量能力。本文使用超網(wǎng)絡(luò)的目的是生成全連接層中的參數(shù),實(shí)現(xiàn)動(dòng)態(tài)感知多層次特征。本文在基于超網(wǎng)絡(luò)的自適應(yīng)內(nèi)容感知的基礎(chǔ)上提出了特征循環(huán)融合模塊,結(jié)構(gòu)如圖3所示。

在這個(gè)循環(huán)結(jié)構(gòu)中,實(shí)現(xiàn)了尺度不變信息以自頂向下方向與多層次信息融合。通過(guò)這種方式融合的圖像特征將深層模型信息向淺層模型信息傳遞,建立了更好的上下文信息和語(yǔ)義理解,雙分支的特征信息交互是由于雙分支網(wǎng)絡(luò)通常專(zhuān)注于不同方面的特征信息而建立的,本文分別提取圖像局部特征和全局特征的分支,通過(guò)有效地平衡局部和全部信息,從而更加全面地評(píng)估圖像質(zhì)量。

2" 實(shí)驗(yàn)結(jié)果與分析

2.1" 數(shù)據(jù)庫(kù)介紹

實(shí)驗(yàn)中采用了3個(gè)圖像質(zhì)量數(shù)據(jù)庫(kù),包括2個(gè)真實(shí)失真圖像質(zhì)量評(píng)價(jià)數(shù)據(jù)庫(kù):KonIQ[18]、SPAQ[19],用于訓(xùn)練和測(cè)試圖像質(zhì)量評(píng)估網(wǎng)絡(luò);1個(gè)美學(xué)質(zhì)量評(píng)價(jià)數(shù)據(jù)庫(kù)AVA,用于自監(jiān)督訓(xùn)練提取尺度不變特征。

2.2" 實(shí)驗(yàn)訓(xùn)練參數(shù)與評(píng)估指標(biāo)

本文使用在AVA數(shù)據(jù)庫(kù)上訓(xùn)練的基于對(duì)比學(xué)習(xí)的內(nèi)容感知特征網(wǎng)絡(luò),使用在ImageNet1k上預(yù)訓(xùn)練的ResNet的網(wǎng)絡(luò)權(quán)重。在特征提取網(wǎng)絡(luò)訓(xùn)練階段將訓(xùn)練集、測(cè)試集的比例設(shè)為8∶2,訓(xùn)練輪次為30輪,最后選擇在測(cè)試集上表現(xiàn)最好的一次權(quán)重參與后一階段的實(shí)驗(yàn)。基于對(duì)比學(xué)習(xí)的內(nèi)容感知網(wǎng)絡(luò)采用余弦相似度作為損失函數(shù),表達(dá)式為:

[cosθ=i=1nxi×yii=1nxi2×i=1nyi2] (1)

式中:[x]、[y]代表圖像提取后的特征流;[n]代表特征流的維度;[i]代表維度索引。

本文使用KonIQ、SPAQ數(shù)據(jù)庫(kù)作為評(píng)估數(shù)據(jù)庫(kù)。在評(píng)估數(shù)據(jù)庫(kù)中,將數(shù)據(jù)庫(kù)劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集的比例為7∶1∶2。為了在比較的過(guò)程中保持客觀性,本文復(fù)制了對(duì)比模型的各自作者在文獻(xiàn)中展示的結(jié)果作為最終結(jié)果。本文采用2個(gè)目前絕大多數(shù)學(xué)者采用的無(wú)參考圖像質(zhì)量模型預(yù)測(cè)性能評(píng)價(jià)指標(biāo)[20]:Spearman秩序相關(guān)系數(shù)(SROCC)和Pearson線(xiàn)性相關(guān)系數(shù)(PLCC)。本文進(jìn)行了10次實(shí)驗(yàn),并選取實(shí)驗(yàn)結(jié)果中Spearman秩序相關(guān)系數(shù)和Pearson線(xiàn)性相關(guān)系數(shù)的中值。在預(yù)測(cè)圖像質(zhì)量分?jǐn)?shù)時(shí),采用平均絕對(duì)誤差(MAE)損失函數(shù)作為訓(xùn)練時(shí)的損失函數(shù),表達(dá)式為:

[Lossscore=1ni=1nyi-ypi] """ (2)

式中:[yi]為樣本平均主觀得分標(biāo)簽;[ypi]為訓(xùn)練回歸網(wǎng)絡(luò)時(shí)的預(yù)測(cè)平均主觀分?jǐn)?shù);[n]為樣本數(shù);[i]代表樣本的索引。

2.3" 與人類(lèi)判斷的相關(guān)性

表1比較了在真實(shí)數(shù)據(jù)庫(kù)不同模型的性能。從表中看出:與SOTA模型相比,在KonIQ數(shù)據(jù)庫(kù)上,SROCC提升了0.4%,PLCC提升了1%;在SPAQ數(shù)據(jù)庫(kù)上,SROCC與之前SOTA模型持平。值得注意的是,CONTRIQE和本文算法凍結(jié)了特征提取網(wǎng)絡(luò),使得這部分網(wǎng)絡(luò)權(quán)重在訓(xùn)練階段不再更新,從而保留了在預(yù)訓(xùn)練任務(wù)中學(xué)習(xí)到的有用特征,有助于將先前學(xué)到的知識(shí)遷移到新的圖像質(zhì)量評(píng)價(jià)任務(wù)中,利用學(xué)習(xí)到的通用特征實(shí)現(xiàn)更好的泛化能力。圖4展示了所提算法在KonIQ和SPAQ數(shù)據(jù)庫(kù)上預(yù)測(cè)效果的散點(diǎn)圖和最小二乘法的擬合直線(xiàn)。

預(yù)測(cè)結(jié)果散點(diǎn)圖

2.4 "不同尺度下實(shí)驗(yàn)結(jié)果

表2、表3中比較了在真實(shí)數(shù)據(jù)庫(kù)不同尺寸訓(xùn)練下不同模型的性能。從表中可以看出,過(guò)去的方法在尺寸固定的情況下,對(duì)于與訓(xùn)練尺寸相同的輸出圖像尺寸情況下,模型性能表現(xiàn)較好;在輸出圖像尺寸與訓(xùn)練圖像尺寸不一致時(shí),模型性能表現(xiàn)不一致,通常表現(xiàn)更差。表中數(shù)據(jù)顯示,本文所提算法在測(cè)試圖像尺寸與訓(xùn)練圖像尺寸不一樣時(shí),模型性能表現(xiàn)差距更小,緩解了模型在訓(xùn)練和測(cè)速圖像尺寸不一致時(shí)效果不佳的問(wèn)題。在KonIQ數(shù)據(jù)庫(kù)上,在兩個(gè)尺寸下性能對(duì)比TRIQ模型都有提升,以1 024×768尺寸訓(xùn)練并以512×384尺寸測(cè)試時(shí),SROCC提升4.6%,PLCC提升5.5%。

圖5展示本文算法在KonIQ數(shù)據(jù)庫(kù)上在512×384和1 024×768兩個(gè)尺寸上預(yù)測(cè)效果的散點(diǎn)圖和擬合直線(xiàn)。

2.5" 消融實(shí)驗(yàn)

為了進(jìn)一步驗(yàn)證所提方法的有效性,在KonIQ和SPAQ數(shù)據(jù)庫(kù)上進(jìn)行消融研究,表4為消融結(jié)果。

可以看到,加入跨尺度特征形成雙分支網(wǎng)絡(luò)對(duì)比原網(wǎng)絡(luò)能得到更好的性能,并且在加入本文提出的循環(huán)多層次特征融合對(duì)比多層次特征融合也有更好的效果。

3" 結(jié)" 語(yǔ)

從緩解不同尺寸下圖像質(zhì)量評(píng)價(jià)模型表現(xiàn)差異較大的問(wèn)題出發(fā),提出了擴(kuò)大感受野的多尺度特征提取結(jié)構(gòu),充分利用深層特征與較淺層特征的信息交互,以自頂向下方向構(gòu)成多層次信息循環(huán)交互。在兩個(gè)尺寸的多個(gè)數(shù)據(jù)庫(kù)進(jìn)行了大量的實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,本文算法在不同尺寸圖像的性能表現(xiàn)良好,進(jìn)一步為多尺度和多層次信息交互深度網(wǎng)絡(luò)在視覺(jué)信號(hào)領(lǐng)域的應(yīng)用提供了支撐。

注:本文通訊作者為王同罕。

參考文獻(xiàn)

[1] 方玉明,眭相杰,鄢杰斌,等.無(wú)參考圖像質(zhì)量評(píng)價(jià)研究進(jìn)展[J].中國(guó)圖象圖形學(xué)報(bào),2021,26(2):265?286.

[2] 王成,劉坤,杜礫.全參考圖像質(zhì)量指標(biāo)評(píng)價(jià)分析[J].現(xiàn)代電子技術(shù),2023,46(21):39?43.

[3] SU S L, YAN Q S, ZHU Y, et al. Blindly assess image quality in the wild guided by a self?adaptive hyper network [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 3664?3673.

[4] YING Z Q, NIU H R, GUPTA P, et al. From patches to pictures (PaQ?2?PiQ): Mapping the perceptual space of picture quality [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 3572?3582.

[5] ZHOU W, JIANG Q P, WANG Y W, et al. Blind quality assessment for image superresolution using deep two?stream convolutional networks [J]. Information sciences, 2020, 528: 205?218.

[6] WEI X, LI J, ZHOU M, et al. Contrastive distortion?level learning?based no?reference image?quality assessment [J]. International journal of intelligent systems, 2022, 37(11): 8730?8746.

[7] SU S L, YAN Q S, ZHU Y, et al. From distortion manifold to perceptual quality: A data efficient blind image quality assessment approach [J]. Pattern recognition, 2023, 133: 109047.

[8] DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16x16 words: Transformers for image recognition at scale [EB/OL]. [2020?11?20]. https://arxiv.org/abs/2010.11929.

[9] LIU Z, HU H, LIN Y T, et al. Swin transformer V2: Scaling up capacity and resolution [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2022: 11999?12009.

[10] YOU J, KORHONEN J. Transformer for image quality assessment [C]// 2021 IEEE International Conference on Image Processing (ICIP). New York: IEEE, 2021: 1389?1393.

[11] KE J J, WANG Q F, WANG Y L, et al. MUSIQ: Multi?scale image quality transformer [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 5128?5137.

[12] LIU S T, HUANG D, WANG Y H. Receptive field block net for accurate and fast object detection [C]// Proceedings of the European Conference on Computer Vision (ECCV). New York: IEEE, 2018: 404?419.

[13] GALANTI T, WOLF L. On the modularity of hypernetworks [C]// Advances in Neural Information Processing Systems. [S.l.: s.n.], 2020: 10409?10419.

[14] HE K, FAN H, WU Y, et al. Momentum contrast for unsupervised visual representation learning [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 9726?9735.

[15] GRILL J B, STRUB F, ALTCHé F, et al. Bootstrap your own latent: A new approach to self?supervised learning [J]. Advances in neural information processing systems, 2020, 33: 21271?21284.

[16] MADHUSUDANA P C, BIRKBECK N, WANG Y L, et al. Image quality assessment using contrastive learning [J]. IEEE transactions on image processing, 2022, 31: 4149?4161.

[17] WU X W, SAHOO D, HOI S C H. Recent advances in deep learning for object detection [J]. Neurocomputing, 2020, 396: 39?64.

[18] HOSU V, LIN H H, SZIRANYI T, et al. KonIQ?10k: An ecologically valid database for deep learning of blind image quality assessment [J]. IEEE transactions on image processing, 2020, 29: 4041?4056.

[19] FANG Y M, ZHU H W, ZENG Y, et al. Perceptual quality assessment of smartphone photography [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 3674?3683.

[20] ZHENG H L, YANG H, FU J L, et al. Learning conditional knowledge distillation for degraded?reference image quality assessment [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 10222?10231.

Multi?scale and multi?level authentic distorted image quality assessment

based on RFB and hyper networks

ZHOU Huaibo1, 2, JIA Huizhen1, 2, WANG Tonghan1, 2

(1. School of Information Engineering, East China University of Technology, Nanchang 330013, China;

2. Jiangxi Engineering Laboratory on Radioactive Geoscience and Big Data Technology, East China University of Technology, Nanchang 330013, China)

Abstract: An innovative dual?branch feature extraction method is proposed to achieve efficient cross?scale learning in the domain of authentic distorted image quality assessment. The method undergoes a two?phase training process. In the first phase, cross?scale and cross?color?space image content perception feature is extracted by a self?supervised contrast learning approach. In the second phase, a strategy based on dilated receptive fields and hypernetworks is employed to establish a cyclic feature fusion, which circularly interacts and integrates multi?level feature information with cross?scale information to obtain image quality features closer to human perception. On the basis of the validation on the publicly available authentic distorted image databases, the experimental results demonstrate that the proposed algorithm has achieved superior performance in the quality assessment of authentic distorted images. The experimental results show that the proposed algorithm can realize more efficient cross?scale learning, which provides a good foundation for the application of multi?scale deep network of image processing.

Keywords: image quality assessment; no?reference; authentic distortion; cross?scale learning; multi?feature fusion; double branch feature extraction

DOI:10.16652/j.issn.1004?373x.2024.09.009

引用格式:周懷博,賈惠珍,王同罕.基于RFB和超網(wǎng)絡(luò)的跨尺度多層次真實(shí)失真圖像質(zhì)量評(píng)價(jià)方法[J].現(xiàn)代電子技術(shù),2024,47(9):47?52.

收稿日期:2024?01?07"""""""""" 修回日期:2024?01?26

基金項(xiàng)目:國(guó)家自然科學(xué)基金項(xiàng)目(62266001);國(guó)家自然科學(xué)

基金項(xiàng)目(62261001)

作者簡(jiǎn)介:周懷博(1999—),男,碩士,主要從事圖像處理、視覺(jué)信號(hào)的質(zhì)量評(píng)估方面的研究。

賈惠珍(1983—),女,博士,副教授,碩士生導(dǎo)師,主要從事計(jì)算機(jī)科學(xué)與技術(shù)專(zhuān)業(yè)、圖像處理、模式識(shí)別等方面的科研工作,主要研究方向?yàn)槟J阶R(shí)別、機(jī)器學(xué)習(xí)在圖像處理方面的理論和應(yīng)用研究。

王同罕(1984—),男,博士,副教授,碩士生導(dǎo)師,主要從事人工智能在圖像處理、模式識(shí)別、計(jì)算機(jī)視覺(jué)方面的理論和應(yīng)用研究,研究重點(diǎn)包括視覺(jué)信號(hào)(含各類(lèi)圖像,如自然圖像、醫(yī)學(xué)圖像、核影像和視頻等)的質(zhì)量評(píng)估、感知優(yōu)化及智能處理等。

主站蜘蛛池模板: 特级毛片8级毛片免费观看| 亚洲天堂日本| 免费无码AV片在线观看中文| 欧美性久久久久| 五月婷婷丁香色| 美女内射视频WWW网站午夜| 国产成人综合久久精品下载| 国产xx在线观看| 国产三级精品三级在线观看| 亚洲中文在线看视频一区| 国产欧美日韩18| 午夜一区二区三区| 天天干天天色综合网| 国产成人免费| 91色综合综合热五月激情| 在线观看欧美国产| 四虎永久免费地址在线网站| 国内毛片视频| 国产综合另类小说色区色噜噜| 亚洲AV无码不卡无码| 欧美精品另类| 亚洲永久精品ww47国产| 97超爽成人免费视频在线播放| 亚洲国产精品日韩av专区| 永久免费av网站可以直接看的| 51国产偷自视频区视频手机观看| 亚洲无码高清一区二区| 国产高潮视频在线观看| 亚洲bt欧美bt精品| 中文国产成人久久精品小说| 免费一级毛片在线播放傲雪网| 2019国产在线| 国产麻豆91网在线看| 国产黄视频网站| 久久国产精品娇妻素人| 青青草原国产| 国产网友愉拍精品| 亚洲精品日产AⅤ| 亚洲系列无码专区偷窥无码| 伊人婷婷色香五月综合缴缴情| 婷婷六月激情综合一区| 欧美日韩国产在线播放| 日韩色图区| 在线欧美日韩国产| 91丝袜在线观看| 试看120秒男女啪啪免费| 久久香蕉国产线看观| 欧美成人在线免费| 91精品网站| 精品久久综合1区2区3区激情| 毛片视频网| 日韩国产无码一区| 免费无遮挡AV| 97国产一区二区精品久久呦| 国产美女91呻吟求| 亚洲色欲色欲www网| 亚洲手机在线| 97视频免费看| 婷婷午夜天| 亚洲三级影院| 三区在线视频| 91视频日本| 亚洲天堂成人在线观看| 激情综合网址| 精品亚洲欧美中文字幕在线看| 日本一区二区三区精品国产| 三级毛片在线播放| 三上悠亚在线精品二区| 婷婷中文在线| 女同国产精品一区二区| 亚洲第一av网站| 亚洲一区二区三区国产精华液| 高清国产va日韩亚洲免费午夜电影| 成人看片欧美一区二区| 国产Av无码精品色午夜| 亚洲男人天堂久久| 99久久精品国产麻豆婷婷| 国内精品视频| 久久激情影院| 亚洲69视频| 99久久国产综合精品2020| 中文字幕第4页|