999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于感知偏序模型的圖標(biāo)視覺復(fù)雜度研究

2023-02-28 16:10:32陸宏菊
關(guān)鍵詞:特征用戶評(píng)價(jià)

陸宏菊,崔 嘉

(1 廣州城市理工學(xué)院管理學(xué)院,廣州 510850; 2 華南理工大學(xué)設(shè)計(jì)學(xué)院,廣州 510006)

0 引 言

視覺復(fù)雜度計(jì)算作為重要依據(jù)用來檢索和評(píng)價(jià)圖像和圖案,如可視化檢索、分類、審美評(píng)估等[1]。當(dāng)前復(fù)雜度評(píng)估主要包括三方面研究: 描述程度、創(chuàng)造程度和組織程度[2]。 然而,由于獲取和處理困難,缺少感知特征的考慮導(dǎo)致其預(yù)測結(jié)果與人工評(píng)價(jià)仍有較大的差異。

對(duì)視覺復(fù)雜度的排序方法可以分為兩大類: 基于偏好和基于過程的排序[3]。 前者主要對(duì)用戶數(shù)據(jù)采用概率模型進(jìn)行統(tǒng)計(jì)分析,但統(tǒng)計(jì)結(jié)果往往會(huì)覆蓋用戶數(shù)據(jù)的敏感性; 后者采用特定的評(píng)價(jià)指標(biāo)產(chǎn)生評(píng)估序列,卻無法體現(xiàn)視覺復(fù)雜度的動(dòng)態(tài)波動(dòng)特點(diǎn)。 近年來,戴凌宸等學(xué)者[4]通過計(jì)算4 種客觀評(píng)價(jià)參數(shù),采用回歸模型對(duì)圖標(biāo)形狀復(fù)雜度進(jìn)行評(píng)價(jià),獲得了較為準(zhǔn)確的結(jié)果(接近80%的人工評(píng)價(jià))。 基于學(xué)習(xí)策略的不同評(píng)估模型也隨之出現(xiàn),例如基于結(jié)構(gòu)分裂Patch[5]、Inferring Human Attention 模型[6]和深度學(xué)習(xí)算法[7]。 然而,當(dāng)對(duì)比圖像具有高度相似性時(shí),由于用戶的感知因素常優(yōu)于客觀特征起主導(dǎo)作用,上述方法的評(píng)價(jià)效果往往波動(dòng)較大。 因此,具有沖突性、動(dòng)蕩性和不穩(wěn)定性的用戶感知數(shù)據(jù)[8]的表示和建模便成為了解決該問題的關(guān)鍵。

針對(duì)上述問題,提出新的視覺復(fù)雜度評(píng)估模型,與文獻(xiàn)[4]所不同,本文面向具有豐富語義和符號(hào)含義的圖標(biāo)圖案進(jìn)行研究。 研究假設(shè)存在目標(biāo)復(fù)雜度序列,既對(duì)用戶數(shù)據(jù)具有敏感性,又能夠發(fā)掘復(fù)雜度邏輯。 用戶數(shù)據(jù)的敏感性能夠保證在統(tǒng)計(jì)數(shù)據(jù)相同的前提下,不同的用戶數(shù)據(jù)可以產(chǎn)生不同的感知特征表示,從而提高預(yù)測的精準(zhǔn)度; 發(fā)掘復(fù)雜度邏輯是主觀感知模型建立的基礎(chǔ),能夠使得模型更加符合用戶評(píng)價(jià)方式。 與傳統(tǒng)統(tǒng)計(jì)概率模型不同,研究提出基于比較的偏序關(guān)系(A >B) 表示用戶感知信息。 偏序?qū)Φ男问侥軌蛴行П3钟脩魯?shù)據(jù)的敏感度。 針對(duì)用戶數(shù)據(jù)普遍存在的矛盾沖突現(xiàn)象,本文提出可信度預(yù)處理,根據(jù)用戶數(shù)據(jù)得到可信度閾值,從而使得沖突程度為最終預(yù)測結(jié)果做出積極貢獻(xiàn)。 對(duì)于偏序關(guān)系采用對(duì)象相異距離最大化地改進(jìn)SVM 模型進(jìn)行訓(xùn)練,獲得用戶感知模型。 本文首次在視覺復(fù)雜度模型預(yù)測中引入用戶感知因素以提高預(yù)測的準(zhǔn)確度。

本文主要貢獻(xiàn)包括:

(1)提出基于二比較偏序關(guān)系的用戶感知特征表示方法。 主觀數(shù)據(jù)的表示對(duì)于用戶感知模型的建立至關(guān)重要,本文提出”偏序?qū)Α钡姆绞侥軌蛉诤媳容^雙方的多模態(tài)特征。 用戶的偏序關(guān)系可以通過啟發(fā)式算法進(jìn)行訓(xùn)練生成用戶感知模型。

(2)基于群體智能的用戶感知計(jì)算模型的提出可以廣泛應(yīng)用于視覺比較和智能設(shè)計(jì)領(lǐng)域。 用戶感知評(píng)價(jià)在設(shè)計(jì)、生成領(lǐng)域的決策過程中一直占有重要地位,但由于難于獲取和表示無法在優(yōu)化過程中進(jìn)行計(jì)算。 本文針對(duì)具有感知特點(diǎn)的視覺自動(dòng)評(píng)估機(jī)制提出的評(píng)估框架適用于領(lǐng)域其他研究,具有較好的推廣性和普適性。

1 相關(guān)工作

2017年,Zhang 等學(xué)者[4,9]提出通過回歸算法構(gòu)建形狀復(fù)雜性的計(jì)算模型,是近年來該領(lǐng)域的代表作之一。 其中,文獻(xiàn)[6]提出了對(duì)復(fù)雜度表示的4個(gè)特征:香濃信息熵、加權(quán)旋轉(zhuǎn)角度熵、非圓性和鄰角平均差。 訓(xùn)練標(biāo)簽來自于用戶數(shù)據(jù)的統(tǒng)計(jì)結(jié)果。通過采用Pearson 和Kendall 相關(guān)性系數(shù),模型能夠解釋80%的用戶評(píng)價(jià)行為。 但該方法僅用簡單(相似度不高)的圖標(biāo)圖案進(jìn)行驗(yàn)證,因而在決策過程中用戶感知因素并沒有明確的體現(xiàn)。

相對(duì)于分類任務(wù),能夠得到目標(biāo)序列的排序模型[10]更加接近真實(shí)的視覺復(fù)雜度評(píng)價(jià)。 SVMRank 算法[11]能夠基于圖像數(shù)據(jù)訓(xùn)練模型對(duì)于類內(nèi)/間物體的可視化屬性進(jìn)行排序,例如:鞋子、自然風(fēng)景和人臉表情。 類內(nèi)物體的屬性表示為S集,類間物體的屬性表示為O集。 優(yōu)化過程的損失函數(shù)實(shí)現(xiàn)類間物體差距大,且類內(nèi)物體差距小的約束。 SVMRank 算法及其改進(jìn)的DeepRank 算法[12]雖然對(duì)于類間排序能夠獲得較好的準(zhǔn)確度,但對(duì)高度相似的類內(nèi)數(shù)據(jù)的排序效果仍舊有待提升。 這主要因?yàn)樵谙嗨频念悆?nèi)數(shù)據(jù)排序過程中,感知因素將占據(jù)主導(dǎo)地位。

受以上方法的啟發(fā),本文提出能夠模擬人類決策過程的視覺復(fù)雜度計(jì)算模型。

2 感知特征表示

主/客觀特征都能夠?qū)σ曈X復(fù)雜度進(jìn)行表示。 對(duì)于差異明顯的圖標(biāo)復(fù)雜度評(píng)估,客觀因素占據(jù)主導(dǎo)地位[1,3],如圖1(a)所示。 本文的主要研究對(duì)象是面向具有高度相似性圖標(biāo)在評(píng)估過程中起到關(guān)鍵作用的感知因素。 中國大學(xué)圖標(biāo)具有豐富的視覺元素和隱含的符號(hào)化語義:在有限的設(shè)計(jì)空間內(nèi),不同的圖形、顏色及其組合表達(dá)了不同的設(shè)計(jì)理念和語義傳達(dá),既具有相似性,又具有辨別度,非常適合用來進(jìn)行主觀因素占主導(dǎo)的決策研究,如圖1(b)所示。 如何對(duì)具有感知特征和高度相似的圖形圖像進(jìn)行視覺復(fù)雜度評(píng)估是當(dāng)前計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)研究領(lǐng)域的挑戰(zhàn)。本文提出二元組偏序關(guān)系表示用戶的感知評(píng)價(jià)結(jié)果;可信度預(yù)處理函數(shù)能有效地提高訓(xùn)練模型的魯棒性,如圖2 所示。 尤其是在主觀評(píng)價(jià)存在沖突的時(shí)候,通過引入多模態(tài)特征組對(duì)目標(biāo)物體進(jìn)行客觀描述,能夠盡可能全面地獲取比較對(duì)象的感知特征。 根據(jù)收集到的數(shù)據(jù)量,本文采用基于改進(jìn)SVM 模型模擬用戶主觀感知進(jìn)行復(fù)雜度預(yù)測。

圖1 不同相似度的圖標(biāo)Fig. 1 Logos with different similarities

圖2 本文算法框架Fig. 2 Research framework

2.1 偏序關(guān)系表示感知特征

對(duì)于人工智能最大的收獲在于將人類智慧和機(jī)器智能相結(jié)合而產(chǎn)生的群智能[13]。 傳統(tǒng)研究中,當(dāng)需要用戶感知數(shù)據(jù)時(shí),用戶調(diào)研成為最常采用的研究手段。 傳統(tǒng)的用戶數(shù)據(jù)通過基于累積得分的概率統(tǒng)計(jì)模型進(jìn)行表示。 這種模型在啟發(fā)式學(xué)習(xí)過程中具有數(shù)據(jù)不敏感的問題,例如,根據(jù)眾數(shù)原理,A數(shù)據(jù)得9 分和得5.5 分,都表示統(tǒng)計(jì)優(yōu)勢結(jié)果。 由于感知判斷的不穩(wěn)定性和難以對(duì)所有采樣進(jìn)行完整測試(工作量大),統(tǒng)計(jì)概率模型僅能表示部分的通用概率分布且不能體現(xiàn)其中個(gè)體的相似度關(guān)系。 例如,如果A(強(qiáng)烈喜歡,+2),B(普通喜歡,+1),C(不喜歡,+0),那么對(duì)于ACC和BBC的統(tǒng)計(jì)模型會(huì)得到相同的結(jié)果,而A所代表的強(qiáng)烈偏好的感知因素?zé)o法在數(shù)據(jù)模型中得到體現(xiàn)。 數(shù)據(jù)的敏感性對(duì)于智能算法至關(guān)重要,因此提出具有數(shù)據(jù)敏感的用戶感知表示法成為需要解決的首要問題。

在小數(shù)據(jù)量(n≤30) 情況下,對(duì)用戶進(jìn)行全面的測試得到基于用戶數(shù)據(jù)的目標(biāo)序列仍是具有挑戰(zhàn)的。 根據(jù)心理學(xué)原理[14],人們在進(jìn)行選擇時(shí),二選擇往往會(huì)比多選擇更容易做出決策。 因此本文采用二選擇的方式進(jìn)行用戶感知數(shù)據(jù)的收集,即用戶只需要在2 個(gè)圖標(biāo)中根據(jù)感受進(jìn)行相應(yīng)選擇。 其比較的結(jié)果通過偏序關(guān)系進(jìn)行表示:大于關(guān)系O集(A >B) 和近似關(guān)系U集(A ~B)。 用戶測試界面如圖3所示。

圖3 用戶數(shù)據(jù)收集界面Fig. 3 User interface for data collection

對(duì)于偏序?qū) >B和A ~B,可以通過式(1)和式(2) 進(jìn)行表示:

其中,xi和xj表示2 個(gè)目標(biāo)圖標(biāo)的特征向量;?(·) 為主觀評(píng)價(jià)函數(shù);‘>’ 和‘=’ 為用戶根據(jù)感知指定的偏序關(guān)系。

這樣,通過用戶調(diào)研收集到的用戶感知數(shù)據(jù)可以表示為N不等式關(guān)系。 本文提出目標(biāo)函數(shù)可以表示為:

且滿足如下約束:

2.2 數(shù)據(jù)可信度處理

在相似的視覺復(fù)雜度評(píng)價(jià)中,用戶的感知因素將起主導(dǎo)作用。 但是,由于主觀感知的不確定性,不可避免地將會(huì)產(chǎn)生一定的沖突結(jié)論。 例如,對(duì)于圖標(biāo)A和B,有人認(rèn)為A比B復(fù)雜,有人認(rèn)為B比A復(fù)雜,還有人會(huì)認(rèn)為A與B的復(fù)雜度差不多。 在傳統(tǒng)的統(tǒng)計(jì)概率模型下,只需要對(duì)評(píng)價(jià)數(shù)值進(jìn)行疊加而無需關(guān)注結(jié)論的沖突程度,即,最終用戶數(shù)據(jù)統(tǒng)計(jì)結(jié)果為0-1 分類。 但本文研究引入用戶的感知差異的考慮,在訓(xùn)練過程中加入感知數(shù)據(jù)的沖突現(xiàn)象建模過程。 研究假設(shè),感知因素的不穩(wěn)定性會(huì)導(dǎo)致偏序關(guān)系存在多樣性,而每一對(duì)偏序關(guān)系都將對(duì)最終模型的建立做出相應(yīng)的貢獻(xiàn)。 為了表示數(shù)據(jù)的多樣性,本文提出可信度約束函數(shù),將用戶的主觀數(shù)據(jù)根據(jù)沖突情況映射到連續(xù)區(qū)間[0,1]中。 經(jīng)過多次實(shí)驗(yàn),本文選取tahn 函數(shù)作為可信度約束,計(jì)算公式如下:

當(dāng)結(jié)論相對(duì)統(tǒng)一時(shí),可信度函數(shù)將會(huì)趨向于0或1; 當(dāng)結(jié)論沖突現(xiàn)象嚴(yán)重時(shí),可信度函數(shù)將會(huì)計(jì)算相應(yīng)可信度閾值平衡矛盾沖突現(xiàn)象。

由于偏序關(guān)系中的U集表示2 個(gè)目標(biāo)的相似關(guān)系,不存在偏序的比較關(guān)系(A ~B?B ~A),因此U集不需要可信度約束。 偏序關(guān)系中的O集可以表示為

2.3 主觀感知模型

訓(xùn)練數(shù)據(jù)I ={i1,…,in}可以表示為在n維特征空間內(nèi)的特征向量xi。 根據(jù)式(5) 和式(7) 可知,該問題進(jìn)行優(yōu)化仍舊屬NP 難問題。 本文通過引入松弛變量ζij和γi j對(duì)問題近似尋優(yōu)[15],則偏序關(guān)系O集和U集可以表示為不等式(8):

該優(yōu)化問題可以通過支持向量機(jī)SVM 模型進(jìn)行求解:

其中,C為平衡系數(shù)常量。 式(9) 中第一項(xiàng)用來最大化目標(biāo)物體間的距離,第二項(xiàng)用來滿足松弛約束。 通過計(jì)算二次懲罰訓(xùn)練誤差,其梯度可以表示為:

其Hessian矩陣可以通過式(11) 計(jì)算:

當(dāng)相鄰目標(biāo)間的距離變大時(shí),由于數(shù)據(jù)比較稀疏,Hessian矩陣無法進(jìn)行顯式的構(gòu)建。 因此,可以通過共軛梯度法[16]求解線性系統(tǒng)H-1?。

本文提出的改進(jìn)SVM 模型能夠使得訓(xùn)練數(shù)據(jù)遵循式(8)的約束。 保證序列中相鄰目標(biāo)物體間的投影距離盡可能地大,也就是說將序列中相鄰2 個(gè)圖標(biāo)間的差異最大化。 系數(shù)w可以學(xué)習(xí)到偏序關(guān)系O集和U集所表示的用戶感知數(shù)據(jù)。 具體算法如下。

Algorithm 主觀感知模型算法

輸入用戶主觀偏序?qū)?/p>

輸出權(quán)重向量Wij

Step 1輸入用戶主觀偏序?qū)集和U集

Step 2按照式(6)計(jì)算可信度約束confij

Step 3O′ =confij?O

Step 4按照式(10)~(11)計(jì)算?和H

Step 5按照式(9)進(jìn)行優(yōu)化

Step 6計(jì)算Wij

3 實(shí)驗(yàn)與分析

3.1 實(shí)驗(yàn)設(shè)置

實(shí)驗(yàn)環(huán)境為Win10 操作系統(tǒng),16 G 內(nèi)存,GTX1070 圖形卡和Matlab R2015b。 多模態(tài)特征能夠在不同尺度和流形對(duì)目標(biāo)物體進(jìn)行描述[17],本文從不同角度選取3 個(gè)特征對(duì)目標(biāo)物體進(jìn)行客觀特征描述: 全局特征Gist、局部特征HOG 和顏色特征Color histogram。 總共進(jìn)行了3 組實(shí)驗(yàn)對(duì)本文方法進(jìn)行驗(yàn)證。 第一組:在自建的中國大學(xué)圖標(biāo)數(shù)據(jù)庫中進(jìn)行視覺復(fù)雜度定性排序?qū)嶒?yàn);第二組:與最新的算法進(jìn)行主觀感知準(zhǔn)確率對(duì)比實(shí)驗(yàn);第三組:與人工打分進(jìn)行相關(guān)性系數(shù)對(duì)比實(shí)驗(yàn)。

3.2 圖標(biāo)數(shù)據(jù)集

研究搜集了815 個(gè)大學(xué)圖標(biāo),并建立主觀評(píng)價(jià)數(shù)據(jù)集。 考慮用戶調(diào)查的可行性,60 個(gè)圖標(biāo)一組對(duì)整個(gè)數(shù)據(jù)庫進(jìn)行可重復(fù)分組。 邀請40 位年齡在18~25 歲的用戶(12 男,28 女)進(jìn)行感知數(shù)據(jù)采集。一組圖標(biāo)分為訓(xùn)練集和測試集(30 個(gè)圖標(biāo)作為訓(xùn)練集,30 個(gè)圖標(biāo)作為測試集)。 圖標(biāo)復(fù)雜用戶評(píng)估屬于高強(qiáng)度腦力勞動(dòng),不易進(jìn)行大規(guī)模、長時(shí)間測試。同時(shí),為了避免用戶倉促選擇導(dǎo)致的數(shù)據(jù)不準(zhǔn)確,設(shè)定每一次選擇時(shí)間不小于5 s。 用戶可以根據(jù)自己的主觀感受,通過點(diǎn)擊鼠標(biāo)在2 個(gè)圖標(biāo)中選擇認(rèn)為復(fù)雜的一個(gè),或者復(fù)雜度相同的選項(xiàng)。 并且規(guī)定每人每天只能進(jìn)行一組實(shí)驗(yàn),每組實(shí)驗(yàn)不超過100 對(duì)比較,連續(xù)5 天為一個(gè)周期,訓(xùn)練和測試部分?jǐn)?shù)據(jù)如圖4 所示。

圖4 中國大學(xué)圖標(biāo)庫Fig. 4 Chinese university logo dataset

研究選擇其中一組用戶數(shù)據(jù)進(jìn)行分析,見表1。表1 中,total_test_pairs 表示一共進(jìn)行了6300 對(duì)圖標(biāo)對(duì)比實(shí)驗(yàn); effective_test_pairs 表示除去重復(fù)實(shí)驗(yàn)外,總共進(jìn)行的實(shí)驗(yàn)組數(shù)。 在一組訓(xùn)練集和測試集中各有30 個(gè)圖標(biāo),最多的有效對(duì)數(shù)(不重復(fù)的測試對(duì))為870 組。 測試覆蓋度達(dá)到了99.46%。 其中,經(jīng)統(tǒng)計(jì)共有812 組出現(xiàn)了結(jié)果沖突的情況,只有53組沒有沖突,沖突率達(dá)到了93.95%。 以上數(shù)據(jù)的分析從側(cè)面證實(shí)了本文提出的假設(shè):在高度相似的數(shù)據(jù)集中,可視復(fù)雜度的判斷起主導(dǎo)作用的是感知因素; 且感知數(shù)據(jù)特征具有不穩(wěn)定和矛盾沖突的特點(diǎn)。 該數(shù)據(jù)分析也證實(shí)了在進(jìn)行視覺評(píng)價(jià)時(shí)感知模型建立的必要性。

表1 數(shù)據(jù)庫用戶數(shù)據(jù)分析Tab. 1 Database user data analysis

由于具有較高的數(shù)據(jù)沖突,因此對(duì)比了數(shù)據(jù)預(yù)處理之前和之后的狀態(tài),見圖5。 通過采用傳統(tǒng)的統(tǒng)計(jì)概率模型進(jìn)行分析發(fā)現(xiàn),數(shù)據(jù)經(jīng)過可信度預(yù)處理后,雖然數(shù)據(jù)數(shù)值發(fā)生了變化,但數(shù)據(jù)分布和變化趨勢并未改變,也沒有破壞偏序關(guān)系本身的特征。

圖5 主觀數(shù)據(jù)分布Fig. 5 Subjective data distribution

3.3 圖標(biāo)復(fù)雜度對(duì)比實(shí)驗(yàn)

本節(jié)包括2 個(gè)實(shí)驗(yàn):首先,是用戶感知模型在訓(xùn)練集上預(yù)測結(jié)果與人工打分結(jié)果的定性對(duì)比實(shí)驗(yàn);其次,是與其他經(jīng)典復(fù)雜度評(píng)估的對(duì)比實(shí)驗(yàn),例如:LogoComplexity[4,9]、SVMrank[11]和Deeprank[12]。

通過用戶調(diào)研,對(duì)圖標(biāo)復(fù)雜度的用戶數(shù)據(jù)通過統(tǒng)計(jì)概率模型進(jìn)行分析得到在訓(xùn)練集和測試集上的排序情況,如圖6 所示。 訓(xùn)練好的用戶感知模型也分別在訓(xùn)練集上進(jìn)行驗(yàn)證,在測試集上進(jìn)行推理。經(jīng)過對(duì)比發(fā)現(xiàn):在訓(xùn)練集上,對(duì)于復(fù)雜度前5 名來說模型預(yù)測和用戶評(píng)分獲得了相同的結(jié)論,如圖6(a);復(fù)雜度后5 名模型預(yù)測和用戶評(píng)分雖然排序略有不同,但是都集中在相同的5 個(gè)圖標(biāo)上。 從視覺角度分析,前5 名復(fù)雜的圖標(biāo)都具有精細(xì)的線條和復(fù)雜的圖案; 后5 名復(fù)雜的圖標(biāo)圖案都比較簡單。 在測試集上可以得到類似的結(jié)論,除了2 個(gè)例外(見圖6)。 前5 名的用戶評(píng)分第4 個(gè)在模型預(yù)測序列中只能排到第15 名。 經(jīng)過分析原始主觀數(shù)據(jù)發(fā)現(xiàn)該圖標(biāo)總共出現(xiàn)了15 次沖突數(shù)據(jù),因此其可信度系數(shù)不高導(dǎo)致預(yù)測排名靠后。 后5 名的用戶評(píng)分第4 個(gè)也是類似的情況。 第一組實(shí)驗(yàn)結(jié)論證實(shí)本文提出的用戶主觀感知模型基本可以真實(shí)地反映用戶的主觀特征,可信度系數(shù)的提出也進(jìn)一步的提高了模型對(duì)于數(shù)據(jù)的魯棒性。

圖6 測試集圖標(biāo)分析Fig. 6 Logo rank analysis on test set

第二組實(shí)驗(yàn)對(duì)比本文算法與其他3 個(gè)經(jīng)典算法,以及與未經(jīng)過可信度預(yù)處理模型的對(duì)比結(jié)果。預(yù)測準(zhǔn)確率為預(yù)測準(zhǔn)確的組數(shù)與總預(yù)測組數(shù)的比率,如式(12)所示:

對(duì)此結(jié)果見表2。 在表2 中,由于圖標(biāo)圖案在形狀和結(jié)構(gòu)方面具有高度相似性,LogoComplexity 只對(duì)4 個(gè)客觀特征訓(xùn)練的預(yù)測準(zhǔn)確率約有70%。 無論RankSVM、還是Deeprank 算法,僅依靠客觀特征、不考慮主觀因素,都無法準(zhǔn)確地預(yù)測評(píng)價(jià)結(jié)果。RankSVM 的準(zhǔn)確率大約在80%,而采用了深度學(xué)習(xí)框架Deeprank 的準(zhǔn)確率在85%。 本文提出的用戶主觀感知模型由于引入了用戶主觀數(shù)據(jù),因此能夠獲得較好地預(yù)測準(zhǔn)確率。 同時(shí),因?yàn)镽ankSVM 和本文方法皆采用了基于回歸SVM 模型、且都包含用戶感知數(shù)據(jù),還進(jìn)一步對(duì)比了可信度預(yù)處理之前和之后的效果。 經(jīng)過實(shí)驗(yàn)顯示,置信度預(yù)處理能夠在一定程度提高預(yù)測準(zhǔn)確率(3%,3%,8%,12%)。

表2 圖標(biāo)復(fù)雜度定量對(duì)比Tab. 2 Quantitative comparison of icon complexity

3.4 用戶相關(guān)性實(shí)驗(yàn)

本文提出的模型引入了感知特征,因此與用戶的主觀判斷更加接近。 研究采用統(tǒng)計(jì)學(xué)中的三大相關(guān)性系數(shù):Pearson、Kendall 和Spearman 進(jìn)行模型推理結(jié)論與用戶評(píng)價(jià)數(shù)據(jù)的相關(guān)性實(shí)驗(yàn)。 其中,Pearson 系數(shù)用來衡量2 組數(shù)據(jù)在線性關(guān)系中的相關(guān)性和方向性; Kendall 系數(shù)用來衡量2 組數(shù)據(jù)的部分匹配度; Spearman 系數(shù)用來衡量2 組變量的依賴性程度。 主觀感知模型相關(guān)性,對(duì)此實(shí)驗(yàn)結(jié)果見表3。 由于LogoComplexity 僅計(jì)算了圖標(biāo)的客觀特征,因此與人工評(píng)價(jià)的相關(guān)性都比較低。 RankSVM和Deeprank 算法通過計(jì)算用戶評(píng)價(jià)感知特征的統(tǒng)計(jì)信息進(jìn)行排序而沒有考慮相似個(gè)體的差異,因此得到的相關(guān)性也不令人滿意。 本文方法采用偏序關(guān)系對(duì)用戶感知數(shù)據(jù)進(jìn)行表示。 由于主觀數(shù)據(jù)具有沖突的因素,在進(jìn)行可信度預(yù)處理前,三大系數(shù)均在70%~85%之間。 經(jīng)過可信度預(yù)處理后,相關(guān)性系數(shù)均在90%左右。 因此,研究認(rèn)為本文提出的主觀感知模型可以解釋達(dá)到90%的用戶行為特征。

表3 主觀感知模型相關(guān)性對(duì)比實(shí)驗(yàn)Tab. 3 Comparison experiment subjective perceptual model correlation

4 結(jié)束語

本文提出通過基于偏序關(guān)系的感知特征表示視覺復(fù)雜度。 針對(duì)用戶調(diào)查數(shù)據(jù)存在沖突的現(xiàn)象,本文首先進(jìn)行可信度函數(shù)預(yù)處理,然后通過共軛梯度法,采用改進(jìn)的SVM 模型對(duì)主觀偏序關(guān)系進(jìn)行優(yōu)化得到用戶感知模型。 經(jīng)過與最新算法的定性對(duì)比、準(zhǔn)確率對(duì)比驗(yàn)證了本文方法的有效性。 通過相關(guān)性系數(shù)的計(jì)算,證實(shí)了本文方法能夠較高地(90%)接近用戶的評(píng)價(jià)結(jié)果。

在訓(xùn)練過程中本文仍舊采用手工設(shè)計(jì)的特征對(duì)目標(biāo)物體進(jìn)行表示,特征表達(dá)具有局限性。 采用預(yù)訓(xùn)練的深度框架提取目標(biāo)特征,從而提高預(yù)測準(zhǔn)確率和模型魯棒性是接下來的研究方向。 另外,本文工作僅在小數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn)和對(duì)比,存在過擬合和數(shù)據(jù)不均衡的可能性,無法全面、客觀地反映用戶感知數(shù)據(jù)特點(diǎn)。 收集更大規(guī)模的用戶數(shù)據(jù)能夠有效解決這一問題,這也將是下一步工作方向。

猜你喜歡
特征用戶評(píng)價(jià)
SBR改性瀝青的穩(wěn)定性評(píng)價(jià)
石油瀝青(2021年4期)2021-10-14 08:50:44
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
關(guān)注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
關(guān)注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關(guān)注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
基于Moodle的學(xué)習(xí)評(píng)價(jià)
如何獲取一億海外用戶
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 草草影院国产第一页| 国产精品久久久久久久久久久久| 国产精品国产主播在线观看| 亚洲一区毛片| 欧美va亚洲va香蕉在线| 欧美一级在线播放| 99热这里只有免费国产精品 | 国产精品jizz在线观看软件| 亚洲无码免费黄色网址| 婷婷成人综合| 国产办公室秘书无码精品| 欧美精品三级在线| 伊人91在线| 污污网站在线观看| 国产精鲁鲁网在线视频| a亚洲视频| 国产成人精品一区二区秒拍1o| julia中文字幕久久亚洲| 九色最新网址| 青青青草国产| 很黄的网站在线观看| 日本午夜影院| 国产精品欧美亚洲韩国日本不卡| 在线五月婷婷| 国产精品自拍合集| 亚洲av日韩av制服丝袜| 亚洲Aⅴ无码专区在线观看q| 欧美激情,国产精品| 色丁丁毛片在线观看| 韩日午夜在线资源一区二区| 激情六月丁香婷婷四房播| 久久久久国产精品熟女影院| 天堂亚洲网| 成人国产免费| 男女男免费视频网站国产| 素人激情视频福利| 中文字幕中文字字幕码一二区| 青青草91视频| 天天综合网色| 久久国产精品无码hdav| 欧美精品成人| 久久女人网| 日本免费一级视频| 色香蕉影院| 亚洲欧洲国产成人综合不卡| 最新国语自产精品视频在| 成年午夜精品久久精品| yjizz视频最新网站在线| 亚洲精品国产首次亮相| 亚卅精品无码久久毛片乌克兰| 亚洲伦理一区二区| 亚洲精品在线影院| 日韩毛片在线播放| 欧美一级大片在线观看| 亚洲欧美日韩动漫| 第一区免费在线观看| 男人的天堂久久精品激情| 欧美一区二区丝袜高跟鞋| 国产高清无码麻豆精品| 2048国产精品原创综合在线| 欧美午夜网| 欧美成人午夜在线全部免费| 亚洲V日韩V无码一区二区| 久久精品丝袜| 亚洲成人在线网| 丝袜无码一区二区三区| 国产日韩精品欧美一区喷| 色综合中文| 茄子视频毛片免费观看| 91精品国产无线乱码在线| 欧美另类精品一区二区三区 | 波多野结衣久久精品| 日韩精品一区二区三区大桥未久 | 91无码人妻精品一区二区蜜桃| 91破解版在线亚洲| 久久99精品久久久久纯品| 在线观看国产网址你懂的| 久久久国产精品无码专区| 国产精品亚洲精品爽爽| 色妺妺在线视频喷水| 国产aaaaa一级毛片| 熟妇丰满人妻|