張倩
[摘 要]計算機視覺領域內,為了模擬人類視覺系統,越來越多的視覺注意模型不斷涌現,但缺乏對其進行客觀、公正、合理的評價方法體系。針對此問題,首先,對現有模型廣泛使用的測試圖像集和評價模型的性能指標進行梳理和總結;其次,將統計學中的均方差指標和雙側T-test假設檢驗方法引到選擇性視覺注意模型的顯著性評價上;最后,提出一個綜合評價視覺注意模型的方法體系準則,經實驗驗證與文獻分析其評價結果較為客觀、公正、可信。
[關鍵詞]視覺注意模型;評價方法;均方差指標;雙側T-test假設檢驗;綜合評價
[DOI]10.13939/j.cnki.zgsc.2016.51.140
近幾年來,涌現出了很多模仿人類視覺注意機制的可計算的選擇性視覺注意模型,而且這些模型在預測人類注意視點方面也取得了較好的效果。但是,如何對這些視覺注意模型的性能進行客觀、全面的評價卻是一個難題。截至目前也出現了為數不多的評價視覺注意模型的方法;但總的來說,這些方法針對性強,不能綜合反映視覺注意模型的整體性能。為此,本文在對現有模型測試圖像集和性能評價指標進行系統歸納和總結的基礎上,引入一些新的數字化指標,進而提出了一個綜合評價準則。
1 現有的評價性能指標
根據眼動圖像數據集,可以利用接受者操作特性曲線(ROC)對視覺注意模型進行定性分析。ROC曲線分析的初衷是用于醫學病例的診斷統計分析的,現在被廣泛應用到SVAM的評價中。選擇性視覺注意模型評價的核心思想是:模型得到的顯著圖與Ground-truth圖的相似度。ROC曲線是基于二值分類器原理,來評估不同類型的選擇性視覺注意模型,其分析的對象是灰度圖或者顯著圖。因此,對應眼動數據的二值圖像需要通過與二維高斯核進行卷積操作,對圖像進行平滑處理,以得到相應的Ground-truth灰度顯著圖。
2 均方差和T-test引入
利用數字化評價指標對SVAM評價時,會存在“失效”現象,例如,當在Einhuser等提供的眼動數據集上評價GBVS模型時,其AUC值為0.98,與理想的AUC值1相差很小,但實際上GBVS模型的顯著目標分割結果與Ground-truth圖的差異還很大。所以GBVS模型存在過分割現象,并且提取的形狀特征交叉。以上的分析預示ROC曲線分析或AUC性能指標并不是適用于所有SVAM的性能評價。同樣地,Recall、Precision和F值等數字化指標也存在類似問題。鑒于上述數字化性能指標在評價SVAM過程中存在“失效”的問題,文中將借鑒統計學上的均方差指標、雙側Students T-test假設檢驗方法來進行選擇性視覺注意模型的性能評價。
3 綜合評價準則
為了綜合比較SVAM的語義圖像分割的效果和性能,本文提出基于決策分析表的方法來對不同類型的AVAM進行綜合評價。
(1)基于一定的生物視覺理論或機制
從圖像分割的長期發展上看,基于生物視覺理論的圖像分割方法有更廣闊的應用前景。但是從目前的圖像分割方法布局上來看,孰優孰劣,尚難定論。所以,此項標準的評分準則簡單的為:基于生物視覺理論或機制的模型,得2分;混合模型,得1分;純計算模型,得0分。
(2)模型不需要任何訓練樣本或可調參數
自動地進行圖像分割一直是計算機視覺領域一項具有挑戰性的工作,因此本項評分標為:不需要樣本訓練和可調參數的得2分;需要一個的得1分;均需要的得0分。
(3)第一個關注的是最大的顯著區域
該標準十分重要,所以計分要加大權重。根據Recall、Precision、AUC及其均方差(σ)的定義,該項計分準則為:前3項指標的正序序號和最后一項指標的逆序序號的和。其中,正序指數字化指標值按從小到大的進行排序,逆序指從大到小來排列。
(4)均勻地包括顯著對象的整體
該項標準也很重要,計分也會加大權重。由于F值是評價測試圖像的一個全局評價指標,是召回率和查全率的綜合表現,可以反映圖像分割結果的光滑一致性。所以該項準則的得分為F值的正序序號以及均方差(σ)的逆序序號之和。
(5)顯著對象具有良好的形狀特征
形狀特征良好的得2分;初具形狀的得1分。否則,得0分。
(6)抵抗幾何攻擊和噪聲
兩者都抵抗的得2分;能抵抗其中一項的得1分;均不抵抗的得0分。
(7)實時地輸出全分辨率的顯著圖
可以實時輸出地輸出全分辨率顯著結果的得2分;具有實時和全分辨率其中一項的得1分;不具一項的得0分。
4 結 論
本文首先詳細介紹了常用于評價選擇性視覺注意模型的圖像數據集以及性能數字化指標。其次在對已有的數字化性能指標的總結分析基礎上,將統計學上的均方差和雙側t-test引入選擇性視覺注意模型的評價中。最后,為了更好地對SVAM做出全面的評價,提出了一個基于決策分析表的綜合評價標準。經實驗驗證與文獻分析,本文結果較為科學、合理、可信。下一步,將繼續探究決策分析表中的構成要素及其相互關系比重。
參考文獻:
[1]李志成,秦世引,Itti L.遙感圖像的顯著-概要特征提取與目標檢測[J].北京航空航天大學學報,2010,36(6):659-662.
[2]溫寄,李苓苓,劉慶杰,等.基于視覺顯著性和圖分割的高分辨率遙感影像中人工目標區域提取[J].測繪學報,2013,42(6):831-837.
[3]Bruce N,Tsotsos J K.Attention Based on Information Maximization[J].Journal of Vision,2007,7(9):950-950.
[4]Hou X,Zhang L.Saliency Detection:A spectral Residual Approach[C].Proceedings of Computer Vision and Pattern Recognition,2007:1-8.
[5]過晨雷.注意力選擇機制的研究:算法設計以及系統實現[D].上海:復旦大學,2008.
[6]Achanta R,Süsstrunk S.Saliency Detection Using Maximum Symmetric Surround[C].Proceedings of IEEE International Conference on Image Processing,2010,10:2653-2656.
[7]毋小省,孫君頂.基于感興趣區域的圖像檢索方法[J].2013,43(2):221-224.
[8]Zhang L B,Yang K N.Region-of-interest Extraction Based on Frequency Domain Analysis and Salient Region Detection for Remote Sensing Image[J].2014,11(5):916-920.
[9]He D J,Liu R S,Song H B.Closed Salient Edge Extraction Based on Visual Attention Mechanism[J].Applied Mechanics and Materials,2011,(58-60):1972-1978.
[10]Russell B C,Torralba A,Murphy K P,Freeman W T.Labelme:a Database and Web-based Tool for Image Annotation[J].International Journal of Computer Vision,2008,77(1-3):157-173.
[11]李甲.基于學習的視覺顯著計算.[D].北京:中國科學院研究生院,2010.
[12]Guo C L,Zhang L M.A novel Multi Resolution Spatiotemporal Saliency Detection Model and its Applications in Image and Video Compression[J].IEEE Transactions on Image Processing,2010,19(1):185-198.