秦智康,張衡陽
(空軍工程大學 信息與導航學院,陜西 西安 710077)
圖像搜索在電子商務、醫學影像、圖像處理等領域都有重要地位。近年來,硬件技術的快速發展和計算機能力的增長為移動互聯網爆炸式增長提供了條件,也導致互聯網能獲取大量圖像數據。由于空間和時間的限制,圖像以壓縮格式表示。主流的圖像檢索系統分兩個階段運行:索引和搜索。在索引階段,使用一組圖像特征屬性(例如顏色、形狀、紋理和布局)來表示數據庫的每個圖像。提取的特診存儲在特征數據庫中[1]。在搜索階段,當用戶進行查詢時,計算查詢信息的特征向量。根據相似性標準將該向量與特征數據庫中的向量進行比較,再將最相似的圖像返回。學術界和工業界一直研究如何更高效地實現圖片檢索,孫世然等采用圖像信息熵來提取圖片的紋理特征,同時利用Gabor濾波器進一步提升了特征準確性,從而改進了檢索的準確率[2]。許喆等采用局部哈希的策略對圖像特征點進行聚類操作,并利用映射鏈投票來降低復雜度,提升檢索精度[3]。王力采用Hadoop分布式系統采集圖像SURF特征,并利用K-Means聚類方法將相似度高的圖片進行聚合,提高了處理速度[4]。文獻[5]采用多特征融合的圖像檢索算法,結合全局和局部特征來提升檢索的成功率。文獻[6]利用顏色直方圖和GWLBP結合,實現了圖像的良好分類,提升了檢索效率。
目前為止,對于圖像搜索的研究在變換域中關于紋理特征的利用還不夠充分[7],大多采用固定的參數實現紋理特征的提取[8-12],本文研究工作將重點放在變換域中的特征提取,并利用自適應的方法動態調整變換域的參數,從而更加適用于更多類型的圖片。
圖1顯示了基于內容的圖像檢索系統的基本框圖。

圖1 本文系統核心框架圖
本文提出的方法比較了使用DWT的基于內容的圖像檢索與融合歐幾里德距離(L2)、曼哈頓距離(L1)和標準歐幾里德距離(標準L2)的相似性匹配的紋理的性能。使用離散小波變換分解圖像分量。在DWT之后,使用GLCM獲取圖像的低頻分量(LL)用于紋理特征提取,然后將所有列車圖像的最終特征向量存儲在數據庫中,同時對查詢圖像執行相同的過程。最后通過使用L1、L2、標準L2的加權總和作為實際距離,檢索前5個相似圖像。
用Wφ來表示圖像變換結果,尺寸為N1×N2的圖像函數s(n1,n2)的二維DWT可以表示為
(1)
(2)
其中:i={H,V,D}表示小波函數的方向指數;j0表示任何起始標度,其可以被視為j0=0。
與其他變換相比,DWT[6]的特點是同時考慮到了時間和頻率特性,同時具有較強的魯棒性,因此在很多領域得到廣泛應用。從第一級到第三級的二維離散小波變換結果如圖2所示,其中L為低頻分量,H為高頻,數字1和2為離散小波變換的分解級別。子圖像LL是低頻分量,它是原始圖像的近似子圖像;子圖像HL是水平方向上的低頻和垂直方向上的高頻分量,它表示原始圖像的水平邊緣;子圖像LH是水平方向上的高頻和垂直方向上的低頻分量,它表示原始圖像的垂直邊緣;子圖像HH是高頻分量,它表現出原始圖像的傾斜邊緣。顯示原始圖像的大部分能量包含在LL2低頻區域中。并且相同尺寸的其他區域以不同角度反映圖像的邊緣特征。這里使用二維離散Haar小波變換來分解圖像。

圖2 二維離散小波變換結果
圖像的一個重要特征是紋理。為了描述區域的紋理特性,在圖像處理中使用3種方法,這些方法是統計、結構和光譜的方法。統計方法通過光滑、粗糙、顆粒狀、絲滑等來指定紋理的分類。常見的二階統計方法是灰度共生矩陣。
灰度共生矩陣(Gray Level Co-occurrence Matrix,GLCM)方法基于條件概率密度函數,它包含了具有相似灰度值的像素位置的信息,包括方向和距離。在給定了方向和距離的情況下,可以計算符號灰度級像素i、j,如式(3)所示:

(3)
其中行數和列數等于圖像中的灰度界別。矩陣元素p(i,j|d,θ)是由距離d分開的兩個像素的相對頻率,可以看到,GLCM是通過使用方向、距離、位置這3個屬性的灰度級共現矩陣來提取紋理特征。
相似度:它返回一個值用于衡量GLCM中元素分布的緊密程度。其范圍為[0 1]。

(4)
圖像能量:灰度共生矩陣中的平方元素之和稱為能量。其范圍為[0 1]。恒定圖像的能量為1。

(5)
相關性:返回一個像素與整個圖像上領域的相似度。它的范圍是[-1 1]。對于完全正相關或負相關的圖像,相關性為1或-1。
已經使用諸如歐幾里德、曼哈頓和標準歐幾里德距離的距離測量來確定特征向量的相似性。在本文實現的算法中,歐幾里德距離、標準歐幾里德距離以及曼哈頓距離都用于比較圖像之間的相似性。兩個圖像之間的距離主要用于查找、查詢圖像與數據庫中圖像之間的相似性。
歐幾里得距離:歐幾里德距離的平方根與相應值之間距離的平方和。

(6)
曼哈頓距離:它計算從一個數據點到另一個數據點距離的相應樣本的差異總和。

(7)
標準歐氏距離:將歐幾里德距離根據標準化算法計算出來。標準值=(原始值-平均值)/標準偏差。

(8)
相關反饋(RF)算法可以交互式地提高檢索系統的有效性。傳統的相關反饋算法由3個步驟組成:(a)系統對用戶提供的查詢模式進行初始搜索,返回少量圖像;(b)用戶指出哪些檢索到的圖像是有用的(相關的);(c)系統根據用戶的相關性判斷自動重新構造原始查詢。此過程可以繼續迭代,直到用戶滿意為止。
本文提出以下算法來確定查詢圖像與圖像數據庫中圖像之間的相似度:
步驟1:輸入需要查詢的圖像I;
步驟2:將RGB顏色空間圖像轉換為HSV顏色空間;
步驟3:將圖像分成3個相等的非重疊水平區域;
步驟4:計算3個區域的顏色通道,以對應從查詢圖像I中的相似度;
步驟5:使用公式(6)、(7)、(8)計算兩個圖像之間的距離d并存儲到距離矩陣dm中;
步驟6:數組d按升序排序,與查詢圖像I相比,對應于d的第一元素的圖像是最相似的圖像。
本文采用交互式遺傳算法(IGA)來實現自適應[13]。在圖像檢索的早期階段,系統的準確率較低,返回的結果也較少,在這種情況下先由較少的幾個結果作為父代執行遺傳操作,并讓用戶反饋效果,根據這些相關性反饋,重新計算查詢圖像與數據庫中圖像之間的相似性。當用戶對檢索結果滿意時,系統終止。
用戶輸入查詢圖像,最初執行所有數據庫圖像的特征提取。執行每個查詢圖像的特征提取,完成使用交互式遺傳算法的相似性測量結果顯示。如果用戶滿意,則顯示的結果是最終結果并且搜索結束。如果用戶不滿意,根據用戶對檢索結果的反饋再次使用遺傳算法來搜索結果,并通過調整用戶判斷來計算相似度函數。如果用戶仍不滿意,則重復此步驟。在實際應用中,僅使用單個特征的檢索結果可能是低效的,因此會導致整個遺傳算法的執行次數過多,效率低下,因此為了獲得更加高效的結果,本文使用顏色和紋理特征的組合。查詢圖像與數據庫中圖像之間的距離計算如下:
d=w1×d1+w2×d2,
(9)
其中:w1是顏色特征的權重,w2是紋理特征的權重,d1和d2是計算的距離。
本文用查準率度和召回率衡量檢索系統的性能。查準率p等于檢索到的相關圖像數除以數據圖像集中總的相關圖像數,召回率r等于系統中檢索到的相關圖像數處于檢索到的總的圖像數[14]。
本文采用CIFAR-10數據集進行測試,CIFAR-10數據集有50 000訓練圖片和10 000測試圖片[15],含有10類彩色圖像,圖像規格是32×32。考慮顏色和紋理特征的組合不僅能夠表達更多的圖像信息,還能從不同方面描述圖像以獲得更詳細的信息以獲得更好的搜索結果。同時對于不同圖片,其特征信息的權重也有所不同,本文對CIFAR-10中不同類型圖像的權重設置如表1所示。

表1 不同類型圖像的權重選擇
通過本文算法,經過訓練之后,輸入不同的圖片類型,輸出結果如圖3所示。

圖3 檢索結果
通過檢索結果可以看到,本文算法搜索出的前5張的圖片準確度相對較高,都能夠搜索出正確的結果。
本文的對比實驗采用傳統的GA算法、GA+傳統的DCT變換以及本文提出算法。表2總結了不同訓練迭代次數下的召回率和查準率對比,可以看到,在增加訓練次數的情況下,不同的算法都在召回率和查準率上有所提高,同時本文算法準確率都優于對比的傳統算法。

表2 檢索查準率和召回率對比
提出了一個基于灰度共生矩陣的二維離散Haar小波變換算法,改進了基于內容的圖像檢索,該灰度共生矩陣用于提取圖像的紋理特征、并采用IGA算法進行自適應。算法充分考慮了顏色特征,紋理特征和形狀特征,并融合了歐式距離、標準歐氏距離以及曼哈頓距離作為相似度度量。通過實驗可以看出,本文提出的算法能有效搜索到相似圖片,同時在召回率和查準率上都優于傳統算法,訓練迭代次數為30,60,100的情況下,本文算法的準確率達到67%以上。實驗證明本文的算法對于圖像檢索有較高的參考價值。