摘 要: 針對HOG在強噪條件下以及加權Hu矩在弱噪條件下識別性能較差的情況,通過最小二乘擬合估計加權系數與噪聲參數之間的映射關系,自適應調整融合參數達到將加權Hu矩和HOG特征融合的目的。實驗證明,基于加權Hu矩和HOG的特征識別對噪聲的容忍度更好,適用范圍更廣,識別率更穩定。
關鍵詞: 加權Hu矩; 噪聲估計; 自適應融合; 加權系數
中圖分類號: TN911.73?34 文獻標識碼: A 文章編號: 1004?373X(2014)01?0014?05
0 引 言
近年來,隨著計算機視覺技術的發展,人體行為識別逐漸成為研究的熱點。如何有效地從圖像序列中獲得人體行為特征成為了研究的關鍵。其中,HOG和Hu矩是十分常見的兩種特征提取方法,然而針對場景中的噪聲變化,這兩種方法的適應范圍較小,識別率變化較大。因此,本文中將重點討論兩種特征的融合算法,以達到對噪聲容忍度好,適用范圍大的目的。
1 特征提取算法
1.1 方向梯度直方圖描述子(HOG)
HOG(Histogram of Oriented Gradient)算法通過計算局部區域上的梯度方向直方圖來構成人體特征,能夠很好地描述圖像局部區域外觀和形狀,HOG是在Cell和Block的網格內進行計算的,Cell由若干像素點構成,Block由若干相鄰的Cell構成,HOG算子提取的流程如圖1所示。
圖1 HOG特征提取流程圖
本文中進行HOG特征提取時,輸入圖像大小為64×80,Cell大小為8×8,Block大小為16×16,Block的步進為8個像素,梯度方向將360°分為9個區間。
為了驗證HOG特征的性能,分別采集200幀揮手、彎腰、走路以及展腹跳的幀圖像,其中每種動作的100幀(共400幀)作為訓練樣本,每種動作的余下100幀(共400幀)作為測試樣本,見表1。
分別提取訓練樣本和測試樣本的HOG特征提取算子,以euclidean距離作為判別準則進行模板的匹配。此外,為了驗證算法在噪聲情況下的魯棒性,對測試樣本進行了加噪處理(高斯噪聲方差0.01,椒鹽噪聲密度0.02),識別率見表2。
從表2可知,HOG特征提取算子對未加噪聲的圖像識別率很高,但是若測試樣本存在強噪聲時,則識別性能大幅度下降。因此,依靠單一的HOG特征提取算子進行人體行為的識別,性能較差。
表1 四種人體行為圖像
表2 HOG特征識別率 %
[\揮手\彎腰\展腹跳\走路\識別率\原始圖像\100\97\99\98\98\加噪后\83\65\57\55\65\]
1.2 加權Hu矩描述子
Hu M.K.在文獻[1]中利用代數不變矩理論構造出7個不變矩,這種不變矩在平移、約束縮放、旋轉下保持不變,但對圖像細節信息的表征有限,不具備非約束縮放不變性且識別率較低。因此,本文中提出一種加權Hu矩算子,具體流程如圖2所示。
圖2 加權Hu矩特征提取流程圖
首先,為了獲得更多的圖像細節信息,將傳統Hu矩進行擴展,并且對擴展Hu矩進行修正,使得圖像在縮放的條件下,依然保持不變性。然而,在進行特征提取時,傳統的判別準則認為不同Hu矩對行為判別的貢獻值是一致的,而實際情況往往不是這樣。因此,應充分考慮不同Hu矩的貢獻值,構造一個Hu加權矩。本文采用對9個擴展Hu修正矩進行線性規劃,找到每個Hu修正矩的最優加權值,進而構造一個Hu加權修正矩。
設構造成的新的加權修正矩為:
[Φ=σ1Φ″1+σ2Φ″2+...+σ9Φ″9, i=19σi=1, 0<σi<1]
為了獲得最優解,擬采用方差加權矩最小作為判定準則,即:
[V(Φ)=σ21V(Φ″1)+σ22V(Φ″2)+...+σ29(Φ″9)]
達到最小時[σ]的值作為求得的權值,加權Hu矩的具體求解過程在文獻[2]中有詳細介紹。
為了驗證加權Hu矩的性能,分別采集200幀揮手、彎腰、走路以及展腹跳的幀圖像,其中每種動作的100幀作為訓練樣本,每種動作的余下100幀作為測試樣本。并將識別結果與原始Hu矩和擴展Hu矩的識別性能進行比較,見表3。此外,為了驗證加權Hu矩在噪聲情況下的魯棒性,對測試樣本進行了加噪處理(高斯噪聲方差0.01,椒鹽噪聲密度0.02),識別率見表4。
表3 不同Hu矩的性能比較 %
[\揮手\彎腰\展腹跳\走路\識別率\原始Hu矩\80\73\70\77\75\擴展Hu矩\83\79\77\81\80\加權Hu矩\90\83\80\87\85\]
表4 加權Hu矩識別率 %
[\揮手\彎腰\展腹跳\走路\識別率\原始圖像\90\83\80\87\85\加噪后\83\75\73\81\78\]
由表3,表4可知,與原始Hu矩和擴展Hu矩相比,加權Hu矩的識別性能有了一定的提升。與HOG相比,雖然對于原始測試樣本的識別率不如HOG特征的識別率好,但加權Hu矩的噪聲容忍度較好。
2 加權Hu矩和HOG的特征融合
通過上一節的實驗結果可知,HOG特征對于原始的測試樣本的識別率很高,要優于加權Hu矩的識別性能。然而,當圖像中有強噪聲時,加權Hu矩的識別率依然保持在較好的水平,而HOG性能急劇下降。因此,如何選取合適的方法將兩種特征融合在一起顯得十分的必要。
加權Hu矩和HOG特征融合流程圖如圖3所示。
圖3 加權Hu矩和HOG特征融合流程圖
由圖3可知,首先提取訓練樣本的噪聲參數,然后提取訓練樣本圖像的HOG特征和加權Hu矩特征,再選用適當的融合算法進行特征的融合,從而得到訓練樣本的特征向量;對于測試樣本,采用與訓練樣本相同的步驟,提取出測試樣本的特征向量。最后,將測試樣本與訓練樣本集進行模板匹配,從而得到匹配結果。整個流程的關鍵步驟在于特征融合算法的確立。
提取的HOG的特征向量[T1=[x1,x2,…,x36],]加權Hu矩的特征向量為[T2=[y]],為了實現特征的融合,將找到合適的[α]和[β,]使得融合后的新特征向量滿足:
[T=αT1+βT2,α+β=1]
其中[α]與[β]分別為HOG和加權Hu矩的加權系數。
圖像中的噪聲以高斯噪聲和椒鹽噪聲的形式存在。其中,高斯噪聲的強度[IG]可由均值[m]和方差[v]表示,椒鹽噪聲的強度[IJ]可由噪聲密度[d]表示,我們可將高斯噪聲的均值附加到圖像的均值上。因此,對于一幅獲取的圖像,它的噪聲參數依賴于[(v,d),]下面通過噪聲參數來估計HOG和加權Hu矩的融合加權系數[α]和[β。]因為HOG提取的特征為36維向量,加權Hu矩為一維向量,因此:
[α=P1P1+36P2∝(v,d), β=36P2P1+36P2∝(v,d)]
式中:[P1]和[P2]為HOG和加權Hu矩的識別率。
因此,如何根據噪聲參數 [(v,d)] 獲得[α]和[β]是需要解決的關鍵問題,將在下文中詳細闡述。
3 加權系數[α]和[β]的確立
從上文已知[α]和[β]的表達式,針對特定幀,[P1+36P2=C,]因此可認為:
[α∝P1∝(v,d), β∝P2∝(v,d)]
下面將根據不同的噪聲參數進行一系列仿真獲得加權系數與噪聲參數的映射關系。
3.1 [α]與噪聲參數的映射關系
因為高斯噪聲強度[IG]與椒鹽噪聲強度[IJ]相互獨立,因此可單獨討論[α]與噪聲參數[v,d]之間的關系。首先固定椒鹽噪聲的噪聲密度[d,]改變高斯噪聲的方差[v,]觀察[α]的變化。接著固定高斯噪聲的方差[v,]觀察[α]的變化,實驗結果見表5,表6。
考慮到加噪的隨機性,為了減少單次測量帶來的識別率的偏差,對于每一種高斯噪聲方差和椒鹽噪聲密度,各采取50次實驗,結果取均值作為該噪聲方差以及噪聲強度下的識別率。下面,采用最小二乘法擬合獲得映射關系。為了衡量不同階數的擬合性能,在此引入AIC信息準則,該準則建立在熵的概念之上,可以權衡所估計模型的復雜度和模型擬合數據的優良性,優先考慮AIC值最小的模型,AIC的表達式如下:
[AIC=log(VN)+2kN]
如果[k?N,][AIC=logVN+1+2kN。]其中[V]為剩余平方和,剩余值即擬合值與實際值的差,[k]為估計的參數的數量,[N]為觀察數。采用最小二乘法擬合時,階數太高會增加運算的復雜度,而且會出現過擬合,因此一般考慮5階以下的情況。
表5 高斯噪聲對[α]的影響
[\高斯噪聲方差\椒鹽噪聲強度\[α]\HOG\0.000 1\0.02\0.030 5\0.001\0.02\0.028 7\0.01\0.02\0.022 6\0.05\0.02\0.009 8\]
表6 椒鹽噪聲對[α]的影響
[\高斯噪聲方差\椒鹽噪聲強度\[α]\HOG\0.01\0.005\0.029 4\0.01\0.01\0.028 3\0.01\0.02\0.022 6\0.01\0.05\0.018 9\]
采用不同階次擬合時的AIC值見表7,表8。
表7 高斯噪聲改變時不同階次擬合的AIC值
[擬合階數\1\2\3\4\5\AIC值\3.475 1\1.544 5\0.01\0.01\0.01\]
表8 椒鹽噪聲改變時不同階次擬合的AIC值
[擬合階數\1\2\3\4\5\AIC值\3.309 9\0.665 1\0.01\0.01\0.01\]
從AIC值可知,三階擬合的性能與三階以上的擬合性能基本相同,但遠優于一階和二階的擬合性能,考慮到模型的復雜度以及性能的優良性,選取三階進行數據的擬合。擬合曲線如圖4,圖5所示。
圖4 [α]隨著高斯噪聲方差變化的不同階次擬合曲線
從圖中可以看出,三階擬合數據與原始數據的重合度已經較好。因此可得,在椒鹽噪聲的噪聲密度不變的情況下,[α]與高斯噪聲的映射關系式為:
[α=-2.712 1×103v3+172.612 6 v2-2.269 2v+0.030 8]
在高斯噪聲方差不變的情況下,[α]與椒鹽噪聲的噪聲密度的映射關系式為:
[α=753.718 1d3-49.191 1d2-0.379 8d+0.028 7]
通過固定高斯噪聲的方差或者椒鹽噪聲的噪聲密度分別求得了[α]與[(v,d)]的映射關系,可知在[(v,d)] 同時改變的情況下,[α]的表達式為:
[α=a1v+a2v2+a3v3+b1d+b2d2+b3d3+c]
通過多元線性回歸,得到:
[α=0.036 7-2.175 0v+161.642 8v2-2.530 2×103v3-0.398 3d-50.166 7d2+766.666 7d3]
圖5 α隨著椒鹽噪聲強度變化的不同階次擬合曲線
3.2 [β]與噪聲參數的映射關系
在對[β]進行討論時,采用與[α]相同的方法進行映射關系的估計。
首先首先固定椒鹽噪聲的噪聲密度[d,]改變高斯噪聲的方差[v,]觀察[β]的變化,接著固定高斯噪聲的方差[v,]改變椒鹽噪聲的密度[d,]觀察[β]的變化,實驗結果見表9,表10。
表9 高斯噪聲對[β]的影響
[\高斯噪聲方差\椒鹽噪聲強度\[β]\加權Hu矩\0.000 1\0.02\0.969 5\0.001\0.02\0.971 3\0.01\0.02\0.977 4\0.05\0.02\0.990 2\]
其中,為了減小加噪的隨機性帶來的識別率的偏差,對于每一種高斯噪聲方差椒鹽噪聲密度,各采取50次實驗,結果取均值作為該噪聲方差下的識別率。
采用不同階次擬合時,AIC值見表11,表12。
通過AIC值可知,三階擬合為最優估計,圖6,圖7為不同階次的最小二乘擬合曲線。
從圖中可以看出,三階擬合數據與原始數據的重合度已經較好。因此可得,在椒鹽噪聲的噪聲密度不變的情況下,[β]與高斯噪聲的映射關系為:
[β=2.712 1×103v3-172.612 6v2-2.269 2v+0.969 2]
表10 椒鹽噪聲對[β]的影響
[\高斯噪聲方差\椒鹽噪聲強度\[β]\加權Hu矩\0.01\0.005\0.970 6\0.01\0.01\0.971 7\0.01\0.02\0.977 4\0.01\0.05\0.981 1\]
表11 高斯噪聲改變時不同階次擬合的AIC值
[擬合階數\1\2\3\4\5\AIC值\0.447 1\0.311 3\0.01\0.01\0.01\]
表12 椒鹽噪聲改變時不同階次擬合的AIC值
[擬合階數\1\2\3\4\5\AIC值\0.529 0\0.475 1\0.01\0.01\0.01\]
圖6 [β]隨著高斯噪聲方差變化的不同階次擬合曲線
圖7 [β]隨著椒鹽噪聲密度變化的不同階次擬合曲線
在高斯噪聲方差不變的情況下,[β]與椒鹽噪聲的映射關系為:
[β=-753.718 1d3+49.191 1d2-0.379 8d+0.971 3]
通過固定高斯噪聲的方差或者椒鹽噪聲的噪聲密度分別求得了[β]與[(v,d)]的映射關系,可知在[(v,d)]同時改變的情況下,[β]的表達式為:
[β=a1v+a2v2+a3v3+b1d+b2d2+b3d3+c]
通過多元線性回歸,得到:
[β=0.963 3+2.175 0v-161.642 8v2+2.530 2×103v3-0.398 3d+50.166 7d2-766.666 7d3]
所以,在提取了圖像的噪聲參數[(v,d)]后,根據加權系數和噪聲參數的映射關系確定[α]和[β]的值。
4 實驗仿真
由上文可知,對于給定噪聲參數[(v,d),]可以確定HOG與加權Hu矩的加權參數[α和β,]從而能夠確定兩種特征的融合方式。通過特征提取,HOG的特征向量[T1=[x1,x2,…,x36]],加權Hu矩的特征向量為[T2=[y]],為了減小融合時的誤差,在融合前要分別對[T1]和[T2]進行歸一化處理,使得所有特征值規范到[[0,1]],融合后的特征變為:
[T=αT1+βT2=α(x1,x2,…,x36)+βy]
在進行模板匹配時,采用euclidean距離作為判別準則,判別式如下:
[d=αi=136(x′i-xi)2+β(y′i-yi)2]
為了驗證算法的性能,采用不同的噪聲參數[(v,d)]進行驗證,識別結果見表13。
通過仿真結果可知,基于HOG和加權Hu矩特征融合的識別與單一采用HOG特征以及加權Hu矩的識別率相比,在弱噪聲的條件下,其識別率與單一HOG特征識別率接近,而優于加權Hu矩的識別率;在強噪聲條件下,其識別率與加權Hu矩的識別率接近,而優于HOG的識別率。
表13 基于加權Hu矩和HOG特征的自適應融合方法的識別率
[\高斯噪聲方差\椒鹽噪聲強度\識別率 /%\HOG
+
加權Hu矩\0.01\0.005\95\0.000 1\0.02\92\0.01\0.01\85\0.001\0.02\84\0.01\0.02\76\0.05\0.02\70\0.01\0.05\63\]
5 結 語
本文首先通過對傳統Hu矩特征進行擴展、修正以及加權等方法的處理,構造出加權Hu矩。接著,通過最小二乘擬合獲得HOG與加權Hu矩的特征融合加權系數[α]和[β,]最后采用euclidean距離作為判別準則進行模板的匹配。基于加權Hu矩和HOG的自適應特征融合方法,可以根據場景的噪聲情況自適應地調整特征融合的參數,與單一的HOG或者加權Hu矩的識別方法相比,適用范圍更廣,識別率更穩定,能夠在某些特定場景下有效地實現某些人體行為的識別。
參考文獻
[1] HU M K. Visual pattern recognition by moment invariants [J]. IRE Transactions on Information Theory, 1962, 8(2): 179?187.
[2] LIANG Chen?hua, CHANG Qing. Weighted modified Hu moment in human behavior recognition[C]// Advanced Information and Computer Technology in Engineering and Manufacturing, Environmental Engineering. Xiamen: AMSMT, 2013: 2194?2198.
[3] BLANK Moshe, GORELICK Lena, SHECHTMAN Eli, et al. Actions as space?time shapes [C]// Proceedings of 2005 10th IEEE International Conference on Computer Vision. Beijing: ICCV, 2005, 2: 1395?1402.
[4] 王天樹,鄭南寧,徐迎慶,等.人體運動非監督聚類分析[J].軟件學報,2003,14(2):209?214.
[5] HARITAOGLU I, HARWOOD D, DAVIS L. W4:real?time surveillance of people and their activities [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(8): 809?830.
[6] RIBEIRO P C, SANTOS?VICTOR J. Human activities recognition from video: modeling, feature selection and classification architecture [C]// Proceeding of Workshop on Human Activity Recognition and Modeling. Oxford, UK: HAREM, 2005: 61?70.
[7] ANDRADE E L, FISHER R B. Simulation of crowd problems for computer vision [C]// Proceeding of the 1st International Workshop on Crowd Simulation. Utrecht, Netherlands: V?CROWDS, 2005: 71?80.
[8] DALAL N, TRIGGS B, SCHMID C. Human detection using oriented histograms of flow and appearance[C]// Proceedings of the 9th European conference on Computer Vision. Graz, Austria: ECCV, 2006, 2: 428?441.
[9] 凌志剛,趙春暉,梁彥,等.基于視覺的人體行為理解綜述[J].計算機應用研究,2008,25(9):2570?2571.
[10] SAAD A, MUBARAKL S. COCOA: tracking in aerial imagery [J]. Proceedings of SPIE Airborne Intelligence, Surveillance, Reconnaissance (ISR) Systems and Applications. Orlando: ISR, 2006: 1?4.