摘要:分析了非線性變換對圖像產生的影響,提出一種復合變換補償的方法。該方法產生的變換曲線兩端起伏劇烈而中間平緩,有效地擴充了中間正常光照區域。選取了過亮#65380;過暗和偏光等不同光照條件下的圖像進行實驗,結果表明該方法能對光照進行有效的補償。
關鍵詞:光照補償; 人臉檢測; 非線性變換; 復合變換
中圖分類號:TP391文獻標志碼:A
文章編號:1001-3695(2008)02-0507-02
光照問題[1]是人臉檢測和識別中的一個非常重要而又難以解決的問題。目前,光照變化仍是實用人臉識別系統的瓶頸之一。偏光#65380;側光導致的高光和過亮#65380;過暗#65380;陰影均會使人臉檢測率和識別率大幅度下降,所以有必要對光照進行補償。針對光照補償問題人們已經提出了多種解決方法。較早是利用圖像增強技術的方法,如二維Gabor函數加強邊緣輪廓[2]#65380;非線性變換增強圖像[3]。這類方法針對特定圖像有很好的效果,但應用中有各自的局限性。后來是利用人臉圖像中對光照變化不敏感特征的方法,如人臉器官橫紋特征[4]#65380;圖像的梯度方向[5]等。這類方法對光照變化小的圖像效果好,但對光照變化稍強烈的圖像則效果較差。現在有利用數學模型重構標準化光照條件下人臉的方法,如SFS方法[6](shape-from-sha-ding)#65380;球面諧波函數建模[7]。這類方法適用面廣,可以得到滿意的效果。但這類方法計算復雜,需要高度簡化模型。
本文對彩色圖像的光照特性進行了研究,發現高亮或過暗光照會造成膚色點顏色溢出。這是導致相似度人臉檢測法檢測不完整或失敗的主要原因。在分析了指數#65380;對數變換對圖像產生的影響后提出一種復合的變換補償方法。將整個灰度區間[0,255]分成兩個區間:在[0,127]區間采用對數曲線;在[128,255]區間采用沿兩個對稱軸翻轉的對數曲線。這樣曲線包含了凸凹兩個遞增區間且在灰度值127附近區域變化平緩而兩端變化強烈,就有利于圖像向保持色度信息好的中間亮度點靠攏。實驗表明,該方法能對人臉檢測中的光照進行有效的補償。
1基本概念
1.1顏色空間
YCbCr色彩空間由YUV色彩空間演化而來。其中:Y是亮度信息;Cb和Cr是色度信息。選取YCbCr色彩空間具有以下優點:a)YCbCr色彩空間將色彩中的亮度和色度分量分離出來;b)YCbCr的計算過程和空間坐標表示形式比較簡單,與RGB之間的換算關系是線性的;c)膚色在其色度空間CbCr中的聚類特性較好[8]。
1.2非線性變換
非線性變換是灰度變換法之一。一般形式有兩種,即定義下凹的指數函數和上凸的對數函數[9]。
1)指數變換其形式為g(x,y)=bc[f(x,y)-a]-1。若取a=0,b=256,c=1/255,得到的轉換函數為g(x,y)=256f(x,y)/255-1。函數曲線如圖1(b)所示。
2)對數變換其形式為g(x,y)=a+{ln[f(x,y)+1]}/b ln c。若取a=0,b=1/255,c=256,得到的轉換函數為g(x,y)=255×ln[f(x,y)+1]/ln 256。函數曲線如圖1(c)所示。
從指數變換的曲線可以看出,它將圖像的低灰度區域給予較大的壓縮而擴展高灰度區域。指數變換對面部過亮的圖像有較好的光照補償作用,而對偏光#65380;較暗的圖像則無能為力,如圖1(d)所示。對數變換的效果恰與指數相反。從變換曲線可以看出,對數變換使高灰度區域得到壓縮而低灰度區域得到擴展。對數變換對過暗和偏光的圖像均有較好的光照補償效果。但經變換后,圖像邊緣不清晰,無法提取邊緣信息,如圖1(e)所示。
2復合變換
人視覺感受的亮度是眼睛入射光強的對數函數[10]。經對數變換處理后的圖像柔和,符合人的視覺特點。因此本文選取對數函數作為基函數。對基本對數函數求導可得y=1/x。當x較小時y較大,即增長率大因而灰度變化快;當x較大時y較小,即增長率小因而灰度變化慢,這樣對數曲線表現在低灰度區變化劇烈而在高灰度亮區變化平緩。對數變換將整個圖像拉向高灰度,圖像的邊緣也變模糊了。因此,一般對數函數對過亮圖像補償效果差。考慮到對數與指數變換效果相對立,可以用對數加指數的方法來綜合兩者所長。
由本段開始敘述以及曲線平滑的原因,將指數函數替代為旋轉過的對數函數,從而得到復合函數。式(4)由(3)先沿對稱軸y=127翻轉,再沿對稱軸x=127翻轉得到。復合過程如圖2所示。
復合函數在低灰度區具有對數函數性質而在高灰度區具有指數函數性質。它保留了大部分中間灰度區,并使低灰度區和高灰度區均向127靠攏,從而既可以解決圖像整體偏暗#65380;偏亮又可解決偏光的問題。在使用中發現127值較小,筆者整體向上平移20灰度值。在進行復合變換時,可以用查表法。先建立灰度映射表,然后由查表得到新灰度值,這樣可減少計算量。變換后的圖像也存在邊界不清晰的問題。本文使用拉普拉斯銳化[9]來增強邊緣信息。
3實驗及結果
3.1實驗步驟
工具:Microsoft.NET 2003,基于相似度的人臉檢測程序。
步驟:
a)顏色轉換。定義YCbCr結構包含三個float型的成員變量,分別用來保存Y#65380;Cb#65380;Cr信息。按照式(1)將原圖像的RGB-QUAD型數組轉換為YCbCr結構數組。將亮度Y另存一個BYTE數組,轉換為256級灰度。
b)建立灰度映射表。定義一個1×256的BYTE數組[A0,A1,…,A255],Ai為下標i代入式(3) (4)計算所得再加上平移量20,超過255的賦值255。
c)映射。將原灰度由映射表得到新灰度,保存到結果數組1。
d)銳化。使用拉普拉斯銳化,保存到結果數組2選取的模板[9]是
0-10-15-10-10 。
e)合并。用加權的方法將結果數組1#65380;2合并。實驗用的系數是0.7#65380;0.3。
f)調整。調整是根據亮度Y的變化來調整CbCr的值。調整應注意以下原則:(a)已在膚色范圍內,不用調整。D.Chai和 K.N.Ngan對大量的圖像樣本進行測試[8],得到膚色最適合的范圍是Cr=[133,174],Cb=[77,127]。這一結論已被廣泛采用,本文亦采用了這一范圍。(b)原灰度值在80~230,顏色不會溢出或溢出影響很小,不用調整。(c)灰度高于230值而CrCb均接近128的,視為白色不調整。(d)灰度低于80的,而CbCr在眼睛色度范圍Cr=[125,135],Cb=[120,130],不用調整。因此調整集中在高亮度而非白色#65380;低亮度非眼睛的區域。調整量根據變換前后的灰度差乘以系數。本文采用的是0.5。
g)還原。將調整過的YCbCr結構數組按照式(2)轉換為RGBQUAD型數組。
3.2實驗結果
實驗對象:自取圖像,由普通攝像頭拍攝320×240 Yale B人臉庫,美國耶魯大學,共10個子集,每個子集有576張灰度圖像,大小為640×480。
圖3(a)是原圖,可以看到左半臉部光照過亮且右下有陰影;(b)和(f)是經相似度計算后得到的灰度圖;(c)和(g)是二值化后的單色圖;(d)是原圖經檢測后的膚色區域,其左半部和右下部殘缺;(e)是變換后的圖像,其灰度分布更均勻,過亮和過暗區域均得到補償;(h)顯示膚色區擴展到了整個人臉。
圖4(a)和(b)是選取Yale B人臉庫第一個子集中較暗和有偏光的兩張圖像;(c)和(d)是對應變換的結果圖,可以看出復合變換有明顯的補償效果。
4結束語
本文采用復合變換補償的方法,將整個灰度區間分為兩個子區間,分別定義為凸凹的兩個函數。凸函數具有對數函數性質,凹函數具有指數函數性質,這樣就綜合了對數和指數函數兩者的優點。復合函數使高低兩個灰度區得以擴展,而中灰度區得到壓縮。因此對高亮和陰暗區均有效,又不會造成變換后圖像過亮或過暗。本文采用拉普拉斯銳化加強了邊界。
從實驗結果可以看出,用本文的方法可以對大部分光照不均勻的圖像進行有效補償,補償后的彩色圖像可以檢測出完整的人臉。但對一些光照很惡劣的圖像,如人臉過度曝光為白色#65380;人臉邊界與背景無法區分則沒有效果。另外,如果過暗的彩色圖像色度信息丟失嚴重,用本文方法補償可能造成誤檢。
參考文獻:
[1]PHILLIPS P J, MOON H, SYED A, et al. The FERET evaluation methodology for face-recognition algorithms[J]. IEEE TPAMI, 2000,22(10):1090-1104.
[2]BUHMANN J, LADES M, BECKMAN F. Silicon retina object recognition,No 8596-CS[R]. Bonn: Institute for Informatics University Bonn, 1993.
[3]REISFELD D, YESHURUN Y. Robust detection of facial features by generalized symmetry[C]//Proc of International Conference on Pattern Recognition.[S.l.]: The Hague Netherlands, 1992:117-120.
[4]MIAO J, YIN B C, WANG K Q, et al. A hierarchical multiscale and multiangle system for human face detection in a complex background using gravity-center template[J]. Pattern Recognition, 1999,32(7):1237-1248.
[5]CHEN H F, BELHUMEUR P N, JACOBS D W. In search of illumination invariants[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. 2000:254-261.
[6]ZHAO W, CHELLAPPA R. Illumination-insensitive face recognition using symmetric shape-from-shading[C]//Proc of IEEE Conference on CVPR. 2000:286-293.
[7]卿來云,山世光,陳熙霖,等.基于球面諧波基圖像的任意光照下的人臉識別[J].計算機學報,2006,29(5):760-768.
[8]CHAI D, NGAN K N. Automatic face location for videophone images[C]//Proc of IEEE Region Ten Conference. 1996:137-140.
[9]李弼程,彭天強,彭波.智能圖像處理技術[M].北京:電子工業出版社,2004:63-95.
[10]FRANK S. WERBLIN control of retinal sensitivity[J]. The Journal of General Physiology, 1974,63(1):62-87.
“本文中所涉及到的圖表、注解、公式等內容請以PDF格式閱讀原文”