于 碩,李思思,于萬波
(1. 大連財經學院 工商管理學院,遼寧 大連 116600;2. 大連大學 信息工程學院,遼寧 大連 116622)
?
圖像數據的混沌模式的提取與表達*
于碩1,李思思1,于萬波2
(1. 大連財經學院 工商管理學院,遼寧 大連 116600;2. 大連大學 信息工程學院,遼寧 大連 116622)
研究以離散余弦變換(DCT)基函數作為輔助函數,結合序列灰度圖像構造動力系統,然后迭代得到軌跡點集合(近似的吸引子);使用該吸引子能夠將視頻圖像的不同場景鑒別出來,用于視頻分段裁剪等。使用多個DCT基函數矩陣,分別與一個圖像構造動力系統,生成多個近似吸引子,這些吸引子可以作為圖像的特征,用于圖像識別,也可以重構原圖像。
圖像數據;混沌吸引子;離散余弦變換基函數
引用格式:于碩,李思思,于萬波. 圖像數據的混沌模式的提取與表達[J].微型機與應用,2016,35(18):39-41,44.
目前,大數據是許多學科領域的研究焦點[1-3]。大數據細節較多且無規則,不易用現有的數學方法、計算機工具等進行描述和處理[4-6]?;煦绗F象是非線性科學固有的、內在的、普遍的現象,盡管有些研究人員認為混沌是未來數據處理與表達的合適的工具,但是,目前把混沌理論與方法用到大數據處理與表達等并不多見。
圖像數據是大數據的一種,具有可視性、復雜性、冗余性、規則性、隨機性、人腦的可理解性等諸多特點[1,4-6]。對圖像的理解、基于知識的存儲、基于內容的檢索、視頻數據分析等還有很多問題有待解決。對于是否可以用混沌理論與方法處理圖像、識別圖像,查找相關文獻發現了一些這方面的工作,例如LEE C S與ELGAMMAT A用非線性模型來表示人臉等[7-8]?;诜蔷€性理論的方法作為一種新的特征表達方式,也已經開始初步應用于圖像研究領域。
[9]、[10]的研究結果顯示,以類似于文獻[9]、[10]中的函數作為輔助函數,與其他(要處理的)函數或者矩陣構造動力系統,迭代后就可以產生(近似的)混沌吸引子,該吸引子形狀隨著動力系統參數的改變而改變,被處理函數的改變(圖像形狀)越小,其吸引子的輪廓形狀改變就越小?;诖?,文獻[11]、[12]將正弦函數作為輔助函數,圖像作為被處理函數,構造動力系統,迭代后得到的吸引子作為圖像特征,繼而用這種方法提取人臉圖像特征,識別人臉,取得了較好的結果。
在參考文獻[13]中,使用離散余弦變換(DCT)基函數矩陣作為輔助函數,將圖像作為被處理函數,提取吸引子作為圖像特征。因為DCT基函數更加震蕩,具有更好的混沌特性,所以生成吸引子的質量更好。又因為DCT基函數數量眾多,有更多的選擇,所以,與正弦函數等相比,更適合于作為輔助函數。本文研究使用DCT基函數矩陣作為輔助函數,與視頻圖像構造動力系統,發現不同場景得到的吸引子不同,同時發現,使用多個吸引子可以重構圖像。
下文中提到的吸引子都是指近似的混沌吸引子,或者說是動力系統的迭代軌跡。
下面使用DCT基函數矩陣與圖像矩陣構造動力系統。DCT基函數矩陣的定義如下:
(1)
其中, 0≤p≤M-1,0≤q≤N-1,

固定p,q后, R(m,n)都可以看作是以m,n為自變量的二元離散函數。這里令m,n,p,q均為正整數。隨著p,q的變化, 基函數(矩陣)也隨之變化, 共M×N個,選取一個,與灰度圖像矩陣構造動力系統,如式(2)所示:
(2)
式(2)中,f(x,y)表示離散余弦基函數矩陣,g(x,y)表示灰度圖像矩陣。
算法1利用DCT基函數與圖像構造動力系統,然后迭代,生成迭代序列
(1)給定p,q的值以及M,N的值,此處取M=N=256。
(2)計算DCT基函數矩陣A,并用插值方法將其元素值調整到1~256之間。
(3)讀入圖像,適當裁剪邊緣,以便生成質量更好的吸引子。
(4)將裁剪后的圖像調整到M×N大小,記為H;將圖像調整為1~256大小是為了使其與像素值一致,便于下面的迭代操作。
(5)給定初始迭代值(u,v),代入矩陣B,即把(u,v)作為下標,取出矩陣B在(u,v)的元素值,記為z1;再將初始迭代值(u,v)代入矩陣H,即把(u,v)作為下標,取出矩陣H在(u,v)的元素值,記為z2。
(6)將(z1,z2)的值賦值給(u,v),將每次的(z1,z2)記載下來,然后轉到步驟(5)。
(7)將第(6)步重復執行n次。
例如,使用DCT基函數作為輔助函數,對一視頻圖像進行處理,即按照一定時間間隔從視頻圖像中取出圖像,與DCT基函數構成動力系統,使用算法1,迭代生成吸引子,不同場景下的視頻圖像其吸引子區別也比較大,如圖1所示。

圖1 不同視頻場景下的圖像吸引子
圖1中的圖像取自于一段視頻。一般情況下,越復雜的圖像,越容易產生吸引子。
算法2視頻圖像場景變化檢測
(1)給定p,q的值,給定M,N的值,生成基函數矩陣A,將矩陣A的值調整為1~M,此處M、N的值視圖像而定,例如M為每幀圖像的高,N為寬。
(2)讀入視頻圖像的三幀,轉變為灰度圖像,將圖像的灰度值調整為1~N,記做B;分別與矩陣A構成動力系統,迭代生成近似吸引子,記做T1、T2、T3。
(3)將T1、T2、T3進行二維傅里葉變換,得到變換后的矩陣F1、F2、F3。
(4)計算F1、F2的相關系數,記為C1;再計算F2、F3的相關系數,記為C2。
(5)計算C1與C2差值絕對值D1,C2與C3的差值絕對值D2。
(6)如果D1遠小于D2,那么T1、T2場景相同,T2、T3場景不同;如果D1與D2的差值較小,那么T1、T2、T3場景相同。
下面使用多個DCT基函數矩陣,分別與一個圖像構造動力系統,生成多個近似吸引子,然后再使用這些吸引子,重構原圖像。
以Lena圖像作為被處理函數,為了便于分析,對Lena圖像進行了截??;與256×256的DCT基函數矩陣構造動力系統,p,q的值分別為(2,2)、(3,3)、(4,4)、(5,5)、(6,6)、(7,7),使用算法1,得到的近似吸引子點陣如圖2所示。

DCT基函數矩陣M=256,N=256, (p,q) 的值分別為(2,2),(3,3),(4,4),(5,5),(6,6), (7,7),圖像使用Lena圖像圖2 近似吸引子點陣
吸引子用二維點集的形式表現,但是如果記錄下這些點的先后順序,便可以表達(記載)圖像的灰度信息。圖3

圖3 吸引子點陣的三維顯示
就是根據吸引子點產生的先后順序,將二維吸引子轉化為三維點陣;(x,y)是圖像的像素位置,z軸是圖像的灰度值。這些位置與灰度值來源于圖像,可以表達圖像的某種特征,也可以近似復原圖像。
利用圖3所示的吸引子三維點陣,可以近似復原圖像。例如,使用語句forp=1 to 2, forq=1 to 2,嵌套循環,即利用(p,q)為(1,1),(1,2),(2,1),(2,2)這4個DCT基函數矩陣,復原后效果如圖4(a)所示;利用forp=1 to 5, forq=1 to 5嵌套循環,得到25個DCT基函數矩陣,復原效果如圖4(b)所示;利用10×10=100個吸引子復原效果如圖4(c)所示;利用15×15,30×30,40×40個吸引子的復原效果分別如圖4(d)、(e)、(f)所示。

圖4 利用吸引子點陣重構圖像
在圖像復原的時候,如果繪制出一個點,將這個點的周圍點也繪制出來,可以加速圖像復原。例如,當每次繪制周圍的3×3個點時,使用前100個(p,q)就可以繪制出如圖5(a)所示效果,與圖4(c)相比,復原效果更好。如果繪制每點周圍5×5個點,那么使用前49個(p,q)就可以復原出如圖5(b)所示效果。

圖5 利用吸引子點陣重構圖像(每次繪制每點周圍多個點)
49個近似吸引子疊加在一起,能夠重構圖像輪廓;這意味著49個稀疏的三維數組代表著一個Lena圖像;需要的時候組合,不需要的時候可以分散放到吸引子庫中。
在已有文獻的基礎上,將輔助函數改為離散余弦變換基函數,與圖像構造動力系統,得到的近似吸引子可以作為視頻圖像分割的依據。這種方法與其他圖像特征提取方法存在著本質上的不同。
視頻圖像數據是一種大數據,既然這種方法可以應用于圖像處理、圖像模式提取,那么也可以經過改進后,用于其他數據處理。
進一步的工作是,改進這種數據存儲與表達方式,嘗試建立一種新的索引方式,即點陣與概念索引方式。例如“臉”這個概念,是否對應著“高一級”的點陣,即吸引子點陣的一種索引結構。
這是一種特征提取與存儲方法,是否可以成為一種數據分解與重構的方法還有待于進一步研究。
參考文獻
[1] KOMMINENI J, SATRIA M, MOHD S S. Content based image retrieval using colour strings comparison[J]. Procedia Computer Science, 2015,50:374-379.
[2] Wu Fei, Wang Zhuhao, Zhang Zhongfei, et al. Weakly semi-supervised deep learning for multi-label image annotation[J]. IEEE Transactions on Big Data, 2015(1):109-122.
[3] TEMESGUEN M, RUSSEL C H, TIMOTHY R T. Segmentation of pulmonary nodules in computed tomography using a regression neural network approach and its application to the lung image database consortium and image database resource initiative dataset[J]. Medical Image Analysis, 2015, 22(1):48-62.
[4] Tian Xinmei, Lu Yijuan, STENDER N, et al. Exploration of image search results quality assessment[J]. IEEE Transactions on Big Data, 2015,1(3):95-108.
[5] ZANG M, WEN D, WANG K, et al. A novel topic feature for image scene classification[J]. Neurocomputing, 2015, 148(1):467-476.
[6] WEINMANN M, URBAN S, HINZ S, et al. Distinctive 2D and 3D features for automated large-scale scene analysis in urban areas[J]. Computers & Graphics, 2015, 49(7):47-57.
[7] Yuan Yuan, Wan Jia, Wang Qi. Congested scene classification via efficient unsupervised feature learning and density estimation[J]. Pattern Recognition, 2016, 56:159-169.[8] Lin Liang, Wang Xiaolong, Yang Wei, et al. Discriminatively trained and-or graph models for object shape detection[J] IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(5):959-972.
[9] 于萬波, 趙斌. 曲面迭代混沌特性研究[J] 物理學報, 2014,63(12):29-39.
[10] 于萬波. 截面的幾何形狀決定三維函數的混沌特性[J]. 物理學報, 2014(12):20-28.
[11] 于萬波, 王大慶. 圖像函數與三角函數迭代的混沌特性研究[C]. 第17屆全國圖象圖形學學術會議論文集,北京: 北京交通大學出版社, 2014.
[12] 于萬波, 王大慶. 曲面迭代混沌特性及其在人臉識別中的應用[J]. 計算機輔助設計與圖形學學報, 2015,27(12):2264-2271.
[13] 于萬波. 混沌的計算分析與探索[M]. 北京:清華大學出版社,2016.
Expression of chaotic pattern of image data based on iteration
Yu Shuo1,Li Sisi1,Yu Wanbo2
(1. School of Business Administration, Dalian University of Finance and Economics, Dalian 116600,China; 2. College of Information, Dalian University, Dalian 116622, China)
This paper used the discrete cosine transform (DCT) basis function as an auxiliary function together with the gray image of the sequence to construct the dynamic system, and then achieved the trajectory point set (approximate attractor) by iteration. This attractor can be used to distinguish the different scenes of the video image. It Used a number of DCT basis function to construct respectively with an image dynamic system to generate a number of approximate attractor. These attractors can be used as image features for image recognition, and can also be used to reconstruct the original image.
image data; chaotic attractor; discrete cosine transform basis function
遼寧省自然科學基金(201602034)
TP391
ADOI: 10.19358/j.issn.1674- 7720.2016.18.011
2016-05-25)
于碩(1990-),女,碩士,助教,主要研究方向:大數據、圖像處理。
李思思(1994-),女,本科生,主要研究方向:圖像處理。
于萬波(1966-),通信作者,男,博士,副教授,主要研究方向:圖形圖像、人工智能。E-mail:yu_wb@126.com。