陳凱星,劉 赟,王金海,袁玉波
(華東理工大學 信息科學與工程學院, 上海 200237)
基于遺傳機制和高斯變差的自動前景提取方法
陳凱星,劉 赟,王金海,袁玉波*
(華東理工大學 信息科學與工程學院, 上海 200237)
針對無監(jiān)督或全自動前景提取這一技術難點問題,提出了一種基于遺傳機制和高斯變差的自動前景提取(GFO)方法。首先,利用高斯變差提取圖像中的相對重要區(qū)域,定義為候選種子前景;之后,利用原始圖像和候選種子前景的邊沿信息,根據(jù)連通性和凸球原則生成前景目標區(qū)域輪廓, 稱之為星凸輪廓;最后,構造適應性函數(shù),選擇種子前景,利用選擇、交叉及變異的遺傳機制,得到精確且有效的最終前景。在Achanta數(shù)據(jù)庫和多個視頻上的實驗結果表明,GFO方法的性能優(yōu)于已有的基于高斯變差的自動前景提取(FMDOG)方法,且在識別的準確率、召回率以及Fβ指標上都取得了較好的抽取效果。
圖像處理;視頻監(jiān)控;前景提取;高斯變差;遺傳算法
智能視覺系統(tǒng)是機器人技術的關鍵之一,而圖像與視頻處理技術是視覺系統(tǒng)研究的基礎工作。隨著機器人在中國境內的大規(guī)模應用,人工智能已經(jīng)成為“工業(yè)3.0”和“智能制造2015”的關鍵核心技術之一。在圖像和視頻處理的研究問題中,前景提取是最重要的核心問題之一[1]。
前景是相對于背景的概念,指的是圖像或者單幀視頻中信息的主要部分。有效提取前景是目標分割[2]、識別[3]和行為理解[4]等應用任務的基礎。前景提取的有效性直接影響到各種仿生視覺系統(tǒng)的性能。
到目前為止,前景提取方法大致可以分為兩類:一種是交互式的前景提取[5-6],另一種是全自動的前景提取[7-9]。這兩種方法側重點并不相同,交互式前景提取方法側重于目標邊沿細節(jié),并精準地分離目標與背景,在提取過程中需要人工對圖像進行標注;而全自動的前景提取方法并不考慮邊沿細節(jié),側重于對圖像目標區(qū)域的快速定位,全程無需人工交互。因此,在這個圖像數(shù)量爆炸式增長的時代,人工標注的交互式前景提取方法顯然無法有效處理海量的數(shù)據(jù),探索全自動的前景提取方法進行快速有效地處理海量數(shù)據(jù)已是當前圖像領域研究的趨勢。全自動的前景提取方法的應用前景非常廣,比如運動捕捉、目標識別[10]、圖像剪輯[11]、基于內容的檢索[12]等方面。
自動前景提取技術由于難度較高,盡管有不少專家學者在努力探索和研究,但是所取得的效果往往不佳,主要原因是沒有目標的先驗知識,提取到的前景目標常常殘缺與期望的結果大相徑庭。2013年, Zou等[13]使用基于圖分割和條件隨機場嘗試建立自動分割模型,并在PASCAL VOC 2010圖像數(shù)據(jù)集合上完成前景分割工作,驗證了他們提出的算法的有效性。2014年,Yuan等[14]嘗試使用基于圖像分割算子(Nomalized cut, Ncut)分割,使用高斯變差提取關鍵點,構建自動前景目標提取模型,是一個基于視覺機制的全新的前景提取技術,稱為基于高斯變差的自動前景提取(automatic foreground extraction based on difference of Gaussian, FMDOG)技術。對于圖像目標相對顯著的圖像來說,該算法還是相當有效的,但是算法對于部分圖像仍然出現(xiàn)“過提取”和“前景目標殘缺”現(xiàn)象。
為了解決“過提取”和“前景目標殘缺”的問題,本文提出了一種新的方法。該方法的技術基礎是模擬視覺機制,第一眼看到是候選前景區(qū)域,然后擴大重要候選,過濾掉次要候選,根據(jù)連通性和凸球原則生成有效前景目標輪廓;然后利用遺傳的機制,構造適應性函數(shù),利用選擇、交叉及變異的遺傳機制,得到精確且有效的最終前景。從實驗結果可以看出,本文方法非常有效。
本文技術框架見圖1,提出一種基于遺傳機制和高斯變差的前景目標提取(Foreground Extraction with Genetic Mechanism and Difference of Guassian, GFO)方法,其關鍵思想在于用遺傳的機制,在已有種子前景的基礎上,擴展性地得到較為完整的圖像前景。

圖1 GFO算法流程Fig. 1 Flow chart of GFO algorithm
首先對輸入的原始圖像進行三個重要運算,分別是圖像分割算子(Ncut)、圖像邊沿檢測算子Canny、圖像關鍵點檢測算子(Difference of Guassian, DoG);在此基礎上,結合Ncut分割的區(qū)域和DoG得到的關鍵點數(shù)量,得出初始種群,然后結合邊沿信息利用星凸的概念得到目標輪廓,在構造的適應性選擇函數(shù)的保證下,在輪廓范圍內執(zhí)行遺傳機制,提取出更加完整的前景目標。
在基于GFO算法的圖像目標區(qū)域生長的過程中,假定圖像中像素點的集合當成是生物的種群,那么圖像中的每一個像素點就是種群中的個體GA(x,y)。在初始種群的選擇中,以高斯變差前景提取技術得到的圖像前景區(qū)域為初始種群,并將落在這些區(qū)域中的像素點定義為初始種子點。
通過對各種邊沿檢測算法的分析,本文選用邊沿檢測結果較為完整的Canny算子進行邊沿檢測,并利用得到的邊沿信息逐步地構造出圖像中前景目標的輪廓。
首先,分析利用Canny算子提取原始圖像中的邊沿曲線,結果如圖2所示,圖2(a)是原始圖像,圖2(b)是使用Canny算子提取出的原始圖像的邊沿信息。

圖2 原始圖像邊沿信息Fig. 2 Edge information of original image
從圖2(b)中可以明顯看到,通過Canny算子雖然得到比較完整的圖像前景的邊沿信息,但還存在兩個問題:
1) Canny算子的主要優(yōu)點在于可以比較完整地獲得圖像的邊沿信息,但同時也會產生一些偽邊沿點。以圖2為例,圖(b)中定位的邊沿包含了地面與天空交界的邊沿信息,這一信息對圖中前景的定位會產生一定的干擾。
2)圖2(b)中獲得的邊沿并不是一個封閉的輪廓,無法作為一個限制條件限制遺傳算法對區(qū)域的再生。
為了解決上述的兩個問題,本文提出在通過高斯變差獲得的初步前景區(qū)域中再次用Canny算子提取邊沿信息,結果如圖3所示,圖3(a)為高斯變差分離出的圖像前景目標,圖3(b)為前景目標中的邊沿信息。

圖3 初步前景邊沿信息Fig. 3 Edge information of preliminary foreground
然后,結合原始圖像邊沿信息eI和圖像初步前景的邊沿信息eF,利用圖像邊沿的連通性和像素點之間的顏色相似性獲得較為完整的圖像前景目標的邊沿信息b(x,y),具體過程如下公式所示:
es=eI∩eF
(1)
R′=R(x,y)-R(x0,y0)
(2)
G′=G(x,y)-G(x0,y0)
(3)
B′=B(x,y)-B(x0,y0)
(4)
(5)
(6)
式(6)中:b(x,y)的初始值為es(x,y),可以表示為式(1);ρ((x,y),(x0,y0))代表圖像中相鄰像素點的相似性;R(x,y)、G(x,y)、B(x,y)分別代表像素點在紅層、綠層和藍層的像素值;如式(6)所示,δ為閾值,經(jīng)過大量的實驗,選取為5最適合。
經(jīng)過以上步驟獲得了較為精確和完整的邊沿信息b(x,y),結果如圖4所示,其中,圖4(a)為原始圖像,圖4(b)為原始圖像邊沿信息eI和圖像初步前景的邊沿信息eF的交集,圖4(c)為提取出的圖像中的邊沿信息。下一步的工作就是將獲得的邊沿信息b(x,y)連接成為一個閉合的輪廓。

圖4 處理后圖像邊沿信息Fig. 4 Edge information of image after processing
定義1 給定一個目標前景F,O是其幾何中心,星凸輪廓指的是以O為中心做星型射線與邊沿的最遠交點或者球形封閉邊界點的并集。

圖5 輪廓封閉示意圖Fig. 5 Closed contour diagram
輪廓封閉操作具體步驟如下:
1)計算抽取得到前景的中心點O;
2)以中心點為起點在圖像范圍內做射線,相鄰射線間的夾角均為α;
3)記錄與目標邊沿有交點的射線,并保留交點,如果存在多個交點,則只保留離中心點最遠的那個;
4)依次計算出離各個交點最近的交點;
5)在計算出的距離最近的兩交點間構造橢圓凸包將兩點進行連接;
6)直到所有相鄰交點連接完成,得到封閉的輪廓。
圖6顯示的是經(jīng)過以上過程獲得的圖像的前景輪廓信息,其中圖6(a)為原始圖像,圖6(b)為圖像中的輪廓信息。

圖6 圖像前景輪廓Fig. 6 Contour of image foreground
依據(jù)原圖Ncut分割得到的區(qū)域分布,統(tǒng)計閉合輪廓內各個區(qū)域的區(qū)域連續(xù)種子數(shù)量,然后將統(tǒng)計得到的各個區(qū)域連續(xù)種子數(shù)量進行排序,區(qū)域連續(xù)種子數(shù)量最多的區(qū)域就作為適應度強的種群,由于新增區(qū)域是由圖像的前景區(qū)域向外生成的,因此定義前景區(qū)域的邊界部分為適應度強的種群。優(yōu)先選擇這些點去產生新的像素點可以有效提高遺傳的效率和質量。
圖7展示了GFO算法選種的過程,其中,圖7(a)為適應性強的種群區(qū)域,圖7(b)中種群區(qū)域邊沿上的點為適應性強的種子點,本文優(yōu)先選擇這些點去產生新的像素點。

圖7 適應性種子點Fig. 7 Adaptive seed points
在GFO算法的使用過程中,首先把種群中每一個個體的基因序列定義成一個4維的向量(H,S,V,S_RGB),其中H、S和V分別代表HSV空間中的色度、飽和度和明度,S_RGB代表RGB空間中紅綠藍三層值得總和。由此可知,所定義的像素點的基因序列涵蓋了HSV和 RGB兩個顏色空間的色彩信息,這使得圖像區(qū)域的遺傳增長不僅具有合理性,而且更具有可靠性。
對于初始種群中的每一個個體GA(x,y),值為1表示該像素點在種群中,0表示不在種群中。其次定義適應度強的種子點為父節(jié)點Fa,在父節(jié)點的八鄰域內隨機定義一個在種群中的種子點為母節(jié)點Ma,如果沒有找到母節(jié)點Ma,則該像素點不能產生新的個體,如果找到母節(jié)點Ma,則通過后續(xù)的遺傳機制產生一個新的個體。

圖8 選擇過程Fig. 8 Selecting process
首先執(zhí)行選擇過程得到父節(jié)點Fa和母節(jié)點Ma,然后將得到的父節(jié)點Fa基因序列與母節(jié)點Ma基因序列進行交叉,也就是將父節(jié)點Fa基因序列中的前兩項和母節(jié)點基因中的后兩項來組成子節(jié)點Child,交叉過程如式(7)所示:

(7)
圖9形象地展示了交叉的過程,子節(jié)點Child的前兩個基因序列來自父節(jié)點Fa,后兩個基因序列來自母節(jié)點Ma,最后把經(jīng)過交叉生成的子節(jié)點Child與父節(jié)點Fa八鄰域內的非種群內的且在前景目標閉合輪廓內的點進行比較,如果它們的基因序列的相似度在范圍內,就把該點加入到種群中。
定義2 如果一個種群內的像素點的八鄰域內的所有點都是非種群內的,則將此像素點變異為種群外的像素點; 相反,如果一個種群外的像素點的八鄰域內的所有像素點都是鄰域內的,則將此像素點也變?yōu)榉N群內的點。此即為遺傳變異過程,如式(8)所示:
(8)
圖10形象地描述了變異的過程,圖10(a)表示非種群內的點變異成為種群內的點的過程,圖10(b)表示種群內的點變異成為非種群內的點的過程。

圖10 變異過程Fig. 10 Variation process
當圖像中的像素點變化小于閾值時,停止區(qū)域增長。經(jīng)過大量的實驗,最佳閾值為 0.000 2,它定義為遺傳增長得到的點數(shù)占圖像總點數(shù)的比例。
算法1 基于遺傳和高斯變差的自動前景提取算法。
1)輸入:原始圖像I。
2)輸出:前景目標IGFO。
3)獲取初步前景區(qū)域IFMDOG=FMDOG(I)。
4)利用Canny算子獲得原始圖像邊沿信息eI和圖像初步前景的邊沿信息eF,并通過式(1)和式(6)得到前景邊沿輪廓集合,最終根據(jù)星凸定義計算得到閉合輪廓集合。
5)在前景區(qū)域IFMDOG內選擇父節(jié)點和母節(jié)點。
6)根據(jù)式(7)得到子節(jié)點。
7)在父節(jié)點的八鄰域內按如下規(guī)則選擇子節(jié)點:a)非種群內;b)在前景目標閉合輪廓集合內;c)按照相似性閾值確定是否前景遺傳。
8)根據(jù)式(8)完成像素點變異。
9)判斷遺傳條件是否成立,如果成立執(zhí)行第2)步;否則執(zhí)行第5)步。
本算法復雜性主要由兩個部分組成: 第一部分是種子前景區(qū)域獲取, 第二部分是遺傳生成前景目標。
第一部分需要完成兩個重要的步驟,它們分別是對圖像進行高斯差分處理和關鍵點過濾,則第一部分的復雜度為:
T1(N0,m,n)=O(N0×(m×n)2)
(9)
其中:參數(shù)N0為輸入圖像的總數(shù),m×n為每幅圖像的大小。
第二部分中時間復雜度主要來源于適應性種子點交叉再生,則第二部分的復雜度為:
T2(N0,p,k)=O(N0×pk)
(10)
其中: 參數(shù)p為適應性種子點個數(shù),k為適應性種子點交叉再生像素點的迭代次數(shù)。
最終,算法總的時間復雜度為:
T=T1+T2
(11)
本章將在現(xiàn)有公開的Achanta圖像集[15]上進行FMDOG算法和提出的GFO算法的性能對比。在顯著性檢測鄰域,Achanta的圖像集已經(jīng)被廣泛使用。通過主觀視覺及三個客觀指標對比這兩種算法的性能,從而證明本文提出的GFO算法性能上的優(yōu)越性。
圖11展示了GFO算法的實驗結果,其中,圖11(a)為原始圖像,圖11(b)為使用FMDOG算法的結果,圖11(c)為GFO方法的實驗結果。可以看出,本文方法基本上比FMDOG方法效果好。

圖11 目標提取對比實驗Fig. 11 Object extraction contrast experiment
本文采用準確率(Precision)、召回率(Recall)和Fβ三個評價指標將提出的算法與FMDOG算法進行對比。準確率(Precision)、召回率(Recall)定義公式如下:
(12)
(13)
其中:GT表示人工標注圖中的目標點,SO表示前景提取算法檢測出的目標點。
還有一個評價指標是Fβ,F(xiàn)β能夠很好地評估分割結果的整體性能,它是由準確率和召回率綜合計算而得到的,定義公式如下:
(14)
因為前景目標提取中正確率重要程度要高于召回率,因此這里定義值β2為1,確保準確率的權值要高于召回率。
實驗結果如圖12所示,從實驗結果可以看出,GFO算法在這三種評價指標上的表現(xiàn)都要優(yōu)于FMDOG算法。。

圖12 各評價指標在Achanta數(shù)據(jù)集上對比Fig. 12 Experimental results of evaluation indicators on Achanta
從表1的展示可以更直觀地從總體上對GFO方法與FMDOG方法在3類指標上的表現(xiàn)進行對比。從召回率、準確率及Fβ指標的結果數(shù)據(jù)上看,在Achanta圖像集目標提取上,GFO方法提取效果優(yōu)于FMDOG方法。

表1 在Achanta數(shù)據(jù)集上各評價指標均值Tab. 1 Mean values of evaluation indicators on Achanta
本次實驗選取的視頻序列來自公開的Fukuchi視頻數(shù)據(jù)庫[16],此數(shù)據(jù)庫包含有10個非壓縮AVI剪輯的自然場景,及每個視頻對應的Groung-truth圖像。本文從中選取4個具有代表性的視頻序列應用于實驗,有視頻1(狐貍(Fox))、視頻2(貓(Cat))、視頻3(犀牛(Rhino))和視頻4(單人滑雪(Ski))。選取的視頻分辨率都為352×288。

表2 視頻數(shù)據(jù)庫信息Tab. 2 Video dataset information

圖13 Fukuchi中實驗視頻幀序列Fig. 13 Experimental video sequences on Fukuchi
從圖14視頻數(shù)據(jù)庫部分實驗結果可以看出: FMDOG提取的目標存在目標缺損或者冗余等問題; 本文提出的GFO方法是對FMDOG方法的改進,它可以很好地解決FMDOG方法存在的問題。相比FMDOG方法,GFO提取到的目標更加完整和精確。

圖14 Fukuchi視頻數(shù)據(jù)庫部分實驗結果Fig. 14 Part experimental results on Fukuchi
將視頻數(shù)據(jù)庫運用召回率、準確率及Fβ這三類指標進行評價,其結果如圖15所示。對于本實驗選取的視頻,雖然GFO方法和FMDOG方法在召回率上的表現(xiàn)相差甚小,但是在準確率和Fβ指標上GFO方法明顯更優(yōu)于FMDOG方法,體現(xiàn)了較好的抽取效果。
表3數(shù)據(jù)說明從總體上對GFO方法與FMDOG方法在3類指標上的表現(xiàn)進行對比。從召回率、準確率及Fβ指標的結果數(shù)據(jù)上看,對于本文選取的4種視頻,GFO方法抽取目標的效果要優(yōu)于FMDOG方法。

圖15 在Fukuchi數(shù)據(jù)庫上各評價指標實驗結果Fig. 15 Experimental results of evaluation indicators on Fukuchi表3 在Fukuchi數(shù)據(jù)庫上評價指標均值Tab. 3 Mean of evaluation indicators on Fukuchi

算法Fox視頻評價指標RecallPrecisionFβCat視頻評價指標RecallPrecisionFβRhino視頻評價指標RecallPrecisionFβSki視頻評價指標RecallPrecisionFβFMDOG0.88180.34090.47010.88200.34850.42640.96310.54310.69140.75730.51830.5939GFO0.88170.54450.66660.89210.45520.53980.97770.70180.81470.74540.62390.6610
本文借助遺傳思想提出一種基于像素遺傳的前景目標提取方法。由于像素的遺傳需要限定其遺傳范圍,可通過構造目標輪廓對遺傳進行限定,使其在輪廓內最大化目標的完整性。相比FMDOG方法,本文方法雖然具有較高的復雜性,但其召回率和準確率都有明顯的提高。
References)
[1] ZHANG J, FENG S W, LI D, et al. Image retrieval using the extended salient region [J]. Information Sciences, 2017, 399(C): 154-182.
[2] 王丹丹,徐越,宋懷波,等.融合 K-means 與 Ncut 算法的無遮擋雙重疊蘋果目標分割與重建[J]. 農業(yè)工程學報,2015,31(10):227-234.(WANG D D, XU Y, SONG H B, et al. Fusion of K-means and Ncut algorithm to realize segmentation and reconstruction of two overlapped apples without blocking by branches and leaves [J]. Transactions of the Chinese Society of Agricultural Engineering, 2015, 31(10):227-234.)
[3] 王海英,郭志芬.一種復雜圖像目標的分割與識別[J]. 北京理工大學學報,2000,20(2): 224-228. (WANG H Y, GUO Z F. An approach to complex target segmentation and recognition [J]. Journal of Beijing Institute of Technology, 2000, 20(2): 224-228.)
[4] 張驚雷,張云飛.基于改進分水嶺算法的運動目標行為理解[J]. 計算機工程與設計,2015,36(7): 1840-1844. (ZHANG J L, ZHANG Y F. Behavior understanding of moving objects based on improved watershed algorithm[J]. Computer Engineering and Design, 2015, 36(7): 1880-1844.)
[5] PRICE B L, MORSE B S, COHEN S. Simultaneous foreground, background, and alpha estimation for image matting[C]// Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2010: 2157-2164.
[6] CHEN Y T, SHENG J W. Learning-based hierarchical graph for unsupervised matting and foreground estimation[J]. IEEE Transactions on Image Processing, 2014, 23(12): 4941-4953.
[7] HASSAN M A, MALIK A S, NICOLAS W, et al. Foreground extraction for real-time crowd analytics in surveillance system[C]// Proceedings of the 18th International Symposium on Consumer Electronics. Piscataway, NJ: IEEE, 2014: 1-2.
[8] WANG M, SHEN L, YUAN Y. Automatic foreground extraction of clothing images based on GrabCut in massive images[C]// Proceedings of the 2012 Information Science and Technology. Piscataway, NJ: IEEE, 2012: 238-242.
[9] LEI B, XU L Q. Real-time outdoor video surveillance with robust foreground extraction and object tracking via multi-state transition management[J]. Pattern Recognition Letters, 2006, 27(15): 1816-1825.
[10] ROSENFELD A, WEINSHALL D. Extracting foreground masks towards object recognition [C]// Proceedings of the 2011 International Conference on Computer Vision. Piscataway, NJ: IEEE, 2011: 1371-1378.
[11] LEVIN A, LISCHINSKI D, WEISS Y A. Closed-form solution to natural image matting[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2008, 30(2): 228-242.
[12] SHEKHAR R, CHAUDHURI S. Content-based image retrieval in presence of foreground disturbances[J]. IEE Proceedings — Vision, Image and Signal Processing, 2006, 153(5): 625-638.
[13] ZOU W, KPALMA K, RONSIN J. Automatic foreground extraction via joint CRF and online learning[J]. Electronics Letters, 2013, 49(18):1140-1142.
[14] YUAN Y B, LIU Y, DAI G H, et al. Automatic foreground extraction based on difference of Gaussian[J]. The Scientific World Journal, 2014, 2014: 29074.
[15] ACHANTA R, HEMAMI S, ESTRADA F, et al. Frequency-tuned salient region detection [C]// Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2009: 1597-1604.
[16] FUKUCHI K, MIYAZATO K, KIMURA A, et al. Saliency-based video segmentation with graph cuts and sequentially updated priors [C]// Proceedings of the 2009 International Conference on Multimedia and Expo. Piscataway, NJ: IEEE, 2009: 638-641.
This work is partially supported by the National High Technology Research and Development Program (863 Program) of China (2014AA020107).
CHENKaixing, born in 1992, M. S. candidate. His research interests include computer vision, intelligent monitoring, data mining.
LIUYun, born in 1989, M. S. candidate. His research interests include computer vision, intelligent monitoring, data mining.
WANGJinhai, born in 1995, M. S. candidate. His research interests include computer vision, intelligent monitoring, data mining.
YUANYubo, born in 1976, Ph. D., professor. His research interests include intelligent monitoring, robot vision, large data analysis and optimization modeling, machine learning.
ForegroundextractionwithgeneticmechanismanddifferenceofGuassian
CHEN Kaixing, LIU Yun, WANG Jinhai, YUAN Yubo*
(CollegeofInformationScienceandEngineering,EastChinaUniversityofScienceandTechnology,Shanghai200237,China)
Aiming at the difficult problem of unsupervised or automatic foreground extraction, an automatic foreground extraction method based on genetic mechanism and difference of Gaussian, named GFO, was proposed. Firstly, Gaussian variation was used to extract the relative important regions in the image, which were defined as candidate seed foregrounds. Secondly, based on the edge information of the original image and the candidate seed foregrounds, the contour of foreground object contour was generated according to connectivity and convex sphere principle, called star convex contour. Thirdly, the adaptive function was constructed, the seed foreground was selected, and the genetic mechanism of selection, crossover and mutation was used to obtain the accurate and valid final foreground. The experimental results on the Achanta database and multiple videos show that the performance of the GFO method is superior to the existing automatic foreground extraction based on difference of Gaussian (FMDOG) method, and have achieved a good extraction effect in recognition accuracy, recall rate andFβindex.
image processing; video surveillance; foreground extraction; difference of Gaussian; genetic algorithm
2017- 05- 11;
2017- 05- 26。
國家863計劃項目(2014AA020107)。
陳凱星(1992—),男,福建福安人,碩士研究生,主要研究方向:計算機視覺、智能監(jiān)控、數(shù)據(jù)挖掘; 劉赟(1989—),男,山西太原人,碩士研究生,主要研究方向:計算機視覺、智能監(jiān)控、數(shù)據(jù)挖掘; 王金海(1995—),男,河南信陽人,碩士研究生,主要研究方向:計算機視覺、智能監(jiān)控、數(shù)據(jù)挖掘; 袁玉波(1976—),男,云南宣威人,教授,博士生導師,博士,主要研究方向:智能監(jiān)控、機器人視覺、大數(shù)據(jù)分析與優(yōu)化建模、機器學習。
1001- 9081(2017)11- 3231- 07
10.11772/j.issn.1001- 9081.2017.11.3231
(*通信作者電子郵箱ybyuan@ecust.edu.cn)
TP391
A