網絡出版地址:http://www.cnki.net/kcms/detail/23.1538.TP.20150326.1015.003.html
深度信念網絡的二代身份證異構人臉核實算法
張媛媛,霍靜,楊婉琪,高陽,史穎歡
(南京大學 計算機軟件新技術國家重點實驗室 ,江蘇 南京 210023)
摘要:二代身份證人臉核實問題是指判斷二代身份證人像和身份證使用者當前頭像是否為同一人。具體來說,即將二代身份證模糊人像和實際在光照、背景等因素不可控環境下拍攝的若干張二代證使用者的視頻人像作匹配,判斷是否為同一個人。由于低分辨率模糊圖像和清晰視頻圖像屬于2種不同的圖像模態,因此該問題屬于異構人臉識別問題。考慮到跨模態人臉圖像的差異,傳統的特征抽取方法很難抽取判別性特征來描述不同模態圖像,使得傳統方法難以達到精準辨別。針對這個問題,提出了一種新的基于深度學習的解決方法,其基本思想是通過深度信念網絡(DBN)的非監督貪心逐層訓練來提取人臉圖像的高層特征,結合傳統的圖像預處理和相似性度量技術,達到人臉核實的目的。通過在256人的真實二代證數據集上和傳統特征降維方法PCA、LDA進行比較,證實了所提出方法在準確率上相比PCA有約12%的提升,相比LDA有約8%的提升。實驗同時表明,針對數據量增大的情況,基于深度學習的解決方法要優于傳統的人臉識別方法。
關鍵詞:人臉核實;多模態;深度學習;深度信念網絡
DOI:10.3969/j.issn.1673-4785.201405060
中圖分類號:TP391文獻標志碼:A
收稿日期:2014-05-28. 網絡出版日期:2015-03-26.
基金項目:國家自然科學基金資助項目(61035003,61175042).
作者簡介:
中文引用格式:張媛媛,霍靜,楊婉琪,等. 深度信念網絡的二代身份證異構人臉核實算法[J]. 智能系統學報, 2015, 10(2): 193-200.
英文引用格式:ZHANG Yuanyuan, HUO Jing, YANG Wanqi, et al. A deep belief network-based heterogeneous face verification method for the second-generation identity card[J]. CAAI Transactions on Intelligent Systems, 2015, 10(2): 193-200.
A deep belief network-based heterogeneous face verification method
for the second-generation identity card
ZHANG Yuanyuan, HUO Jing, YANG Wanqi, GAO Yang, SHI Yinghuan
(State Key Laboratory for Software Technology, Nanjing University, Nanjing 210023, China)
Abstract:The objective of the face verification method for the second-generation identity card is to determine whether the original head-photo stored in the corresponding identity card image and the currently captured head photo of the card-holder by using a video camera image actually belongs to the same person or not. To obtain a good verification result for the heterogeneous face verification method is a very challenging task because the two different types of images belong to two different modalities (e.g., different image resolutions, different illumination conditions). Considering the difference of trans-modal face images, it is hard to use traditional feature extraction methods to extract discriminative feature for description of images with different modes. Traditional feature extraction methods cannot distinguish images exactly. In this paper, a deep learning-based face verification method is proposed. The proposed deep learning-based face verification method integrates the deep belief network (DBN), which employs unsupervised greedy layer-by-layer training for high-level feature extraction of face photo and combines the popularly used image preprocessing and similarity measurement technologies to realize the purpose of face verification. The results were evaluated on a real dataset with two different modalities of 256 different people. This method outperforms the traditional principal component analysis (PCA) and linear discriminant analysis (LDA) methods with 12% and 8% improvements in terms of the verification accuracy, respectively. The results validated the advantage of the proposed method, especially when the amount of entries increases.
Keywords:face recognition;multimodes; deep learning; deep belief network

通信作者:張媛媛.E-mail:zhangyuanyuan2013nju@gmail.com.
目前,中國公民廣泛使用第2代身份證作為身份識別的手段。然而,隨著近年來社會對于治安監控的逐步重視,基于計算機輔助的面向第2代身份證的人臉核實問題成為許多研究者關注的問題。
早期的人臉核實研究大都針對受控環境下的人臉識別問題,該問題目前已經可以被較好地解決。但在拍照環境不確定、用戶不配合、年齡更替等不可控環境下,人臉核實的正確率急劇下降。因此,目前大部分的研究開始關注不受控環境下的人臉核實問題,該問題的主要難點在于環境、光照、姿態、年齡更替等因素引起的人臉外觀急劇變化,從而導致識別困難[1-2]。
1相關工作
本文重點研究了二代身份證的人臉核實問題,該問題屬于不受控環境下的人臉核實問題。如圖1,判斷二代身份證的模糊人臉圖像和二代身份證使用者的清晰視頻人臉圖像是否屬于同一個人。在這個問題中,影響核實系統性能的因素主要有:
1)模態差異。二代身份證上人像屬于低分辨率圖像模態,而現實情境下的視頻人像屬于清晰圖像模態;
2)人臉內部變化。年齡增長導致的面部變化、人臉的表情變化和裝飾物等;
3)外在環境因素。如拍攝地點不同而造成的光照問題、角度問題等。
不同于已有的不受控環境下的人臉核實問題,二代身份證的人臉核實問題由于涉及到匹配清晰和模糊2種不同模態的人像,該問題屬于異構的人臉核實問題。由于模態不同導致的人臉圖像之間的差異通常很大,因此對于異構人臉核實問題,想要達到精確判別十分困難。

圖1 異構情境下的人臉核實 Fig.1 Heterogeneous face verification
對于傳統的人臉核實算法,其基本假設是在進行人臉區域提取后,同一個個體內部的人像差異小于不同個體間的人像差異[3],其解決手段主要為通過降維的方法來提取人臉圖像特征,包括主成分分析(PCA)[4-5]、線性判別分析(LDA)[6]、局部保持投影(locality preserving projection,LPP)[7]等,然而上述方法皆屬于淺層學習模型[8],其局限性在于有限樣本和計算單元情況下對復雜分類問題的函數表示能力有限,難以發現最具有判別能力的特征。此外,對于異構人臉核實問題,圖像模態導致的差異通常伴隨個體不同導致的人像差異,大部分傳統方法無法考慮模態的差異進行特征提取,從而在此應用上會失效[9]。
近年來,隨著深度學習概念的提出,以深度信念網絡(deep belief networks,DBN)為代表的深度神經網絡模型,以其揭示數據中所隱藏的有用信息,而受到研究者們廣泛的關注[10-11]。
DBN模型是一種逐層貪婪預訓練的深層神經網絡模型,它克服了傳統神經網絡在訓練上的難度,通過多層來獲得更加抽象的特征表達,挖掘隱藏在圖像的像素特征之上的高維抽象特征。因此,針對二代身份證的人臉核實問題,在特征抽取部分首次使用了基于DBN的非監督貪心逐層預訓練的方法進行權值初始化,結合傳統的圖像預處理和相似性度量技術,通過深層模型的特征抽取,學習到對數據有更本質的刻畫的特征,繼而提升人臉核實問題的準確性。
傳統的人臉識別方法關注解決受控環境下的人臉識別,近年來,研究者們更多地關注不受控環境下的人臉識別問題[12-14]。其中,異構人臉識別問題是一個研究熱點。
一般來說,針對異構人臉圖像的識別技術通常分為2類:1)通過某種方法將由視圖導致的人像特征差異減小,如針對近紅外異構人臉數據集,Klare等[15]提出了對紅外線人像(NIR)和可見光人像(VIS)進行隨機子空間投影和稀疏表示來進行匹配的方法,Yi等[16]提出典型相關分析方法來學習NIR和VIS人像間的相似性;2)通過將其中一種模態的人像轉化為其他模態的人像,再進行匹配,如針對近紅外異構人臉數據集,Wang等[17]提出了合成和分析的方法將NIR人像轉變為合成的VIS人像,Chen等[18]使用局部線性嵌入算法將NIR人像轉變為VIS人像。
深度學習是基于Hubel-Wiesel仿生學模型,通過“逐層初始化”建立的多層人工神經網絡模型。深度學習的實質是通過構建具有很多隱層的機器學習模型和海量的訓練數據,來學習更有用的特征。區別于淺層學習,深度學習的不同在于:1)強調了模型結構的深度,通常有4層、5層甚至10層的隱藏層節點;2)明確了特征學習的重要性,即通過逐層特征變換,將樣本在原始空間的特征表示變換到一個新的特征空間,從而使分類或者預測更加容易。在人臉核實問題上,Sun等[19]提出將卷積神經網絡(convolutional neural networks,CNN)和限制性玻爾茲曼機(restricted Boltzmann machines,RBM)相堆疊,利用CNN的二維特征提取和RBM的一維特征抽象的特性,在LFW(labeled faces in the wild home)[20]數據集上用以自然環境下的人臉核實問題,核實結果準確率為86.88%的。本文相對于以往工作的主要創新是首次將深度學習引入到異構人臉核實問題上,解決了判別性特征難以提取的問題。
2DBN的基本原理
2.1RBM模型
RBM是一個層內節點相互獨立,層間節點的聯合概率分布滿足Boltzmann分布的二部圖模型。如圖2,下層是可視層,即輸入數據層,可視節點用v∈Rl表示,其偏置為b∈Rl,上層是隱藏層,隱藏節點用h∈Rs表示,其偏置為c∈Rs,可視層和隱藏層之間的連接權值用W∈Rl×s表示。對于圖像而言,像素層對應于可視層,特征描述子對應于隱藏層[21]。

圖2 RBM模型 Fig.2 RBM model
受統計學中能量泛函的啟發,RBM模型引入了能量函數,可視節點和隱藏節點的聯合組態(v,h)的能量函數為
依據Boltzmann分布,可視節點和隱藏節點的聯合概率分布為

有了聯合概率,很容易得到
(1)
此外,從統計學的概念出發,定義自由能量函數:
FreeEnergy(v)=-ln∑he-E(v,h)
(2)
自由能量函數是描述整個系統狀態的一種測度。系統越有序或者概率分布越集中,每個訓練樣本經過RBM網絡編碼到隱藏節點的取值概率也越集中,系統的能量就越小,此時RBM系統能夠更好地擬合數據分布。
聯合(1)、(2)可以得出
lnp(v)=-FreeEnergy(v)-lnZ
(3)
式(3)兩邊做個累加,可得
∑vlnp(v)=-∑vFreeEnergy(v)-∑vlnZ
可看出一個系統自由能量的總和最小的時候,正是∏vp(v)最大的時候,也就是說,用極大似然估計去求得∏vp(v)的參數能讓RBM系統的自由能量總和達到最小,此時RBM系統能夠最好地擬合數據分布。
定義∏vp(v)的似然函數為
式中:N為節點的個數,θ={W,b,c}為RBM模型的參數。
用極大似然估計去求參數,可得到
式中:EPdata[vjhi]為獨立數據期望,EPθ[vjhi]為模型期望。其中,模型期望的獲得是十分困難的,其時間與隱藏節點個數成指數關系。因此,Hinton等[22]提出了CDk(contrastivedivergence)方法來模擬梯度的計算,整個算法過程如圖3。

圖3 系統框架 Fig.3 System framework
實驗證明,CDk是一種很好的求解對數似然函數關于未知參數梯度的近似的方法。
CDk算法
輸入:RBM(V1,2,…,Vm,H1,2,…,Hn),
輸出: 梯度估計Δwij,Δbj,Δci。
forj=1,2,…,m,i=1,2,…,n,
初始化Δwij=Δbj=Δci=0forj=1,2,…,m,i=1,2,…,n。
for所有的vdo
v(0)←v
fort=0,...k-1do




整個RBM的訓練過程如下,這里用到了CD1。
一層的RBM模型訓練完畢后,固定其權值Wij及偏置值bj、ci,隱藏層的輸出hi作為原輸入信息的第1個表達,將隱藏層的輸出hi作為其上層RBM的輸入,同樣訓練RBM模型,就會得到第2層的參數及其輸出,其輸出就作為原輸入信息的第2個表達[23]。如此不斷往上疊加RBM,就得到了DBN的初步模型。
以上在DBN模型的構建中統稱為預訓練階段。預訓練將網絡參數訓練到一組合適的初始值,從這組初始值出發會令代價函數達到一個更低的值[24]。經過這種方式的訓練后,再根據重構誤差,使用傳統的全局學習算法,比如BP算法對整個模型進行微調,從而使模型收斂到局部最優點。

算法過程
輸入: 可視節點值x1,
輸出: 隱藏節點值h2。
for所有隱藏節點ido


endfor
for所有可視節點jdo


endfor
for所有隱藏節點ido

endfor
7)b←b+ε(x1-x2)
3人臉核實問題的解決方案
人臉核實問題的解決算法流程如圖3,實線箭頭部分為系統訓練,虛線箭頭部分為系統測試:
1)圖像預處理
對收集到的數據集采用Adaboost算法[25]和主動形狀模型(acitveshapemodel,ASM)[26]進行人臉檢測和關鍵點定位,再按照瞳孔坐標位置進行歸一化,如圖4,可以看到對齊后的效果。將歸一化后的視頻圖像進行模糊化,最后對所有的圖像進行QuotientImage方法去除光照干擾。
2)DBN模型訓練
將按照上述預處理后得到的圖片進行高斯處理,使得均值為1,方差為0,如圖5,打亂訓練樣本圖片,再將每張40×40的圖片拉成一維行向量作為整個DBN模型的輸入。

圖4 歸一化效果圖 Fig.4 Normalization

圖5 高斯處理后的效果圖 Fig.5 Face pictures after Gaussian processing
用于二代證人臉核實問題上的DBN模型如圖6,第1層以1張分辨率為40×40的圖像作為輸入,即包含1600個實值節點的可視層,第2層以及第3層均為二值隱藏層,分別包含4000,2000個節點,最后一層為實值隱含層,也為輸出層,共包含500個節點。
整個DBN模型的訓練過程為:
1)預訓練。逐層疊加訓練RBM模型,直至最高層。此時,整個模型網絡參數的初始值在代價函數最優解附近,很大程度上避免了反向調節時BP算法陷入局部最優。
2)根據重構誤差采用BP算法對整個模型進行反向調節。
整個深度學習模型可以看成是一個特征抽象的過程,即將原來40×40的圖像經過一系列抽象,摒除無用信息,保留高維特征。
3)模型測試。將測試樣本的數據均按照1)所述進行預處理,進行高斯處理后再輸入到2)訓練出的DBN模型中去,最高層的500個節點值作為圖像最終的抽象特征向量。
4)相似性度量。將50個視頻圖像的特征向量和1個二代證圖像的特征向量構成50個(f1,f2)對,其中f1表示視頻圖像特征向量,f2表示二代證圖像特征向量,計算向量的余弦距離,得到50個相似度數值,得到最大的相似度數值作為50張視頻圖像和一張二代證圖像之間的相似度。對上述的相似度數值設置閾值,如果高于一個閾值則視頻圖像和二代證圖像中是同一個人,否則不是同一個人。

圖6 深度學習模型DBN Fig.6 DBN model
4實驗結果與分析
4.1實驗設置
實驗用到的數據集為采集的二代身份證的人像數據集,具體包括:1)第1批采集的98人的二代身份證圖像和視頻圖像(數據集1);2)256個人(第1批98個人+第2批158個人)的二代身份證圖像和視頻圖像(數據集2)。這2個數據集均是在特定的采集環境中采集,涵蓋年齡、光照、姿態、表情等主要變化條件,每個人的數據為51張圖像,包含二代身份證模糊照片1張和視頻拍攝圖像50張。
實驗采用了2種方案進行:1)十折交叉驗證,以數據集2為例,即將256人的數據隨機分成10份,訓練模型使用其中的9份,測試使用其中的1份;2)非十折交叉,在數據集1上,訓練模型使用38個人的數據,測試部分使用60人的數據;在數據集2上,訓練模型使用98人的數據,測試部分使用158人的數據。
測試中使用的反例為十重交叉驗證中一份數據中不同人的視頻人像和二代證人像的組合。測試的準確率是正確判別的準確率(同一個人的圖像分類為同一個人,不同的人的圖像分類為不同的準確率;且閾值的選取為使得正確分類正例和正確分類反例的準確率相同時的值)。
4.2深度學習核實結果
通過DBN深度學習模型的特征抽取,2個數據集的人臉核實準確率結果如表1。

表1 2個數據集上的正確率比較
從表1可以看出,采用十折交叉的數據集2的效果最好,最高可以達到67.60%的準確率。從數據集1和數據集2的對比結果可知,訓練數據越多,深度學習越能充分挖掘海量數據中隱藏的豐富信息。而數據集1的非十折交叉準確率僅有51.21%,相當于一個弱分類器的效果。為了可視化地說明RBM用于特征描述的表現能力,給出數據集1和數據集2上的人臉圖像及其經過DBN非監督貪心逐層訓練得到的特征的重構圖像示例,如圖7、8。由于訓練樣本過少,如圖9,測試樣本圖像與其重構結果相差較大,說明模型過擬合現象較為嚴重。將數據集2的十折交叉的測試結果也可視化,如圖8,可看出重構結果比圖7(b)更具有區分能力。
4.3和傳統方法的對比結果
將深度學習模型和傳統的特征降維PCA、LDA方法在二代證人臉核實上的準確率進行對比,以十折交叉的方案為例,如表2可看出,深度學習模型的解決方法在準確率上優于傳統特征降維方法;應用問題數據量越大,深度模型越能充分挖掘更多有價值的信息和知識,效果越好,而傳統方法則不然。

(a)原圖像

(b)重構圖像 圖7 數據集1中訓練樣本和測試樣本的原圖像和重構圖像 Fig.7 The original pictures and constructed pictures of training set and test set in dataset_1

圖8 數據集2中訓練樣本和測試樣本的原圖像和重構圖像 Fig.8 The original pictures and constructed pictures of training set and test set in dataset_2

方法數據集1/%數據集2/%PCA55.3355.50LDA59.9459.92DBN模型61.8967.60
4.4層數對核實結果的影響
此外,還對DBN模型深度的設計做了相應的實驗,如表3所示,以數據集2的非十折交叉為例,第1層到第4層逐層疊加之后的核實準確率是逐漸提升的,這表明此時的深度是有益的,而第5層時的準確率未有明顯提升,表明模型的深度4已經足夠。

表3 DBN模型對應的每層表現
從以上結果和分析中可以看出,深度學習模型的實質是通過構建具有一定深度的機器學習模型和海量的訓練數據,來學習更有價值的特征,從而提升問題的準確性。所以,“深度模型”是手段,“特征學習”是目的[27]。
當然,DBN模型也有其局限性,首先,其訓練時間較長;其次,高分辨率圖像必須經過壓縮才能用于DBN模型;最后,DBN只關注圖像的一維像素特征而忽略了圖像本身固有的二維特性,諸如局部平移不變性等等,這些問題都有待進一步解決。
5結束語
本文結合傳統的圖像預處理和相似性度量技術,把基于DBN的非監督貪心逐層訓練的方法用于特征提取和降維,將深度學習運用在公安監控二代證核實問題上,提出的方法取得了相比傳統方法更高的準確率。它為異構人臉核實和深度學習相結合的問題的研究提供了新的思路。而如何更加有效地深度挖掘圖像的抽象特性,是一個值得深度研究的課題。一方面可以借鑒文獻[28],將RBM進行Convolution和Pooling操作,構成CDBN(convolutional deep belief networks)模型,另一方面也可借鑒文獻[19],將CNN和RBM 2種基本模型層層堆疊成一個深度模型,此外,還可以結合二代證人臉核實問題的特殊性,即異構特征,針對不同模態下的人臉圖像設計出不同的深度學習模型,用其他學習策略,如度量方法,學習不同模型之間的相似性等等,這方面的問題都有待于進一步研究。
參考文獻:
[1]CHAN C H, TAHIR M A, KITTLER J, et al. Multiscale local phase quantization for robust component-based face recognition using kernel fusion of multiple descriptors[J]. Pattern Analysis and Machine Intelligence, 2013, 35(5): 1164-1177.
[2]LIAO S, JAIN A K, LI S Z, et al. Partial face recognition: alignment-free approach[J]. Pattern Analysis and Machine Intelligence, 2013, 35(5): 1193-1205.
[3]CAO X, WIPF D, WEN F, et al. A practical transfer learning algorithm for face verification[C]//The IEEE International Conference on Computer Vision. Sydney, Australia, 2013: 3208-3215.
[4]SIROVICH L, KIRBY M. Low-dimensional procedure for the characterization of human faces[J]. Journal of the Optical Society of America, 1987, 4(3): 519-524.
[5]TURK M A, PENTLAND A P. Face recognition using eigenfaces[C]//Computer Vision and Pattern Recognition. [S.l.], 1991: 586-591.
[6]SCHOLKOPFT B, MULLERT K R. Fisher discriminant analysis with kernels[C]//Proc of IEEE International Workshop on Neural Networks for Signal Processing. Madison, USA, 1999: 41-48.
[7]HE X, NIYOGI P. Locality preserving projections[C]//Annual Conference on Neural Information Processing Systems. British Columbia, Canada, 2003, 16: 234-241.
[8]BENGIO Y, LAMBLIN P, POPOVICI D, et al. Greedy layer-wise training of deep networks[C]//Neural Information Processing Systems. Vancouver, Canada, 2007, 19: 153-160.
[9]LIN D, TANG X. Inter-modality face recognition[J]. European Conference on Computer Vision, 2006, 3954(4): 13-26.
[10]HINTON G E, OSINDERO S, TEH Y W, et al. A fast learning algorithm for deep belief nets[J]. Neural Computation, 2006, 18(7): 1527-1554.
[11]HINTON G E. Learning multiple layers of representation[J]. Trends in Cognitive Sciences, 2007, 11(10): 428-434.
[12]BARKAN O, WEILL J, WOLF L, et al. Fast high dimensional vector multiplication face recognition[C]//The IEEE International Conference on Computer Vision. Sydney, Australia, 2013: 1-8.
[13]SIMONYAN K, PARKHI O M, VEDALDI A, et al. Fisher vector faces in the wild[C]//Proc British Machine Vision Conference. Bristol, UK, 2013: 1-12.
[14]CUI Z, LI W, XU D, et al. Fusing robust face region descriptors via multiple metric learning for face recognition in the wild[C]//Computer Vision and Pattern Recognition. Portland, Oregon, 2013: 3554-3561.
[15]KLARE B, JAIN A K. Heterogeneous face recognition: matching NIR to visible light images[C]//International Conference on Pattern Recognition. Istanbul, Turkey, 2010: 1513-1516.
[16]YI D, LIU R, CHU R, et al. Face matching between near infrared and visible light images[J]. Advances in Biometrics, 2007, 4642: 523-530.
[17]WANG R, YANG J, YI D, et al. An analysis-by-synthesis method for heterogeneous face biometrics[J]. Advances in Biometrics, 2009, 5558: 319-326.
[18]CHEN J, YI D, YANG J, et al. Learning mappings for face synthesis from near infrared to visual light images[C]//Computer Vision and Pattern Recognition. Fla, USA, 2009: 156-163.
[19]SUN Y, WANG X, TANG X, et al. Hybrid deep learning for face verification[C]//IEEE International Conference on Computer Vision. Sydney, Australia, 2013: 1489-1496.
[20]HUANG G B, RAMESH M, BERG T, et al. Labeled faces in the wild: a database for studying face recognition in unconstrained environments[R]. Massachusetts, Amherst, 2007: 07-49.
[21]HINTON G. A practical guide to training restricted Boltzmann machines[J]. Momentum, 2010, 9(1): 599-619.
[22]HINTON G.Training products of experts by minimizing contrastive divergence[J]. Neural Computation, 2002,14(8): 1771-1800.
[23]HINTON G. Learning multiple layers of representation[J]. Trends in Cognitive Sciences, 2007, 11(10): 428-434.
[24]HINTON G. Reducing the dimensionality of data with neural networks[J]. Science, 2006, 313(5786): 504-507.
[25]EDWARDS G J, COOTES T F, TAYLOR C J, et al. Face recognition using active appearance models[J]. Computer Vision—(ECCV). 1998,1407: 581-595.
[26]VIOLA P, JONES M. Fast and robust classification using asymmetric adaboost and a detector cascade[C]//Neural Information Processing Systems. Vancouver, Canada, 2002: 1311-1318.
[27]余凱, 賈磊, 陳雨強, 等. 深度學習的昨天, 今天和明天[J]. 計算機研究與發展[J], 2013,50(9): 1799-1804.
YU Kai, JIA Lei, CHEN Yuqiang, et al. Yesterday, today and tomorrow for deep learning[J]. Journal of Computer Research and Development, 2013, 50(9): 1799-1804.
[28]HUANG G B, LEE H, LEARNED-MILLER E, et al. Learning hierarchical representations for face verification with convolutional deep belief networks[C]//Computer Vision and Pattern Recognition. Newport, USA, 2012: 2518-2525.

張媛媛,女,1991年生,碩士研究生,主要研究方向為機器視覺、機器學習等。

楊婉琪,女,1988年生,博士研究生,主要研究方向為機器學習、機器視覺等。

高陽,男,1972年生,教授,博士生導師,主要研究方向為強化學習、智能agent、智能應用等。