







收稿日期:2023-07-15
DOI:10.19850/j.cnki.2096-4706.2024.03.016
摘" 要:由于采集的圖像中存在遮擋、圖像分辨率低、人姿態發生改變等干擾因素,行人重識別的研究極具挑戰性。為此,文章提出基于注意力機制與多粒度特征的行人重識別網絡。首先,針對行人姿態的改變,設計了一種多粒度特征提取模塊,使用多分支網絡聯合注意力機制提取多層次全局特征與局部特征。其次,針對行人局部未對齊問題,文章提出了一種鄰域自適應特征融合模塊。此外,為保留更多的有用信息,文章還設計了一個自適應特征池化模塊。在兩個公開數據集進行了實驗,與其他方法的比較結果驗證了所提出方法的有效性。
關鍵詞:行人重識別;深度學習;自適應特征池化;特征表示;多粒度特征
中圖分類號:TP391.4" 文獻標識碼:A" 文章編號:2096-4706(2024)03-0073-06
Research on Pedestrian Re-identification Method Based on Multi-granularity Features
LI Jing1, CHEN Tianli2, LAN Ling3, WU Jianbin4
(1.Wengyuan County Public Security Bureau, Shaoguan" 512600, China; 2.Xinfeng County Public Security Bureau, Shaoguan" 511100, China; 3.Beijiang Middle School, Shaoguan" 512000, China; 4.Teacher Development Center of Wujiang District, Shaoguan" 512000, China)
Abstract: Due to interference factors such as occlusion, low image resolution, and changes in person poses in the collected images, the research on person re-identification is extremely challenging. To this end, this paper proposes a pedestrian re-identification network based on Attention Mechanism and multi-granularity features. Firstly, in response to the change of pedestrian posture, this paper designs a multi-granularity feature extraction module, which uses a multi-branch network joint Attention Mechanism to extract multi-level global features and local features. Secondly, for the pedestrian local misalignment problem, this paper proposes a neighborhood adaptive feature fusion module. In addition, in order to retain more useful information, this paper also designs an adaptive feature pooling module. It conducts experiments on two public data sets, and the comparison results with other methods verify the effectiveness of the proposed method.
Keywords: pedestrian re-identification; Deep Learning; adaptive feature pooling; feature representation; multi-granularity feature
0" 引" 言
隨著社會的逐漸發展與科技水平的不斷提高,先進的科學技術不斷服務于社會的和諧穩定。為了防止一些大型的公共場所中安全事件的發生,在大型公共場所安裝了大量的監控攝像設備。這些大量的監控設備可以有效地保障社會穩定和人身財產的安全,同時,通過攝像頭所獲取到的數據已經成為公安部門偵破犯罪案件的一個非常重要的手段。但是隨著視頻監控數據的大量增長,通過人工的方式對監控所拍攝的視頻圖像進行目標行人的識別不僅耗費大量的精力,而且也是非常耗時的。因此,行人重識別(Person Re-identification, ReID)逐漸成為一個研究的熱點問題。
1" 相關工作
行人重識別是一種比較特殊的非重疊攝像機下的人員匹配的問題,它主要的目標是通過一個感興趣的行人圖像可以在不同的時間、不同地點或者是不同監控設備下進行目標行人的檢索[1]。
在早期的研究階段,研究者們的主要還是依靠于傳統方法進行研究,主要是特征提取和相似性度量兩方面的研究[2,3]。
在特征提取方面的研究主要是基于特征表示的方法,通過手工的方式來進行特征的設計。比較常用的方法有形狀、顏色以及紋理特征等。其中,梯度直方圖(HOG)[4],尺度不變特征變換(SIFT)[5,6]是用來表示形狀特征,基于顏色特征的方法通常使用 LAB、HSV、RGB等表示行人的特征?;诩y理特征的方法有局部二值模式[7],Gabor濾波[8],共生矩陣[9]。隨著研究的發展,也有很多學者會研究行人外觀的描述,Liao等人[10]為了能夠更好地提取特征,他們提出了一種局部最大特征描述,首先將行人的圖像進行輸入,再提取HSV顏色直方圖特征,同時不只是提取一種特征,還使用了SILTP提取紋理直方圖特征,選擇直方圖中的最大值來構成新的直方圖。Farenzena等人[11]提出了一種 SDALF方法,這種方法就是對稱驅動的局部特征積累方法,Gray等人[12]提出了局部特征的集合(ELF)方法,該方法可以將輸入進行分割。
Ma等人[13]還提出了一種局部描述子(LDFV)的方法,該描述子是基于Fisher向量的方法,在這篇文章中Ma等人提出了一個新的描述子,BiCov描述子。該方法不僅在特征表示上使用了顏色特征和紋理特征,而且還新增加了行人的屬性特征,增加完善了特征表示的信息。
行人重識別中另一個研究就是度量學習。目前,研究者們常用的方法主要是集中于兩種,一種是在研究過程中常用的歐氏距離(ED),另外一種就是更加有優勢的馬氏距離(MD)。Kostinger等人[14]提出了一種保持簡單和直接的度量學習(KISSME)方法,該方法更加適用于大規模數據集。Weinberger等人[15]同樣提出了新的度量方法,大邊距最近鄰(LMNN)方法。該度量學習方法的提出存在一個問題,那就是會在實驗過程中發生過擬合。Davis等人[16]為了解決上述方法中存在的問題,在該方法得基礎上,提出一種改進的方法為信息論度量學習(ITML)方法,該方法可以很好的滿足各類相似性約束,以及成對距離之間的關系。除此以外,也有學者會使用其他的一些度量學習方法,Mignon等人[17]通過對度量學習方法的研究提出了一種新的方法,成對約束分量分析(PCCA)方法。不僅如此,Pedagadi等人[18]提出了局部線性判別分析(LFDA)方法,該方法同樣也取得了很好的效果。
深度學習技術的成熟是比較晚的,在此之前都是以傳統方法為主。在最近幾年的研究工作中,深度學習技術為研究工作帶來了更好的基礎,和傳統方法相比較,通過深度學習技術能夠獲得傳統方法所不及的表示能力,而這一表示能力是非常強大的,因為通過深度學習能夠學習出更加復雜的特征,因此,在性能方面肯定是遠高于傳統方法。在該課題研究中可使用的方法較多,在度量方面可以使用度量學習方法,而在特征方面可以使用表征學習、局部特征的方法。生成對抗網絡(GAN)[19]的逐漸成熟,為數據集數據不足提供了解決方法,可以使用它來進行數據的擴充。
近幾年隨著GAN的發展,很多研究學者利用GAN在該課題中進行一些研究工作。Zheng等人[20]使用了GAN解決ReID中數據量較少的問題,將真實訓練數據和新生成數據合并后作為CNN的訓練輸入。Zhong等人[21]提出了一種相機風格自適應方法,這種方法是為了對數據的多樣性有所增加,從而達到防止過度擬合的目的。Qian等人[22]提出姿態歸一化GAN(PNGAN),該方法的一個優勢是可以不用再關心姿態的變化,解決了姿態對于模型性能的影響問題。
基于上述研究,為了更好的實現行人重識別,本文提出了一種基于注意力機制與多粒度特征的行人重識別網絡。首先,本文設計了一種多粒度特征提取模塊,使用多分支網絡聯合注意力機制提取多粒度全局特征與局部特征,不同粒度的特征各有所長,可高魯棒性挖掘圖像中的信息。其次,針對行人局部未對齊的問題,本文提出了一種鄰域自適應特征融合模塊,避免行人信息丟失。此外,為了保留更多的有用信息,本文還設計了一個自適應特征池化模塊。本文在兩個公開數據集進行了實驗,與其他方法的比較結果驗證了本文所提出方法的有效性。
2" 本文所提出的行人重識別方法
由于監控環境下不同機位的視角的變化會導致拍攝出的圖像不一致,而且在監控區域中行人不是靜止的,行人的活動以及行人眾多所導致的遮擋現象在查找目標行人時依舊會非常的困難,這些是行人重識別任務的難點。解決這些難點的關鍵在于找到魯棒性的表示方法,傳統的行人重識別方法特征表示能力較差,難以應對復雜情況。基于深度學習的識別方法[23-25]具有較好的特征表征能力,是當前的主流方法,但是這些方法難以應對行人的多姿態與多分辨率。為此,本文提出了一種多粒度特征神經網絡(Multi-granularity FeaturesNetwork, MGF-Net)用于行人重識別方法,下面將進行詳細介紹。
2.1" 網絡的總體結構
如圖1所示,我們的方法由主干網絡與多粒度特征提取模塊組成。
圖1" MGF-Net網絡結構
給定一張行人圖像X,主干網絡從圖像中提取不同尺度的特征??梢员硎緸椋?/p>
其中,F1、F2、F3、F4分別表示1/4、1/8、1/16以及1/32尺度下的特征。 表示特征提取器,即主干網絡。在得到多尺度特征之后,多粒度特征提取模塊對多尺度特征通過注意力機制進行特征融合,得到不同粒度的特征,該過程可以表示為:
其中,Agp(·)表示自適應全局池化, 表示特征融合模塊,用于將F3與F4融合,Fl(·)表示基于鄰域自適應特征融合的局部特征提取模塊。G1表示從高層語義提取的全局特征,G2表示從高層語義與中層特征所提取的全局特征,L1表示局部特征。在測試階段,本文將G1、G2與L1進行拼接,得到行人的特征表示,使用距離度量的方法將輸入圖像的拼接向量與圖像庫中圖像的特征向量進行匹配。
2.2" 自適應全局池化
全局池化是的作用將特征圖轉化為一維向量,從特征圖中提取關鍵的信息,全局最大池化與全局平均池化是兩種最常用的池化方式。最大池化可以找到一些關鍵特征,平均池化可以綜合特征的上下文信息。為了綜合利用兩種池化的優勢,本文設計了一種自適應池化模塊。
對于特征F,首先分別使用最大池化與平均池化進行處理,得到Fmax與Favg,然后,將二者進行拼接,得到[Fmax,Favg],使用輸出為2的全連接層與Softmax函數,得到Fmax與Favg的權重amax與aavg。最后,Fmax與Favg進行加權融合。
2.3" 特征融合模塊
特征融合模塊用于將Agp(F3)與Agp(F4)進行融合。其包含維度變換,特征增強,特征組合四個步驟。下面將進行具體介紹。
維度變換:Agp(F3)與Agp(F4)的維度分別為
1 024與2 048,為了統一維度,分別使用輸入為1 024的全連接層對Agp(F3)與Agp(F4)進行維度變換,得到兩個1 024維度的向量F3c與F4c。
特征增強:將F3c與F4c進行相加,并分別使用兩個輸出為1 024的全連接層,求取F3c與F4c所需要的殘差,基于殘差對F3c與F4c進行增強,該過程可以表示為:
其中,F3E與F4E分別表示增強后的特征。
特征組合:將F3E與F4E進行特征拼接,得到全局特征G2,可以表示為:
2.4" 基于鄰域自適應特征融合的局部特征提取模塊
行人圖像具有相對明確的結構信息,因此,在行人重識別中,局部信息也是非常重要的,為了獲取局部信息,一種常用的做法是將特征圖沿著水平方向進行均勻劃分。得到人體不同位置的局部特征,比如頭部,身體。但是,均勻切分難以適應人體位置多樣性的問題,可能出現位置不對齊的問題。為此,本文提出了一種鄰域自適應特征融合模塊來對相鄰圖像塊的信息之間進行了交互。這樣即使圖像是均勻劃分的,最終的特征信息也是根據人體的特征進行學習的,可以大大提高模型的魯棒性。
給定三個相鄰的局部特征L1,L2以及L3,使用L1與L3中的信息對L2進行增強。為實現這一目的,首先將三者進行相加融合,得到融合后的特征Lfusion,然后使用全連接層,從Lfusion求取增強L2所需要的特征。增強后的L2可以表示為:
2.5" 損失函數
為了充分發揮多粒度特征的優勢,我們損失函數使用了交叉熵損失與對比損失的組合,下面將進行詳細介紹。
1)交叉熵損失:行人重識別任務本質可以看作是一個分類任務,因此,本文采用分類任務中最經典的交叉熵損失對不同粒度的特征分別進行了監督,Softmax損失函數公式為:
其中,m表示參數與損失計算的樣本的總個數,p表示數據中所包含的類別數,x表示樣本的特征,y表示特征的標簽,W表示分類層中的可學習權重。
2)原型損失:行人重識別具有類間差異小,類內差異大的特點,為了增強同類別特征的緊湊型,本文還使用了原型損失對模型進行了監督。首先,我們為每個類別的每個粒度的特征構建一個可學習原型,然后計算特征距離原型的歐式距離,某一類別特征距離該類別的原型的距離應小于該特征距離其他原型的距離。原型損失可以表示為:
其中,m表示參數與損失計算的樣本的總個數,p表示數據中所包含的類別數,x表示樣本的特征,t表示可學習原型。
3)總損失:在模型訓練階段,使用兩個損失進行聯合訓練,模型的總損失可以表示為:
2.6" 算法的總體流程
給定一張圖像,模型的主干對圖像的特征進行提取,提取的特征經由三種不同的處理,得到三個種粒度的特征,使用Softmax損失和原型損失共同計算損失,并基于誤差值優化網絡。算法的具體流程可以表示為:
Algorithm:多層次細粒度三分支網絡行人重識別算法流程
輸入:行人圖像
輸出:預測行人的標簽
Step1.輸入行人圖像。
Step2.主干網絡提取行人圖像特征圖。
Step3.對特征圖F4采用自適應池化后輸出2 048維特征。
Step4.將該特征分別使用Softmax和原型損失計算損失。
Step5.對特征圖F4與F3進行特征融合,得到融合后特征。
Step6.對融合后特征使用Softmax和原型損失計算損失。
Step7.將特征圖F4進行均勻切分,切分為6份,并用自適應池化輸出6個2 048維特征。
Step8.將這6個特征進行鄰域自適應特征融合,輸出特征 f1~f6。
Step9.將f1~f6輸入到Softmax loss,并將其串聯后輸入到原型損失。
3" 實驗結果及分析
3.1" 實驗實施細節
本文實驗的系統環境為Ubuntu18.04操作系統,模型訓練是在NVIDIA GTX 3090 GPU進行的,模型框架采用PyTorch。在進行網絡訓練時,為了提升模型表達能力,使用了在 ImageNet[54]的預訓練的Resnet50模型的權重對本文網絡的主觀進行了初始化。在訓練階段,行人圖像的尺寸被統一調整為384×128。此外,本文還使用了隨機翻轉和隨機擦除這兩種數據增強策略。在訓練階段,本文選擇了常用的SGD優化器對模型進行訓練,SGD的參數使用的均為默認參數,模型的batch 大小為32,訓練總次數為120個epoch。
對于學習率,我們使用了預熱策略與衰減策略。對于預測策略,將學習率的初始值設置為3×10-2大小,并逐步增大到初始學習率。對于衰減策略,模型在第40,80,100個epoch學習率變為之前的十分之一。
3.2" 與其他模型的比較結果
為了驗證本文方法與其他方法的差別,使用了該課題中現有的十種方法進行比較,這幾種方法分別是IANet、Triplet Loss、MultiScale、Auto-ReID、MLFN、HA-CNN、PCB、GSRW、PGFA、P2-Net,表1為本文方法與十種方法在 Market-1501數據集上的對比結果。由對比結果數據可以看出,本文的方法Rank-1為95.4%、mAP為85.8%。本文方法與P2-Net算法相比,Rank-1與mAP均有所提升。與其他算法相比,本文方法均有顯著提高,證明了本文方法的有效性。
表1" 在Market-1501與主流算法的比較" "單位:%
Methods Rank-1 mAP
Triplet Loss 84.9 69.1
MultiScale 88.9 73.1
MLFN 90.0 74.3
HA-CNN 91.2 75.7
PGFA 91.2 76.8
PCB 92.3 77.4
PCB+RPP 93.8 81.6
GSRW 92.7 82.5
IANet 94.4 83.1
Auto-ReID 94.5 85.1
P2-Net 95.2 85.6
MGF-Net 95.4 85.8
3.3" 消融研究
3.3.1" 多粒度特征的有效性
我們通過實驗來說明本文方法中各個粒度的特征作用是否是有效的。為此,我們在Market1501數據集下對模型各個粒度特征的有效性以進行了驗證。表2顯示了在使用不同粒度特征的設置下,不同模型的性能比較結果。
表2" 不同粒度特征設置下的性能比較結果" 單位:%
Model Rank-1 Rank-5 Rank-10 mAP
MGF-Net(G1,G2) 93.8 97.7 98.5 81.9
MGF-Net(G2,L1) 94.4 97.5 98.5 82.8
MGF-Net(G1,L1) 94.6 97.9 98.8 82.9
MGF-Net 95.4 98.1 98.9 85.8
其中,G1和G2分別代表兩種全局特征,L1代表局部特征。可以發現,當去掉局部特征后,模型的性能顯著下降。去掉全局特征1或者全局特征2,模型的性能略有下降。這一結果說明了本文提出的多粒度特征對于模型性能的提升時有效的。
3.3.2" 自適應池化的有效性
進一步,本文對所提出池化策略的有效性進行了驗證,結果如表3所示。可以看到,最大池化的性能要優于平均池化,這是因為最大池化會找到許多具有辨別性的特征信息。將最大池化與平均池化綜合使用,可以取得優于任意一種池化方法的效果,因此,綜合使用最大池化與平均池化是最佳選擇。
表3 不同池化設置下的性能比較結果" " 單位:%
Model Rank-1 Rank-5 Rank-10 mAP
MGF-Net(最大池化) 95.1 97.6 98.1 84.8
MGF-Net(平均池化) 94.2 96.5 97.5 83.8
MGF-Net 95.4 98.1 98.9 85.8
3.3.3" 特征融合模塊的有效性
為了驗證本文提出的特征融合模塊的有效性,本文將全局特征2中的特征融合改為了降維后直接拼接的融合方式,從表4可以看到,本文的特征融合方式可以帶來0.4%的Rank-1增益和1.2%的mAP增益。這一結果充分體現了本文所設計的特征融合模塊的有效性。
表4" 不同特征融合方式下的性能比較結果" 單位:%
Model Rank-1 Rank-5 Rank-10 mAP
MGF-Net(直接拼接) 95.0 97.5 98.1 85.0
MGF-Net 95.4 98.1 98.9 85.8
3.3.4" 鄰域自適應特征融合模塊的有效性
為了驗證本文提出的鄰域自適應特征融合模塊的有效性,本文對使用與不使用鄰域自適應特征融合模塊的特征的模型進行了比較,結果如表5所示??梢钥吹?,在不使用鄰域自適應特征融合模塊的情況下,模型的性能有顯著下降,這一結果充分體現了本文所設計的鄰域自適應特征融合模塊的有效性。
表5" 使用與不使用鄰域自適應特征融合模塊的性能比較結果
單位:%
Model Rank-1 Rank-5 Rank-10 mAP
MGF-Net(不使用鄰域自適應特征融合模塊) 95.2 97.8 98.1 85.1
MGF-Net 95.4 98.1 98.9 85.8
4" 結" 論
本文提出一種多分支架構的深度學習網絡用于行人重識別,所提出的網絡由兩個全局特征提取分支和一個局部特征提取分支組成。多個分支可以提取圖像不同層次的圖像特征,避免信息的確實,增強了所提取特征的魯棒性。在局部特征提取分支,針對行人局部未對齊的問題,本文在局部分支中設計了一種重疊特征融合方法,避免行人信息丟失。在兩個數據集上的實驗結果表明了所提出的方法的優越性。
參考文獻:
[1] 姚樂煒.基于深度學習的行人重識別算法研究 [D].哈爾濱:哈爾濱工業大學,2018.
[2] 盧丹丹. 基于深度學習的行人重識別技術 [D].南京:南京郵電大學,2020.
[3] 孫鵬,馮鵬定,于彤等.基于巴氏距離的監控視頻人體目標相似性度量 [J].中國刑警學院學報,2019(4):119-123.
[4] DALAL N,TRIGGS B. Histograms of oriented gradients for human detection [C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.San Diego:IEEE,2005:886-893.
[5] ZHAO R,OUYANG W,WANG W. Unsupervised salience learning for person re-identification [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Portland:IEEE,2013:3586-3593.
[6] ZHAO R,OUYANG W,WANG X. Person re-identification by salience matching [C]//Proceedings of the IEEE International Conference on Computer Vision.Sydney:IEEE, 2013:2528-2535.
[7] MIGNON A,JURIE F. Pcca:a new approach for distance learning from sparse pairwise constraints [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Providence:IEEE,2012:2666-2672.
[8] ZHENG W S,GONG S,XIANG T. Person re-identification by probabilistic relative distance comparison [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.IEEE,2011:649-656.
[9] SCHWARTZ W R,DAVIS L S. Learning Discriminative Appearance-Based Models Using Partial Least Squares [C]//XXII Brazilian Symposium on Computer Graphics amp; Image Processing.IEEE,2010:322-329.
[10] LIAO S,HU Y,ZHU X,et al. Person re-identification by local maximal occurrence representation and metric learning [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Boston:IEEE,2015:2197-2206.
[11] FARENZENA M,BAZZANI L,PERINA A. Person re-identification by symmetry-driven accumulation of local features [C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition.IEEE,2010:2360-2367.
[12] GRAY D,TAO H. Viewpoint Invariant Pedestrian Recognition with an Ensemble of Localized Features [C]//ECCV '08:Proceedings of the 10th European Conference on Computer Vision.Berlin:Springer-Verlag,2008:262-275.
[13] MA B,YU S,JURIE F. Local Descriptors Encoded by Fisher Vectors for Person Re-identification [C]//Proceedings of the International Conference on Computer Vision.Berlin:Springer-Verlag,2012:413-422.
[14] K?STINGER M,HIRZER M,WOHLHART P,et al. Large scale metric learning from equivalence constraints [C]//2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence:IEEE,2012:2288-2295.
[15] WEINBERGER K Q,SAUL L K. Distance Metric Learning for Large Margin Nearest Neighbor Classification [J].The Journal of Machine Learning Research,2009,10:207-244.
[16] DAVIS J V,KULIS B,JAIN P. Information-theoretic metric learning [C]//Proceedings of the 24th international conference on Machine learning,Corvallis:Association for Computing Machinery,2007:209-216.
[17] MIGNON A,JURIE F. PCCA:A new approach for distance learning from sparse pairwise constraints [C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2012:2666-2672.
[18] PEDAGADI S,ORWELL J,VELASTIN S. Local Fisher Discriminant Analysis for Pedestrian Re-identification [C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.IEEE,2013:3318-3325.
[19] GOODFELLOW I,POUGET-ABADIE J,MIRZA M,et al. Generative adversarial nets [C]//Advances in Neural Information Processing Systems.Montreal.Canada:MIT Press, 2014:2672-2680.
[20] ZHENG Z,ZHENG L, YANG Y. Unlabeled samplesgeneratedby gan improve the person re-identification baseline in vitro [C]//2017 IEEE International Conference on Computer Vision.IEEE,2017:3774-3782.
[21] ZHONG Z,ZHENG L,ZHENG Z,et al. Camera Style Adaptation for Person Re-identification [C]//2018 IEEE Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:5157-5166.
[22] QIAN X,FU Y,XIANG T,et al. Pose-Normalized Image Generation for Person Re-identification [C]//Proceedings of the European conference on computer vision.Munich:Springer,2018:650-667.
[23] CHEN X,FU C,ZHAO Y,et al. Salience-Guided Cascaded Suppression Network for Person Re-identification [C]//Computer Vision and Pattern Recognition. Seattle:IEEE,2020:3300-3310.
[24] ZHENG F,DENG C,SUN X,et al. Pyramidal Person Re-IDentification via Multi-Loss Dynamic Training [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Long Beach:IEEE,2019:8506-8514.
[25] MIAO J X,WU Y,LIU P, et al. Pose-Guided Feature Alignment for Occluded Person Re-Identification [C]//International Conference on Computer Vision.Seoul:IEEE,2019:542-551.
作者簡介:李靜(1977—),男,漢族,廣東韶關人,警務技術二級主管,本科,研究方向:網絡通信、視頻人像識別在公安業務的應用分析;陳天立(1974—),男,漢族,廣東韶關人,警務技術一級主管,本科,研究方向:公共治安視頻監控、人臉識別等系統建設規劃、實戰應用;藍凌(1978—),男,畬族,廣東南雄人,中學高級教師,本科,研究方向:信息技術、人工智能通信;吳劍濱(1979—),男,漢族,廣東英德人,本科,中級工程師,研究方向:信息技術教育教學、計算機圖形圖像處理。