999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于集中注意力接受場網絡的偏振成像偽裝目標檢測

2024-11-04 00:00:00徐國明陳奇志劉綦馬健王峰
計算機應用研究 2024年9期

摘 要:

針對偽裝物體分割中圖像識別魯棒性較差,模型泛化性不強的問題,受神經科學中人類視覺系統接受場結構的啟發,提出一種基于集中注意力接受場網絡的偏振成像偽裝目標檢測方法。根據偏振成像目標探測需要,構建了能有效遏制背景噪聲以及獲取目標細節特征的偏振成像數據集。方法基于識別與定位網絡框架,通過改進特征提取模塊和解碼器模塊,該模塊利用了偏心度和感受野大小之間的關系,涵蓋多尺度的目標信息,可以有效提高偽裝目標特征的可分辨性和魯棒性。實驗驗證利用自建數據集在多個典型目標上進行,并與經典算法進行分割結果的主觀視覺與客觀評價指標對比,對比實驗結果驗證了該方法的有效性。

關鍵詞:偏振成像;偽裝目標分割;機器視覺;卷積神經網絡;數據集

中圖分類號:TP391.41 文獻標志碼:A 文章編號:1001-3695(2024)09-040-2854-06

doi: 10.19734/j.issn.1001-3695.2023.10.0574

Polarization imaging camouflage target detection based on focused attention receptive field network

Xu Guoming1,2,3, Chen Qizhi1, Liu Qi1,2, Ma Jian1,2, Wang Feng3

(1.School of Internet, Anhui University, Hefei 230039, China; 2.National Engineering Research Center for Agro-Ecological Big Data Analysis & Application, Anhui University, Hefei 230601, China; 3.Anhui Province Key Laboratory of Polarized Imaging Detecting Technology, Hefei 230031, China)

Abstract:

Aiming at the problems of poor image recognition robustness and poor model generalization in camouflaged object segmentation, inspired by the receptive field structure of the human visual system in neuroscience, this paper proposed a polarization imaging camouflage target detection method based on the receptive field network of focused attention. According to the polarization imaging target detection needs, it constructed the polarization imaging dataset that could effectively contain the background noise as well as obtain the detailed features of the target. The proposed method based on the recognition and localization network framework, which could effectively improve the discriminability and robustness of camouflaged target features by improving the feature extraction module and the decoder module, which exploited the relationship between the eccentricity and the size of the receptive field to cover multi-scale target information. The experimental validation carries out using a self-constructed dataset on multiple typical targets and comparing the subjective visual and objective evaluation metrics of the segmentation results with classical algorithms, and the results of the ablation experiments validate the effectiveness of the present segmentation method.

Key words:polarization image; camouflaged object segmentation; machine vision; convolutional neural network; dataset

0 引言

偏振、干涉、衍射都是光的重要物理特性,其中偏振是指相對于光的傳播方向,光的振動方向是不對稱的,地表或者大氣層的物體在受到光的反射、散射、投射和電磁輻射的時候會產生相對應的偏振信息,偏振信息可用于分析物體的形狀、表面粗糙程度、紋理走向以及材料的理化特性等。偏振成像技術相對于傳統的成像技術,提供了二維空間的光強分布、光譜譜線和偏振信息,不僅可以完整解析出物體的特征信息,而且可以抑制噪聲,對環境有更好的適應性。在20世紀,西方國家開始進行偏振成像的相關實驗,Tooley[1]提出將偏振成像應用于復雜環境中的目標識別,并對人造目標和自然環境的偏振特征進行描述;Chenault等人[2]通過實驗提出了偏振圖像有利于降低散射光對成像的影響;Boffety等人[3]提出了適用于多波段的偏振圖像的對比度優化方法,進一步提高了目標和背景的對比度;Short等人[4]提出用于提取偏振圖像的局部梯度幅度值和方向特征的人臉識別算法。在實際應用于偽裝目標檢測過程中,偏振光在和目標發生作用后,根據反射和透射光可以提取目標的表面粗糙程度、邊緣細化差異以及內部結構的情況,從而獲得更具優勢的被測目標的圖像特征和相關信息。

最近幾年,偽裝目標檢測研究出現了爆炸式增長,部分原因是對警戒色和模仿的研究越來越多,同時也是視覺感知和目標檢測等相關領域快速發展的必然趨勢。傳統意義上的偽裝識別是指試圖了解不同形式的偽裝所涉及的近似機制,還需要綜合考慮心理和生態環境的因素,這可以理解自然選擇和施加在偽裝上的約束,它們都影響偽裝策略的優化和進化。從更廣泛的意義上說,偽裝已經被人類所采用,最顯著的是應用于軍隊和獵人,同時它也影響了社會的其他部分,例如,醫學診斷(如息肉分割[5]和肺部感染分割[6])、工業(如在自動生產線上檢查不合格產品)、農業(如蝗蟲檢測,以防止入侵)、安全和監視(如搜索和救援任務以及惡劣天氣中針對自動駕駛的行人或障礙物的檢測)、科學研究(如稀有物種發現)和藝術(如逼真的融合和娛樂藝術)等不同領域,具有廣泛且有價值的應用。目前,越來越多的研究人員對偽裝感興趣,在生物學、視覺心理學、計算機科學和藝術之間產生了更多的跨學科聯系。

偽裝物體分割(camouflaged object segmentation,COS)[7]的目的是分割檢測出偽裝在環境中的目標。傳統的偽裝檢測是根據物體的一些低級的特征信息(如紋理等)來區分偽裝目標和背景,與其他的檢測目標相比,檢測效果的魯棒性較低。偽裝目標的檢測與通用目標檢測(generic object detection,GOD)[8]有所區別,GOD的目標更加廣泛,既可以是偽裝的,也可以是顯著的。COS和顯著性目標檢測(salient object detection,SOD)[9]的檢測目的有點相似,COS是對偽裝目標把輸入的特征分成偽裝目標和背景的二分類分割,SOD則把輸入特征分為顯著物體和背景,從某種程度上來說COS和SOD分割的目標是完全相反的。

利用人類識別目標時的直接目標特征,多種基于傳統特征提取的偽裝目標檢測方法被提出。1998年,Tankus等人[10]提出的非邊緣感興趣區域機制,是針對偽裝目標檢測最早的算法,被應用于自然環境中的人工偽裝目標。Zhang等人[11]通過引入前景和背景建模,提出了在貝葉斯框架下執行完整的偽裝目標檢測;Beiderman等人[12]提出通過空間相干光束(如激光)照射分類、識別或識別的被遮擋物體的景物,從物體反射出二次散斑圖案,基于隨機散斑圖案的時間跟蹤,提取物體的時間特征;Galun等人[13]提出自下而上的聚合框架來解決偽裝紋理分割,該框架將紋理元素的結構特征與過濾器響應相結合;Hall等人[14]研究了不同偽裝對人類計算機任務中捕食檢測、識別和捕獲三個階段的影響。

然而,傳統的偽裝檢測方法難以有效地區分對比度較低的偽裝場景,存在特征提取耗時、特征表征能力弱、檢測效果差等問題。隨著基于深度學習的目標檢測成為當前研究的熱門,偽裝目標檢測方法開始在特征提取和檢測效果上獲得更好的結果,能夠有效地增強偽裝目標檢測模型的魯棒性。現有的大部分基于深度學習的偽裝目標檢測方法首先采用卷積神經網絡,如VGG(visual geometry group)[15]、ResNet(residual neural network)[16]、Res2Net[17]等進行特征提取,然后通過增強特征,提高偽裝目標檢測的性能[18]。Fan等人[19]通過搜索注意力機制和部分解碼器組件對偽裝目標的前景和背景的模糊區域進行定位和提取。Lyu等人[20]提出使用LSR(localization,segmentation and ranking)來對目標進行定位,并在不同圖像的偽裝級別,按照預設評價指標劃分偽裝目標。Mei等人[7]提出基于分心挖掘的 PFNet(positioning and focus network)模型,能夠有效地去除前景和背景中異質干擾,提取含有更加豐富信息的偽裝目標的特征。Mao等人[21]使用Swin Transformer作為backbone提取偽裝目標的特征,通過將結合殘差注意力和密集金字塔池化的監督結構來降低主干網絡不直接提供空間監督的影響。Zhu等人[22]提出基于雙流式分散注意力網絡BSANet,通過區分前景和背景以獲得更加細化的邊緣特征,減少目標的丟失。Pang等人[23]提出使用三重結構獲取偽裝目標的差異化特征的網絡ZOOMNet,利用不同的尺度聚合模塊和分層混合尺度模塊增強特征,獲取更加準確的預測。

在神經科學相關的領域,人們發現在視覺皮層中人體接受場的大小是視網膜圖中呈正相關的偏心率函數。根據這個發現可以認為,越接近中心的區域更容易識別物體的特征,并且大腦在對于小的空間變化時具有不敏感性[24]。因此,本文基于目標與背景的偏振特性差異,設計一種人類視覺相關融合物理結構的接受場模塊來增強輕量級網絡的特征表示,采用自建的基于偽裝的偏振數據集,充分利用偏振圖像增強物體的對比度、降低背景噪聲并獲取豐富細節特征的特性,提高偽裝物體的識別率。

1 相關工作

1.1 群接受場模塊

接受場建模是神經科學領域一種重要的感官科學工具,用于預測人的生理反應和構建大腦的計算模型。接受場這一概念原先是由視覺神經領域專家Sherrington[25]描述皮膚上可以引起撓抓反射的區域,提出接受場可以方便地用于指定所有的感受點的集合,在適當的刺激下,一種特殊的反射運動可以被喚起。Hartline[26]最先將這一概念引入視覺神經元。在過去的幾十年里,許多研究者應用接受場模型來表征人類視覺皮層的反應。人類通過使用神經科學儀器經常能觀測到多個神經元產生集合反應,因此這些模型通常被稱為群接受場模型,即pRF(population receptive field properties)模型。

在視網膜中,視覺系統實現了偏心和感受野大小之間的關系。這種關系也可以在非人靈長類動物的單位測量中觀察到。利用功能磁共振成像和pRF模型,可以在皮層的許多視野映射中測量這種關系。在每個皮層圖中,pRF的大小和偏心量一起增加。不同視野圖的pRF大小增加速率不同(圖1),pRF的大小與不同實驗的偏心率呈正相關,不同映射的pRF的大小有較大的差異,V1的最小,TO1和TO2的群接受場要大得多。pRF大小作為視網膜位圖偏心的函數。這一觀察結果已經被重復證明了很多次[27]。

接受場模型有兩個有價值的特性。首先,關鍵pRF參數(接受場位置和大?。┚哂性诖碳兄付ǖ目山忉寙挝?,這使得能夠直接比較使用不同儀器估計的模型參數。第二,接受場可以在個體被試者中進行估計。因此,有意義地比較兩個被試者之間的模型參數是可能的,相同的被試者在不同的條件下,或者相同的被試者用不同的儀器測量。這兩個特性提供了堅實的科學基礎,并支持實際應用?;谏鲜鎏匦?,在深度學習中,為偽裝目標的特征提取提供了一種新的思路,根據人眼在每個刺激幀中對于不同目標的不同反應,使用大量數據集進行訓練,可以有效地建立網絡模型模擬真實人眼的識別架構。

1.2 偏振成像

強度、波長和偏振是光的三個基本特性。光波是橫波,其矢量的振動方向垂直于光的傳播方向,而偏振光的光矢量的振動方向不變或規則變化。偏振照相機用于在多偏振狀態下捕捉光的強度。

自然界中,光在傳輸過程中電矢量振動的空間分布具有一定的對稱性,如圖2所示。當橫波的振動矢量偏向于某些方向產生的現象被稱為偏振。當電矢量的振動在某些固定方向的時候,可以得到四個方向(0°,45°,90°和135°)的線偏振光,如圖3所示。

2.2 接受場模塊

接受場模塊(focus attention module,FAM)包括6個分支來對ResNet50的各個特征圖進行特征提取,6個分支先進行1×1的卷積降維(包括批正則化BatchNormal和激活函數ReLU),以第一個分支為例,將3×3的卷積核分解成1×3和3×1兩個卷積核,在這之后加入卷積率為3的空洞卷積,不僅可以降低計算量,還可以增大感受野。將包含四個膨脹卷積的分支和包含原始信息的特征圖進行拼接相加,并使用1×1的卷積進行降維操作,輸出增強后的特征圖。接受場模塊如圖5所示。

該模塊由inception改進而來,受到膨脹卷積和分支結構影響,本文根據偏振圖像的特點以及擴大感受野的角度,新增加了一個9×9的分支結構。經過實驗驗證發現,多尺度特征的豐富性有助于特征提取,場景中的偽裝目標在更加優化的特征提取模塊的作用下,各項結果指標有明顯提高。

2.3 部分解碼器組件

從FAM中獲取的候選特征輸入到部分解碼器組件(partial decoder components,PDC)組件中,分別對輸入的不同層的特征進行上采樣和下采樣,以獲得相同大小的中間層特征圖,逐元素相乘的方式降低相鄰元素之間的差距。考慮到底層特征和高層特征的特性,本文將含有更多邊界信息的底層特征通過降維加入到有更多語義信息的底層特征進行元素乘法,以獲得更好的輸出結果。改進的部分解碼器組件如圖6所示。

2.4 損失函數

本文模型的損失函數使用交叉熵(cross entropy loss)[27],CELoss能夠更好地收斂,傳遞的梯度信息能夠更均勻,能夠有效地比較不同的分布概率在同一個隨機變量下的差異程度,在機器學習中就表示為真實概率分布(即輸出特征圖)與預測概率分布(手動打標的GT圖像)之間的差異。模型的預測結果與CELoss的值呈負相關,CELoss的值越小,模型預測效果就越好。對Ci和Cj上采樣后,本文的總損失函數定義為

L=LiCE(Ci,G)+LsCE(Cj,G)(5)

其中:LCE為FARFNet定義的損失函數;L為總損失函數;G為Ground Truth圖像對應的特征圖;Ci、Cj為輸出放大的特征圖。

CELoss采用了類間競爭機制,擅長學習不同標簽之間的分類信息,相對于其他傳統語義分割的多標簽不同種類的預測,COS不用考慮非正確的標簽預測概率的準確性,能夠更加專注于正確的標簽預測概率。針對偽裝的二分類問題只有目標和背景的情況,只需要識別偽裝的目標信息,所以有效地減少或者避免了CELoss的不足與缺點。

3 實驗結果與分析

3.1 實驗數據集

由于種種原因,當前基于偽裝的偏振數據集公開極少,為支持本文偽裝目標檢測算法,構建基于偽裝迷彩的偏振數據集,利用該數據集對FARFNet進行訓練。

偏振偽裝圖像由偏振相機采集,如圖7所示,采集的圖像分辨率為5.0 MP,2448×2048 px,幀率為24 fps,采用CMOS單聲道傳感器,如圖7所示。該傳感器能同時采集0°、45°、90°和135°四個偏振方向的圖像。

本文的數據集包括2 800張自建圖像和從網絡上搜集的200張與偽裝相關的圖像,3 000張數據通過翻轉、旋轉、平移和抖動四種幾何變換進行增強,擴充到15 000張,數據集按照9∶1劃分為訓練集和測試集,數據集中所有的偽裝目標包括迷彩服、裝甲車、坦克車和部分小動物的自然偽裝,包含有較豐富的環境特點:a)不同時間段,早晨、正中午、傍晚、夜晚;b)不同場景,枯草坪、綠草坪、小樹林、林間小道、水泥地等;c)偽裝目標,針對不同環境,制造更適合目標偽裝的角度,獲取包含各個尺度偽裝目標的數據集,偏振偽裝數據集部分圖像標注與解析如圖8所示。

3.2 實驗環境

本文設計的實驗環境參數具體如表1所示。

3.3 評價指標和實驗參數設置

為了更好地驗證FARFNet的算法性能,評估改進后的算法模型,本文選用了6個常見的評價指標,具體指標描述如表2所示。

本文算法的模型由Adam optimizer訓練,初始學習率設置為0.000 1,每30個epoch迭代反向傳播學習的速率降低10%,網絡共迭代1 200次,批處理大小為16。

3.4 實現結果分析

本文使用表2中的PA、mIOU、MAE、Sm、adpEm、adpFm作為評價指標,分別與UNet、DANet、SINet、PFNet和ZOOMNet進行比較,得到的實驗結果如表3所示。

從表中可以看出,本文算法在所有指標上均有一定提升,相對于UNet、DANet、SINet、PFNet和ZOOMNet的PA值提升了0.182、0.156、0.072、0.048和0.018,mIOU提升了0.282、0.259、0.086、0.031和0.006,MAE減小了0.033、0.04、0.008、0.005和0.001,Sm提升了0.386、0.421、0.046、0.027和0.004,adpEm值提升了0.502、0.3、0.097、0.085和0.007,adpFm值提升了0.655、0.775、0.07、0.039和0.01,從數據上可以直觀地看出效果提升。圖9是方法對比的預測圖,從圖中也可以看出預測圖接近GT真值圖。

3.5 對比實驗

本文對采集到的偽裝偏振數據集使用Stokes參量進行解析后,對獲得的偏振參量圖像進行實驗。為驗證偏振圖像在本文算法中的有效性,將采集的原始圖像同樣放入網絡中測試并進行對比,結果如表4和圖10所示。根據表中實驗數據可知,偏振參量圖像在測試后的結果上總體優于原圖,PA、mIOU、MAE、Sm和adpEm分別提升了0.016、0.01、0.005、0.003和0.01,adpFm降低了0.007。除了adpFm,總體較原圖都有所提升,而adpFm的差值很小,對于整體模型的實驗效果沒有很大的影響。由此可以得出結論,偏振解析后的圖像在本文的偽裝目標檢測算法中有較好的實驗效果,這對偏振成像技術與深度學習目標檢測方法相結合進行智能探測研究具有重要的參考價值。實驗結果對比如圖10所示。

4 結束語

本文提出一種基于接受場模型的偏振成像偽裝目標檢測方法,其在各個評價指標上都優于其他算法,充分說明該方法能夠實現更好的檢測和識別效果,為基于偽裝的偏振圖像的目標檢測研究提供了一種數據支撐和新的思路。本文主要考慮偽裝數據集和接受場模塊對于網絡模型的改進與提升,充分利用了偏振圖像的優點,獲取更加豐富的圖像特征。下一階段的主要任務是減少網絡模型參數量,在保證利用目標偏振特性的同時,提高算法檢測效率并改進網絡以增加邊緣檢測的效果,這對該領域研究的應用轉換具有重要意義,相關工作正在進行中。

參考文獻:

[1]Tooley R D. Man-made target detection using infrared polarization [J]. Proc of SPIE-The International Society for Optical Engineering, 1990, 1166: 52-59.

[2]Chenault D B,Pezzaniti J L. Polarization imaging through scattering media [J]. SY Technology,2000,4133: 124-133.

[3]Boffety M,Hu H,Goudail F. Contrast optimization in broadband passive polarimetric imaging [J]. Optics Letters,2014,39(23): 6759-6762.

[4]Short N,Hu S,Gurton P K,et al. Changing the paradigm in human identification [J]. Optics & Photonics News,2015,26(12): 40.

[5]Fan Dengping,Ji Gepeng,Zhou Tao,et al. PraNet: parallel reverse attention network for polyp segmentation [C]// Proc of the 23rd International Conference on Medical Image Computing and Computer Assisted Intervention. Cham:Springer,2020: 263-273.

[6]Fan Dengping,Zhou Tao,Ji Geping,et al. Inf-Net: automatic Covid-19 lung infection segmentation from CT images [J]. IEEE Trans on Medical Imaging,2020,39(8): 2626-2637.

[7]Mei Haiyang,Ji Gepeng,Wei Ziqi,et al. Camouflaged object segmentation with distraction mining [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2021: 8768-8777.

[8]Everingham M,Eslami S A,Van Gool L,et al. The pascal visual object classes challenge: a retrospective [J]. International Journal of Computer Vision,2015,111: 98-136.

[9]Itti L,Koch C,Niebur E. A model of saliency-based visual attention for rapid scene analysis [J]. IEEE Trans on Pattern Analysis and Machine Intelligence,1998,20(11): 1254-1259.

[10]Tankus A,Yeshurun Y. Detection of regions of interest and camouflage breaking by direct convexity estimation [C]// Proc of IEEE Workshop on Visual Surveillance. Piscataway,NJ: IEEE Press,1998: 42-48.

[11]Zhang Xiang,Zhu Ce,Wang Shuai,et al. A Bayesian approach to camouflaged moving object detection [J]. IEEE Trans on Circuits and Systems for Video Technology,2016,27(9): 2001-2013.

[12]Beiderman Y,Teicher M,Garcia J,et al. Optical technique for classification,recognition and identification of obscured objects [J]. Optics Communications,2010,283(21): 4274-4282.

[13]Galun M,Sharon E,Basri J,et al. Texture segmentation by multiscale aggregation of filter responses and shape elements [C]// Proc of the 9th IEEE International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2003:716-723.

[14]Hall J R,Cuthill I C,Baddeley R,et al. Camouflage,detection and identification of moving targets [J]. Biological Sciences,2013,280(1758): 20130064.

[15]Siminyan K,Zisserman A. Very deep convolutional networks for large-scale image recognition [EB/OL]. (2015-04-10). https://arxiv.org/abs/1409.1556.

[16]He Kaiming,Zhang Xiangyu,Ren Shaoqing,et al. Deep residual learning for image recognition [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Computer Society,2016: 770-778.

[17]Gao Shanghua,Cheng Mingming,Zhao Kai,et al. Res2Net: a new multi-scale backbone architecture [J]. IEEE Trans on Pattern Analysis and Machine Intelligence,2019,43(2): 652-662.

[18]史彩娟,任弼娟,王子雯,等. 基于深度學習的偽裝目標檢測綜述 [J]. 計算機科學與探索,2022,16(12): 2734-2751. (Shi Caijuan,Ren Bijuan,Wang Ziwen,et al. Overview of camouflage target detection based on deep learning [J]. Computer Science and Exploration,2022,16(12): 2734-2751.)

[19]Fan Dengping,Ji Gepeng,Sun Guo,et al. Camouflaged object detection [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2020: 2774-2784.

[20]Lyu Yunqiu,Zhang Jing,Dai Yuchao,et al. Simultaneously localize,segment and rank the camouflaged objects [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2021: 11586-11589.

[21]Mao Yuxin,Zhang Jing,Wan Zhexiong,et al. Transformer transforms salient object detection and camouflaged object detection [EB/OL]. (2021-04-20). https://export.arxiv.org/abs/2104.10127v2.

[22]Zhu Hongwei,Li Peng,Xie Haoran,et al. I can find you! Boundary-guided separated attention network for camouflaged object detection [C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press,2022: 3608-3616.

[23]Pang Youwei,Zhao Xiaoqi,Xiang Tianzhu,et al. Zoom in and out: a mixed-scale triplet network for camouflage object detection [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Re-cognition. Piscataway,NJ: IEEE Press,2022: 2160-2170.

[24]Liu Songtao,Huang Di,Wang Yunhong. Receptive field block net for accurate and fast object detection [C]// Proc of the 15th European Conference on Computer Vision. Berlin: Springer,2018: 404-419.

[25]Sherrington C S. Flexion-reflex of the limb,crossed extension-reflex,and reflex stepping and standing [J]. The Journal of Physiology,1910,40(1-2): 28.

[26]Hartline H K. The response of single optic nerve fibers of the vertebrate eye to illumination of the retina [J]. American Journal of Physiology-Legacy Content,1938,121(2): 400-415.

[27]Wandell B A,Winawer J. Computational neuroimaging and population receptive fields [J]. Trends in Cognitive Sciences,2015,19(6): 349-357.

收稿日期:2023-10-17;修回日期:2024-01-18 基金項目:國家自然科學基金資助項目(61906118,62273001);安徽省重大專項(202003A06020016);安徽省自然科學基金資助項目(1908085MF208,2108085MF230);陸軍裝備部十三五預研子課題;安徽省高校自然科學研究重點項目(KJ2019A0906)

作者簡介:徐國明(1979—),男,安徽太和人,教授,博導,博士,CCF會員,主要研究方向為偏振成像探測、圖像超分辨率;陳奇志(1999—),男(通信作者),安徽合肥人,碩士研究生,主要研究方向為目標檢測、偏振成像(315969932@qq.com);劉綦(1978—),女,陜西西安人,副教授,碩士,主要研究方向為智能數據處理、無線傳感器網絡;馬?。?985—),男,安徽潁上人,講師,碩導,博士,主要研究方向為圖像質量評價、計算機視覺;王峰(1972—),男,教授,博士,主要研究方向為新型光電成像探測技術.

主站蜘蛛池模板: 99在线视频精品| 婷婷综合缴情亚洲五月伊| 国产亚洲美日韩AV中文字幕无码成人 | 免费A级毛片无码免费视频| 青青久视频| 久久国产V一级毛多内射| 精品国产自在在线在线观看| 欧美成一级| 国产成人无码久久久久毛片| 亚洲欧洲天堂色AV| 婷婷激情亚洲| 欧洲高清无码在线| 日韩AV无码一区| av在线人妻熟妇| 伊人91在线| 高h视频在线| 狠狠ⅴ日韩v欧美v天堂| 91无码网站| 精品免费在线视频| 国产精品女熟高潮视频| 日韩成人在线视频| 国产欧美一区二区三区视频在线观看| 亚洲国产日韩欧美在线| 亚洲中文字幕日产无码2021| 精品自窥自偷在线看| 国产精品无码一二三视频| 狠狠综合久久| 国产在线八区| 人人看人人鲁狠狠高清| 中文字幕精品一区二区三区视频| 99这里只有精品免费视频| 国产精品理论片| 一级全黄毛片| 国产素人在线| 亚洲精品在线观看91| 国产亚洲美日韩AV中文字幕无码成人 | 国产美女自慰在线观看| 午夜限制老子影院888| 亚洲免费毛片| 日韩欧美综合在线制服| 精品久久久无码专区中文字幕| 91亚洲精选| 久久久久夜色精品波多野结衣| 国产一区二区福利| 99热国产这里只有精品无卡顿"| 国产91高清视频| 国产波多野结衣中文在线播放 | 国产精品美女网站| 亚洲综合狠狠| 国产一在线观看| 九九九国产| 国产丝袜第一页| 亚洲综合欧美在线一区在线播放| 久久精品亚洲热综合一区二区| 91精品啪在线观看国产60岁| 热99re99首页精品亚洲五月天| 美女亚洲一区| 亚洲最新在线| 亚洲午夜福利在线| 日韩欧美国产成人| 日韩福利视频导航| av免费在线观看美女叉开腿| 免费观看精品视频999| 国产亚洲欧美日本一二三本道| 国产自在线拍| 波多野结衣久久精品| 美女潮喷出白浆在线观看视频| 暴力调教一区二区三区| 国产福利小视频在线播放观看| 91欧美亚洲国产五月天| 亚洲第一区在线| 欧美a√在线| 91精品久久久无码中文字幕vr| 免费日韩在线视频| 国产9191精品免费观看| 99热这里只有精品国产99| 国产精品视频a| 亚洲成A人V欧美综合天堂| 欧美一级夜夜爽www| 六月婷婷激情综合| 在线观看免费人成视频色快速| 亚洲黄色视频在线观看一区|